1. Zweck
Diese Richtlinie definiert die Transparenz- und Benachrichtigungspflichten für KI-Systeme bei [Name der Organisation]. Sie legt fest, wann Nutzer darüber informiert werden müssen, dass KI beteiligt ist, welche Informationen bereitgestellt werden müssen, wie Offenlegungen erfolgen und wer für deren Pflege verantwortlich ist. Transparenz ist sowohl eine regulatorische Anforderung als auch eine Vertrauensverpflichtung.
2. Geltungsbereich
Diese Richtlinie gilt für:
- Alle KI-Systeme, die mit Einzelpersonen interagieren oder Ergebnisse für diese erzeugen (Kunden, Mitarbeitende, Partner, Öffentlichkeit).
- Alle KI-Systeme, die Inhalte erzeugen oder manipulieren (Text, Bilder, Audio, Video).
- Alle KI-Systeme, die Entscheidungen über Einzelpersonen treffen oder beeinflussen.
- Sowohl interne als auch externe KI-Systeme.
3. Transparenzpflichten
Platzhaltertext. Füllen Sie mit der Sprache Ihrer Organisation für 3. Transparenzpflichten aus.
3.1 Offenlegung von KI-Interaktionen
Wenn eine Person mit einem KI-System interagiert (Chatbot, virtueller Assistent, automatisierter Support), muss sie darüber informiert werden, dass sie mit KI und nicht mit einem Menschen interagiert. Dies gilt, sofern es nicht aus den Umständen offensichtlich ist (EU AI Act Artikel 50 Absatz 1).
Die Offenlegung muss:
- Vor oder zu Beginn der Interaktion erfolgen.
- Klar und in verständlicher Sprache formuliert sein.
- Zugänglich sein (nicht in den Nutzungsbedingungen versteckt).
3.2 Kennzeichnung synthetischer Inhalte
KI-generierte Inhalte (Text, Bilder, Audio, Video) müssen als künstlich erzeugt oder manipuliert gekennzeichnet werden, wenn sie vernünftigerweise mit von Menschen erstellten oder realen Inhalten verwechselt werden könnten (EU AI Act Artikel 50 Absatz 2).
- Maschinenlesbare Metadaten müssen in die Ausgabe eingebettet werden, soweit technisch machbar.
- Menschenlesbare Kennzeichnungen müssen angebracht werden, wenn die Inhalte veröffentlicht oder extern verbreitet werden.
- Für Satire, Parodie oder künstlerischen Ausdruck verwendete Inhalte können befreit sein, wenn sie als solche eindeutig erkennbar sind.
3.3 Emotionserkennungs- und biometrische Systeme
Wenn die Organisation Emotionserkennungs- oder biometrische Kategorisierungssysteme einsetzt, müssen Personen, die diesen Systemen ausgesetzt sind, über deren Betrieb informiert werden (EU AI Act Artikel 50 Absatz 3).
3.4 Deepfake-Offenlegung
KI-erzeugte oder -manipulierte Bild-, Audio- oder Videoinhalte, die ein Deepfake darstellen, müssen vor oder zum Zeitpunkt der Verbreitung als künstlich erzeugt oder manipuliert offengelegt werden (EU AI Act Artikel 50 Absatz 4).
4. Betreiber-Transparenz für Hochrisiko-Systeme
Für Hochrisiko-KI-Systeme (EU AI Act Artikel 13) müssen Betreiber Informationen bereitstellen über:
- Den beabsichtigten Zweck und die Art des KI-Systems.
- Das Genauigkeitsniveau einschließlich bekannter Einschränkungen.
- Umstände, die die Leistung beeinträchtigen können.
- Vorhandene Maßnahmen zur menschlichen Aufsicht.
- Erwartete Lebensdauer und Wartungsanforderungen.
5. Transparenz bei automatisierter Entscheidungsfindung
Wenn KI-Systeme Entscheidungen über Einzelpersonen treffen oder wesentlich beeinflussen (DSGVO Artikel 13, 14 und 22):
- Einzelpersonen müssen darüber informiert werden, dass eine automatisierte Verarbeitung stattfindet.
- Die involvierte Logik muss in für die betroffene Person verständlichen Begriffen erklärt werden.
- Die Bedeutung und möglichen Konsequenzen der Verarbeitung müssen kommuniziert werden.
- Einzelpersonen müssen über ihr Recht informiert werden, eine menschliche Überprüfung der Entscheidung zu verlangen.
- Kontaktinformationen zur Ausübung dieser Rechte müssen bereitgestellt werden.
6. Wie Offenlegungen bereitgestellt werden
| Kanal | Offenlegungsmethode |
|---|---|
| Chatbot oder virtueller Assistent | Eröffnungsnachricht vor Beginn des Gesprächs (z. B. "Sie chatten mit einem KI-Assistenten"). |
| E-Mail oder schriftliche Kommunikation | Fuß- oder Kopfzeile mit Hinweis auf KI-Beteiligung bei der Erstellung. |
| Web- oder mobile Anwendung | Kontextbezogene Kennzeichnung in der Nähe KI-generierter Inhalte oder Empfehlungen. |
| Sprachinteraktion | Audioansage zu Beginn des Gesprächs oder der Interaktion. |
| Erzeugte Medien (Bilder, Video) | Wasserzeichen, Metadaten-Tag oder begleitende Kennzeichnung. |
| Entscheidungsmitteilung | Brief oder Mitteilung mit Erklärung der KI-Beteiligung und Möglichkeit zur Beantragung einer Überprüfung. |
7. Interne Transparenz
Für intern genutzte KI-Systeme (mitarbeiterorientiert):
- Mitarbeitende müssen informiert werden, wenn KI in HR-Prozessen eingesetzt wird (Leistungsbewertungen, Planung, Screening).
- Die Überwachung von Mitarbeitenden mittels KI muss gemäß den lokalen arbeitsrechtlichen Vorschriften offengelegt werden.
- Interne KI-Tools müssen klar anzeigen, ob die Ausgabe KI-generiert oder menschlich erstellt ist.
8. Dokumentation
Für jedes KI-System muss der Modellverantwortliche dokumentieren:
Diese Dokumentation wird im KI-Inventar gepflegt und steht für Audits zur Verfügung.
- Welche Transparenzpflichten gelten (basierend auf Systemtyp und Risikoklassifizierung).
- Wie jede Pflicht erfüllt wird (Offenlegungsmethode, Text, Platzierung).
- Wann Offenlegungen implementiert und zuletzt überprüft wurden.
- Beanspruchte Ausnahmen und deren Begründung.
9. Rollen und Verantwortlichkeiten
| Rolle | Transparenz-Verantwortlichkeiten |
|---|---|
| Modellverantwortlicher | Identifiziert anwendbare Pflichten, implementiert Offenlegungen, pflegt Dokumentation. |
| Produkt/UX | Gestaltet Offenlegungsoberflächen, die klar, zugänglich und nicht störend sind. |
| Recht | Berät zu regulatorischen Anforderungen, prüft Offenlegungstexte, bewertet Ausnahmen. |
| KI-Governance-Verantwortlicher | Auditiert Transparenz-Compliance über das Portfolio, verfolgt regulatorische Änderungen. |
10. Regulatorische Ausrichtung
- EU AI Act: Artikel 50 (Transparenz für Anbieter und Betreiber), Artikel 13 (Betreiberinformation für Hochrisiko-Systeme).
- DSGVO: Artikel 13-14 (Informationspflichten), Artikel 22 (automatisierte Entscheidungsfindung).
- ISO/IEC 42001: Abschnitt 4.2 (interessierte Parteien), Anhang C (Transparenzüberlegungen).
- NIST AI RMF: GOVERN-Funktion (GV-4: organisatorische Transparenz).
11. Überprüfung
Diese Richtlinie wird jährlich oder bei Auslösung durch neue Transparenzanforderungen (z. B. Finalisierung des EU AI Act Code of Practice), neue KI-Systemtypen oder Audit-Feststellungen überprüft.
Dokumentenlenkung
| Feld | Wert |
|---|---|
| Richtlinienverantwortlicher | [KI-Governance-Verantwortlicher] |
| Genehmigt durch | [KI-Governance-Ausschuss] |
| Inkrafttreten | [Datum] |
| Nächste Überprüfung | [Datum + 12 Monate] |
| Version | 1.0 |
| Klassifizierung | Intern |