Zurück zu Richtlinienvorlagen
Richtlinie 09 von 15

KI-Transparenz- und Nutzerbenachrichtigungsrichtlinie

Legt fest, wann und wie Nutzer und betroffene Personen über die KI-Beteiligung in den Produkten, Dienstleistungen und Prozessen der Organisation informiert werden.

1. Zweck

Diese Richtlinie definiert die Transparenz- und Benachrichtigungspflichten für KI-Systeme bei [Name der Organisation]. Sie legt fest, wann Nutzer darüber informiert werden müssen, dass KI beteiligt ist, welche Informationen bereitgestellt werden müssen, wie Offenlegungen erfolgen und wer für deren Pflege verantwortlich ist. Transparenz ist sowohl eine regulatorische Anforderung als auch eine Vertrauensverpflichtung.

2. Geltungsbereich

Diese Richtlinie gilt für:

  • Alle KI-Systeme, die mit Einzelpersonen interagieren oder Ergebnisse für diese erzeugen (Kunden, Mitarbeitende, Partner, Öffentlichkeit).
  • Alle KI-Systeme, die Inhalte erzeugen oder manipulieren (Text, Bilder, Audio, Video).
  • Alle KI-Systeme, die Entscheidungen über Einzelpersonen treffen oder beeinflussen.
  • Sowohl interne als auch externe KI-Systeme.

3. Transparenzpflichten

Platzhaltertext. Füllen Sie mit der Sprache Ihrer Organisation für 3. Transparenzpflichten aus.

3.1 Offenlegung von KI-Interaktionen

Wenn eine Person mit einem KI-System interagiert (Chatbot, virtueller Assistent, automatisierter Support), muss sie darüber informiert werden, dass sie mit KI und nicht mit einem Menschen interagiert. Dies gilt, sofern es nicht aus den Umständen offensichtlich ist (EU AI Act Artikel 50 Absatz 1).

Die Offenlegung muss:

  • Vor oder zu Beginn der Interaktion erfolgen.
  • Klar und in verständlicher Sprache formuliert sein.
  • Zugänglich sein (nicht in den Nutzungsbedingungen versteckt).

3.2 Kennzeichnung synthetischer Inhalte

KI-generierte Inhalte (Text, Bilder, Audio, Video) müssen als künstlich erzeugt oder manipuliert gekennzeichnet werden, wenn sie vernünftigerweise mit von Menschen erstellten oder realen Inhalten verwechselt werden könnten (EU AI Act Artikel 50 Absatz 2).

  • Maschinenlesbare Metadaten müssen in die Ausgabe eingebettet werden, soweit technisch machbar.
  • Menschenlesbare Kennzeichnungen müssen angebracht werden, wenn die Inhalte veröffentlicht oder extern verbreitet werden.
  • Für Satire, Parodie oder künstlerischen Ausdruck verwendete Inhalte können befreit sein, wenn sie als solche eindeutig erkennbar sind.

3.3 Emotionserkennungs- und biometrische Systeme

Wenn die Organisation Emotionserkennungs- oder biometrische Kategorisierungssysteme einsetzt, müssen Personen, die diesen Systemen ausgesetzt sind, über deren Betrieb informiert werden (EU AI Act Artikel 50 Absatz 3).

3.4 Deepfake-Offenlegung

KI-erzeugte oder -manipulierte Bild-, Audio- oder Videoinhalte, die ein Deepfake darstellen, müssen vor oder zum Zeitpunkt der Verbreitung als künstlich erzeugt oder manipuliert offengelegt werden (EU AI Act Artikel 50 Absatz 4).

4. Betreiber-Transparenz für Hochrisiko-Systeme

Für Hochrisiko-KI-Systeme (EU AI Act Artikel 13) müssen Betreiber Informationen bereitstellen über:

  • Den beabsichtigten Zweck und die Art des KI-Systems.
  • Das Genauigkeitsniveau einschließlich bekannter Einschränkungen.
  • Umstände, die die Leistung beeinträchtigen können.
  • Vorhandene Maßnahmen zur menschlichen Aufsicht.
  • Erwartete Lebensdauer und Wartungsanforderungen.

5. Transparenz bei automatisierter Entscheidungsfindung

Wenn KI-Systeme Entscheidungen über Einzelpersonen treffen oder wesentlich beeinflussen (DSGVO Artikel 13, 14 und 22):

  • Einzelpersonen müssen darüber informiert werden, dass eine automatisierte Verarbeitung stattfindet.
  • Die involvierte Logik muss in für die betroffene Person verständlichen Begriffen erklärt werden.
  • Die Bedeutung und möglichen Konsequenzen der Verarbeitung müssen kommuniziert werden.
  • Einzelpersonen müssen über ihr Recht informiert werden, eine menschliche Überprüfung der Entscheidung zu verlangen.
  • Kontaktinformationen zur Ausübung dieser Rechte müssen bereitgestellt werden.

6. Wie Offenlegungen bereitgestellt werden

KanalOffenlegungsmethode
Chatbot oder virtueller AssistentEröffnungsnachricht vor Beginn des Gesprächs (z. B. "Sie chatten mit einem KI-Assistenten").
E-Mail oder schriftliche KommunikationFuß- oder Kopfzeile mit Hinweis auf KI-Beteiligung bei der Erstellung.
Web- oder mobile AnwendungKontextbezogene Kennzeichnung in der Nähe KI-generierter Inhalte oder Empfehlungen.
SprachinteraktionAudioansage zu Beginn des Gesprächs oder der Interaktion.
Erzeugte Medien (Bilder, Video)Wasserzeichen, Metadaten-Tag oder begleitende Kennzeichnung.
EntscheidungsmitteilungBrief oder Mitteilung mit Erklärung der KI-Beteiligung und Möglichkeit zur Beantragung einer Überprüfung.

7. Interne Transparenz

Für intern genutzte KI-Systeme (mitarbeiterorientiert):

  • Mitarbeitende müssen informiert werden, wenn KI in HR-Prozessen eingesetzt wird (Leistungsbewertungen, Planung, Screening).
  • Die Überwachung von Mitarbeitenden mittels KI muss gemäß den lokalen arbeitsrechtlichen Vorschriften offengelegt werden.
  • Interne KI-Tools müssen klar anzeigen, ob die Ausgabe KI-generiert oder menschlich erstellt ist.

8. Dokumentation

Für jedes KI-System muss der Modellverantwortliche dokumentieren:

Diese Dokumentation wird im KI-Inventar gepflegt und steht für Audits zur Verfügung.

  • Welche Transparenzpflichten gelten (basierend auf Systemtyp und Risikoklassifizierung).
  • Wie jede Pflicht erfüllt wird (Offenlegungsmethode, Text, Platzierung).
  • Wann Offenlegungen implementiert und zuletzt überprüft wurden.
  • Beanspruchte Ausnahmen und deren Begründung.

9. Rollen und Verantwortlichkeiten

RolleTransparenz-Verantwortlichkeiten
ModellverantwortlicherIdentifiziert anwendbare Pflichten, implementiert Offenlegungen, pflegt Dokumentation.
Produkt/UXGestaltet Offenlegungsoberflächen, die klar, zugänglich und nicht störend sind.
RechtBerät zu regulatorischen Anforderungen, prüft Offenlegungstexte, bewertet Ausnahmen.
KI-Governance-VerantwortlicherAuditiert Transparenz-Compliance über das Portfolio, verfolgt regulatorische Änderungen.

10. Regulatorische Ausrichtung

  • EU AI Act: Artikel 50 (Transparenz für Anbieter und Betreiber), Artikel 13 (Betreiberinformation für Hochrisiko-Systeme).
  • DSGVO: Artikel 13-14 (Informationspflichten), Artikel 22 (automatisierte Entscheidungsfindung).
  • ISO/IEC 42001: Abschnitt 4.2 (interessierte Parteien), Anhang C (Transparenzüberlegungen).
  • NIST AI RMF: GOVERN-Funktion (GV-4: organisatorische Transparenz).

11. Überprüfung

Diese Richtlinie wird jährlich oder bei Auslösung durch neue Transparenzanforderungen (z. B. Finalisierung des EU AI Act Code of Practice), neue KI-Systemtypen oder Audit-Feststellungen überprüft.

Dokumentenlenkung

FeldWert
Richtlinienverantwortlicher[KI-Governance-Verantwortlicher]
Genehmigt durch[KI-Governance-Ausschuss]
Inkrafttreten[Datum]
Nächste Überprüfung[Datum + 12 Monate]
Version1.0
KlassifizierungIntern

Bereit, diese Richtlinie umzusetzen?

Nutzen Sie VerifyWise, um diese Richtlinienvorlage anzupassen, bereitzustellen und die Compliance zu verfolgen.

KI-Transparenz- und Nutzerbenachrichtigungsrichtlinie | VerifyWise KI-Governance-Vorlagen