ZurĂŒck zu Richtlinienvorlagen
Richtlinie 15 von 15

GrundsĂ€tze fĂŒr verantwortungsvolle KI

Kodifiziert die Verpflichtung der Organisation zur Entwicklung, Bereitstellung und zum Betrieb von KI-Systemen, die fair, transparent, rechenschaftspflichtig und sicher sind.

1. Zweck

Dieses Dokument legt die grundlegenden Prinzipien fest, die alle KI-AktivitĂ€ten bei [Name der Organisation] leiten. Diese GrundsĂ€tze setzen die ethische Mindestgrenze fĂŒr die Art und Weise, wie wir KI entwickeln, beschaffen und betreiben. Jede KI-Richtlinie, jedes Verfahren und jede Governance-Entscheidung in der Organisation muss mit diesen GrundsĂ€tzen ĂŒbereinstimmen.

Wir veröffentlichen diese GrundsĂ€tze als Bekenntnis zur öffentlichen Rechenschaftspflicht. Sie spiegeln unsere Werte und unsere Verpflichtung gegenĂŒber den Gemeinschaften, Kunden und Mitarbeitenden wider, die von unseren KI-Systemen betroffen sind.

2. Geltungsbereich

Diese GrundsĂ€tze gelten fĂŒr:

  • Alle KI-Systeme unabhĂ€ngig von der Risikoklassifizierung (hoch, mittel oder niedrig).
  • Alle Mitarbeitenden, Auftragnehmer und Partner, die an KI-AktivitĂ€ten beteiligt sind.
  • Alle Phasen des KI-Lebenszyklus, von der Ideenfindung bis zur Stilllegung.
  • Sowohl intern entwickelte Systeme als auch beschaffte oder integrierte Drittanbieter-KI.

3. Unsere GrundsÀtze

Platzhaltertext. FĂŒllen Sie mit der Sprache Ihrer Organisation fĂŒr 3. Unsere GrundsĂ€tze aus.

3.1 Fairness und Nichtdiskriminierung

KI-Systeme dĂŒrfen keine Ergebnisse erzeugen, die Einzelpersonen oder Gruppen aufgrund geschĂŒtzter Merkmale wie Rasse, Geschlecht, Alter, Behinderung, Religion oder sozioökonomischem Status unfair diskriminieren.

Wir verpflichten uns zu:

  • Bias-Tests vor der Bereitstellung unter Verwendung geeigneter statistischer Methoden und reprĂ€sentativer EvaluierungsdatensĂ€tze.
  • Verwendung von Trainingsdaten, die reprĂ€sentativ und ausgewogen sind und auf historische Verzerrungen ĂŒberprĂŒft wurden, die vom Modell verstĂ€rkt werden könnten.
  • Dokumentation bekannter EinschrĂ€nkungen, potenzieller disparater Auswirkungen und der bewerteten demographischen Gruppen.
  • Bereitstellung von Mechanismen fĂŒr Einzelpersonen, um KI-gestĂŒtzte Entscheidungen, die sie betreffen, anzufechten, im Einklang mit DSGVO Artikel 22 (Recht, keiner ausschließlich automatisierten Entscheidungsfindung unterworfen zu werden).
  • RegelmĂ€ĂŸige Neubewertung der Fairness nach der Bereitstellung, nicht nur zum Zeitpunkt der EinfĂŒhrung.

3.2 Transparenz und ErklÀrbarkeit

Personen, die mit unseren KI-Systemen interagieren oder von diesen betroffen sind, haben ein Recht zu verstehen, wie diese Systeme funktionieren und welche Rolle KI bei sie betreffenden Entscheidungen spielt.

Wir verpflichten uns zu:

  • Offenlegung, wenn KI in Interaktionen mit Einzelpersonen eingesetzt wird, wie vom EU AI Act Artikel 50 gefordert.
  • Bereitstellung von ErklĂ€rungen zu KI-gestĂŒtzten Entscheidungen auf einem dem Publikum und dem Ausmaß der Auswirkungen angemessenen Niveau.
  • Pflege von Modellkarten, DatenblĂ€ttern und Systemdokumentation, die FĂ€higkeiten, EinschrĂ€nkungen und bekannte Fehlerarten beschreiben.
  • Bereitstellung von Governance-Aufzeichnungen fĂŒr interne und externe Audits.
  • Klare Kommunikation des Konfidenzniveaus und der EinschrĂ€nkungen von KI-Ausgaben an Endnutzer.

3.3 Rechenschaftspflicht und menschliche Aufsicht

KI entbindet Menschen nicht von der Verantwortung. Jedes KI-System muss einen benannten Verantwortlichen haben, und Menschen mĂŒssen sinnvolle Kontrolle ĂŒber Entscheidungen behalten, die Einzelpersonen oder die Organisation wesentlich betreffen.

Wir verpflichten uns zu:

  • Zuweisung eines Modellverantwortlichen fĂŒr jedes KI-System, der fĂŒr dessen Verhalten ĂŒber den gesamten Lebenszyklus rechenschaftspflichtig ist.
  • Erfordernis einer menschlichen ÜberprĂŒfung fĂŒr Hochrisiko-Entscheidungen vor deren Wirksamwerden, wie vom EU AI Act Artikel 14 gefordert.
  • Aufrechterhaltung der FĂ€higkeit, KI-Systeme jederzeit zu ĂŒbersteuern, zu korrigieren oder abzuschalten.
  • Einrichtung klarer Eskalationswege, wenn KI-Systeme sich unerwartet verhalten.
  • Aufzeichnung von Governance-Entscheidungen mit BegrĂŒndung, damit sie im Nachhinein nachvollzogen werden können.

3.4 Datenschutz und Datensicherheit

KI-Systeme mĂŒssen die PrivatsphĂ€re des Einzelnen respektieren und die geltenden Datenschutzgesetze einhalten. Daten, die zum Trainieren, Feinabstimmen oder Betreiben von KI verwendet werden, mĂŒssen rechtmĂ€ĂŸig erhoben, verarbeitet und gespeichert werden.

Wir verpflichten uns zu:

  • Erhebung nur der fĂŒr den angegebenen Zweck erforderlichen Daten (Datenminimierung).
  • Einholung einer angemessenen Einwilligung oder Feststellung einer Rechtsgrundlage vor der Verarbeitung personenbezogener Daten.
  • Dokumentation der Herkunft, Lizenzierung und Aufbewahrungsfrist aller Trainings- und Evaluierungsdaten.
  • Anwendung von VerschlĂŒsselung, Zugriffskontrollen und Anonymisierung, wo angemessen.
  • DurchfĂŒhrung von Datenschutz-FolgenabschĂ€tzungen fĂŒr KI-Systeme, die personenbezogene Daten in großem Umfang verarbeiten.
  • Respektierung der Rechte Einzelner auf Zugang, Berichtigung und Löschung ihrer von KI-Systemen verwendeten Daten.

3.5 Sicherheit, Cybersicherheit und Robustheit

KI-Systeme mĂŒssen unter normalen Bedingungen zuverlĂ€ssig und unter adversarialen oder unerwarteten Bedingungen widerstandsfĂ€hig sein. Sicherheit muss wĂ€hrend des gesamten KI-Lebenszyklus berĂŒcksichtigt werden, nicht erst nach der Bereitstellung.

Wir verpflichten uns zu:

  • Tests auf adversariale Eingaben, Prompt Injection und Fehlermodi vor der Bereitstellung.
  • Sicherung der KI-Lieferkette: Modelle, Bibliotheken, Datenpipelines und Infrastruktur.
  • Überwachung auf Leistungsverschlechterung, Drift und SicherheitsausfĂ€lle in der Produktion.
  • Pflege von VorfallreaktionsplĂ€nen, die KI-spezifische Fehlerszenarien abdecken.
  • Gestaltung von Fallback-Mechanismen, damit wesentliche Prozesse bei Ausfall von KI-Systemen fortgesetzt werden können.

3.6 DatenqualitÀt und Data Governance

Die QualitĂ€t von KI-Ausgaben hĂ€ngt von der QualitĂ€t der zugefĂŒhrten Daten ab. Mangelhafte Data Governance erzeugt kumulative Risiken ĂŒber Fairness, Datenschutz und Sicherheit hinweg.

Wir verpflichten uns zu:

  • Festlegung von DatenqualitĂ€tsstandards fĂŒr alle KI-Trainings-, Validierungs- und Produktionsdaten.
  • Dokumentation der Datenlineage, damit Herkunft, Transformationen und AbhĂ€ngigkeiten jedes Datensatzes nachvollziehbar sind.
  • ÜberprĂŒfung von DatensĂ€tzen auf Verzerrungen, ReprĂ€sentativitĂ€t und regulatorische Compliance vor der Verwendung.
  • Zuweisung von Datenverantwortlichen, die fĂŒr QualitĂ€t und Compliance ihrer DatensĂ€tze rechenschaftspflichtig sind.

3.7 Nachhaltigkeit

Die ökologischen Auswirkungen von KI mĂŒssen bei Design- und Betriebsentscheidungen berĂŒcksichtigt werden. Effizienz ist Teil der Verantwortung.

Wir verpflichten uns zu:

  • Bewertung der Rechenkosten und des CO2-Fußabdrucks von Training und Inferenz.
  • Bevorzugung effizienter Architekturen, Caching und Feinabstimmung gegenĂŒber redundantem Retraining.
  • Verfolgung und Berichterstattung des KI-bezogenen Ressourcenverbrauchs.

4. Anwendung dieser GrundsÀtze

Platzhaltertext. FĂŒllen Sie mit der Sprache Ihrer Organisation fĂŒr 4. Anwendung dieser GrundsĂ€tze aus.

4.1 In Governance-Entscheidungen

Der KI-Governance-Ausschuss nutzt diese GrundsĂ€tze als Basis fĂŒr die Genehmigung oder Ablehnung von KI-AnwendungsfĂ€llen, die Festlegung von Risikoschwellen und die Lösung von Eskalationen.

4.2 In Entwicklung und Testing

Engineering- und Data-Science-Teams beziehen sich auf diese GrundsĂ€tze bei DesignprĂŒfungen, Datenauswahl, Modellvalidierung und Testing. Algorithmendesign muss Bias-Tests, Fairness-Metriken und adversariale Evaluation als Standardprotokoll beinhalten, nicht als optionale ErgĂ€nzungen.

4.3 In der Beschaffung

Drittanbieter-KI-Anbieter werden anhand dieser GrundsÀtze bewertet. Anbieter-Risikobewertungen umfassen Fragen zu Fairness-Tests, TransparenzfÀhigkeiten, Datenhandhabungspraktiken und Bereitschaft zur Vorfallreaktion.

4.4 In der Überwachung

Die Überwachung nach der Bereitstellung bewertet, ob eingesetzte Systeme weiterhin im Einklang mit diesen GrundsĂ€tzen arbeiten. Drift bei Fairness-Metriken, Bias-Verschiebungen und SicherheitsvorfĂ€lle lösen eine Neubewertung und mögliche Aussetzung aus.

5. Kontinuierliches Lernen

KI-Technologie, Regulierung und gesellschaftliche Erwartungen entwickeln sich schnell. Wir verpflichten uns zu:

  • Beobachtung aufkommender Risiken, regulatorischer Änderungen und bewĂ€hrter Branchenpraktiken.
  • Aktualisierung dieser GrundsĂ€tze bei Identifizierung neuer Risiken oder Verpflichtungen.
  • Teilen von Erkenntnissen aus VorfĂ€llen, Beinahe-VorfĂ€llen und Audit-Feststellungen in der gesamten Organisation.
  • Investition in laufende Schulung, damit alle Mitarbeitenden ihre Rolle bei verantwortungsvoller KI verstehen.

6. Regulatorische Ausrichtung

Diese GrundsÀtze sind ausgerichtet an:

  • EU AI Act: Transparenz (Art. 13), menschliche Aufsicht (Art. 14), Genauigkeit/Robustheit (Art. 15), Nichtdiskriminierung (Art. 10), Nutzerbenachrichtigung (Art. 50).
  • DSGVO: Automatisierte Entscheidungsfindung (Art. 22), Datenschutz durch Technikgestaltung (Art. 25), Datenschutz-FolgenabschĂ€tzungen (Art. 35).
  • ISO/IEC 42001: FĂŒhrungsverpflichtung (Abschnitt 5), Risikobehandlung (Abschnitt 8), interessierte Parteien (Abschnitt 4.2).
  • NIST AI RMF: Govern (GV), Map (MP), Measure (MS), Manage (MG) Funktionen.
  • OECD-KI-GrundsĂ€tze: Inklusives Wachstum, menschenzentrierte Werte, Transparenz, Robustheit, Rechenschaftspflicht.

7. Ausnahmen

Diese GrundsĂ€tze kennen keine Ausnahmen. Wenn ein KI-System nicht im Einklang mit diesen GrundsĂ€tzen betrieben werden kann, darf es nicht bereitgestellt werden. Wo Spannungen zwischen GrundsĂ€tzen bestehen (z. B. Transparenz vs. Sicherheit), bestimmt der KI-Governance-Ausschuss die angemessene Balance fĂŒr den jeweiligen Kontext, und die BegrĂŒndung wird dokumentiert.

8. ÜberprĂŒfung

Diese GrundsĂ€tze werden jĂ€hrlich oder bei wesentlichen Änderungen regulatorischer Anforderungen, der Organisationsstrategie oder Erkenntnissen aus KI-VorfĂ€llen ĂŒberprĂŒft. Aktualisierungen erfordern die Genehmigung des KI-Governance-Ausschusses.

Dokumentenlenkung

FeldWert
Richtlinienverantwortlicher[KI-Governance-Verantwortlicher]
Genehmigt durch[KI-Governance-Ausschuss / Vorstand]
Inkrafttreten[Datum]
NĂ€chste ÜberprĂŒfung[Datum + 12 Monate]
Version1.0
KlassifizierungIntern

Bereit, diese Richtlinie umzusetzen?

Nutzen Sie VerifyWise, um diese Richtlinienvorlage anzupassen, bereitzustellen und die Compliance zu verfolgen.

GrundsĂ€tze fĂŒr verantwortungsvolle KI | VerifyWise KI-Governance-Vorlagen