1. Zweck
Dieses Dokument legt die grundlegenden Prinzipien fest, die alle KI-AktivitĂ€ten bei [Name der Organisation] leiten. Diese GrundsĂ€tze setzen die ethische Mindestgrenze fĂŒr die Art und Weise, wie wir KI entwickeln, beschaffen und betreiben. Jede KI-Richtlinie, jedes Verfahren und jede Governance-Entscheidung in der Organisation muss mit diesen GrundsĂ€tzen ĂŒbereinstimmen.
Wir veröffentlichen diese GrundsĂ€tze als Bekenntnis zur öffentlichen Rechenschaftspflicht. Sie spiegeln unsere Werte und unsere Verpflichtung gegenĂŒber den Gemeinschaften, Kunden und Mitarbeitenden wider, die von unseren KI-Systemen betroffen sind.
2. Geltungsbereich
Diese GrundsĂ€tze gelten fĂŒr:
- Alle KI-Systeme unabhÀngig von der Risikoklassifizierung (hoch, mittel oder niedrig).
- Alle Mitarbeitenden, Auftragnehmer und Partner, die an KI-AktivitÀten beteiligt sind.
- Alle Phasen des KI-Lebenszyklus, von der Ideenfindung bis zur Stilllegung.
- Sowohl intern entwickelte Systeme als auch beschaffte oder integrierte Drittanbieter-KI.
3. Unsere GrundsÀtze
Platzhaltertext. FĂŒllen Sie mit der Sprache Ihrer Organisation fĂŒr 3. Unsere GrundsĂ€tze aus.
3.1 Fairness und Nichtdiskriminierung
KI-Systeme dĂŒrfen keine Ergebnisse erzeugen, die Einzelpersonen oder Gruppen aufgrund geschĂŒtzter Merkmale wie Rasse, Geschlecht, Alter, Behinderung, Religion oder sozioökonomischem Status unfair diskriminieren.
Wir verpflichten uns zu:
- Bias-Tests vor der Bereitstellung unter Verwendung geeigneter statistischer Methoden und reprÀsentativer EvaluierungsdatensÀtze.
- Verwendung von Trainingsdaten, die reprĂ€sentativ und ausgewogen sind und auf historische Verzerrungen ĂŒberprĂŒft wurden, die vom Modell verstĂ€rkt werden könnten.
- Dokumentation bekannter EinschrÀnkungen, potenzieller disparater Auswirkungen und der bewerteten demographischen Gruppen.
- Bereitstellung von Mechanismen fĂŒr Einzelpersonen, um KI-gestĂŒtzte Entscheidungen, die sie betreffen, anzufechten, im Einklang mit DSGVO Artikel 22 (Recht, keiner ausschlieĂlich automatisierten Entscheidungsfindung unterworfen zu werden).
- RegelmĂ€Ăige Neubewertung der Fairness nach der Bereitstellung, nicht nur zum Zeitpunkt der EinfĂŒhrung.
3.2 Transparenz und ErklÀrbarkeit
Personen, die mit unseren KI-Systemen interagieren oder von diesen betroffen sind, haben ein Recht zu verstehen, wie diese Systeme funktionieren und welche Rolle KI bei sie betreffenden Entscheidungen spielt.
Wir verpflichten uns zu:
- Offenlegung, wenn KI in Interaktionen mit Einzelpersonen eingesetzt wird, wie vom EU AI Act Artikel 50 gefordert.
- Bereitstellung von ErklĂ€rungen zu KI-gestĂŒtzten Entscheidungen auf einem dem Publikum und dem AusmaĂ der Auswirkungen angemessenen Niveau.
- Pflege von Modellkarten, DatenblÀttern und Systemdokumentation, die FÀhigkeiten, EinschrÀnkungen und bekannte Fehlerarten beschreiben.
- Bereitstellung von Governance-Aufzeichnungen fĂŒr interne und externe Audits.
- Klare Kommunikation des Konfidenzniveaus und der EinschrÀnkungen von KI-Ausgaben an Endnutzer.
3.3 Rechenschaftspflicht und menschliche Aufsicht
KI entbindet Menschen nicht von der Verantwortung. Jedes KI-System muss einen benannten Verantwortlichen haben, und Menschen mĂŒssen sinnvolle Kontrolle ĂŒber Entscheidungen behalten, die Einzelpersonen oder die Organisation wesentlich betreffen.
Wir verpflichten uns zu:
- Zuweisung eines Modellverantwortlichen fĂŒr jedes KI-System, der fĂŒr dessen Verhalten ĂŒber den gesamten Lebenszyklus rechenschaftspflichtig ist.
- Erfordernis einer menschlichen ĂberprĂŒfung fĂŒr Hochrisiko-Entscheidungen vor deren Wirksamwerden, wie vom EU AI Act Artikel 14 gefordert.
- Aufrechterhaltung der FĂ€higkeit, KI-Systeme jederzeit zu ĂŒbersteuern, zu korrigieren oder abzuschalten.
- Einrichtung klarer Eskalationswege, wenn KI-Systeme sich unerwartet verhalten.
- Aufzeichnung von Governance-Entscheidungen mit BegrĂŒndung, damit sie im Nachhinein nachvollzogen werden können.
3.4 Datenschutz und Datensicherheit
KI-Systeme mĂŒssen die PrivatsphĂ€re des Einzelnen respektieren und die geltenden Datenschutzgesetze einhalten. Daten, die zum Trainieren, Feinabstimmen oder Betreiben von KI verwendet werden, mĂŒssen rechtmĂ€Ăig erhoben, verarbeitet und gespeichert werden.
Wir verpflichten uns zu:
- Erhebung nur der fĂŒr den angegebenen Zweck erforderlichen Daten (Datenminimierung).
- Einholung einer angemessenen Einwilligung oder Feststellung einer Rechtsgrundlage vor der Verarbeitung personenbezogener Daten.
- Dokumentation der Herkunft, Lizenzierung und Aufbewahrungsfrist aller Trainings- und Evaluierungsdaten.
- Anwendung von VerschlĂŒsselung, Zugriffskontrollen und Anonymisierung, wo angemessen.
- DurchfĂŒhrung von Datenschutz-FolgenabschĂ€tzungen fĂŒr KI-Systeme, die personenbezogene Daten in groĂem Umfang verarbeiten.
- Respektierung der Rechte Einzelner auf Zugang, Berichtigung und Löschung ihrer von KI-Systemen verwendeten Daten.
3.5 Sicherheit, Cybersicherheit und Robustheit
KI-Systeme mĂŒssen unter normalen Bedingungen zuverlĂ€ssig und unter adversarialen oder unerwarteten Bedingungen widerstandsfĂ€hig sein. Sicherheit muss wĂ€hrend des gesamten KI-Lebenszyklus berĂŒcksichtigt werden, nicht erst nach der Bereitstellung.
Wir verpflichten uns zu:
- Tests auf adversariale Eingaben, Prompt Injection und Fehlermodi vor der Bereitstellung.
- Sicherung der KI-Lieferkette: Modelle, Bibliotheken, Datenpipelines und Infrastruktur.
- Ăberwachung auf Leistungsverschlechterung, Drift und SicherheitsausfĂ€lle in der Produktion.
- Pflege von VorfallreaktionsplÀnen, die KI-spezifische Fehlerszenarien abdecken.
- Gestaltung von Fallback-Mechanismen, damit wesentliche Prozesse bei Ausfall von KI-Systemen fortgesetzt werden können.
3.6 DatenqualitÀt und Data Governance
Die QualitĂ€t von KI-Ausgaben hĂ€ngt von der QualitĂ€t der zugefĂŒhrten Daten ab. Mangelhafte Data Governance erzeugt kumulative Risiken ĂŒber Fairness, Datenschutz und Sicherheit hinweg.
Wir verpflichten uns zu:
- Festlegung von DatenqualitĂ€tsstandards fĂŒr alle KI-Trainings-, Validierungs- und Produktionsdaten.
- Dokumentation der Datenlineage, damit Herkunft, Transformationen und AbhÀngigkeiten jedes Datensatzes nachvollziehbar sind.
- ĂberprĂŒfung von DatensĂ€tzen auf Verzerrungen, ReprĂ€sentativitĂ€t und regulatorische Compliance vor der Verwendung.
- Zuweisung von Datenverantwortlichen, die fĂŒr QualitĂ€t und Compliance ihrer DatensĂ€tze rechenschaftspflichtig sind.
3.7 Nachhaltigkeit
Die ökologischen Auswirkungen von KI mĂŒssen bei Design- und Betriebsentscheidungen berĂŒcksichtigt werden. Effizienz ist Teil der Verantwortung.
Wir verpflichten uns zu:
- Bewertung der Rechenkosten und des CO2-FuĂabdrucks von Training und Inferenz.
- Bevorzugung effizienter Architekturen, Caching und Feinabstimmung gegenĂŒber redundantem Retraining.
- Verfolgung und Berichterstattung des KI-bezogenen Ressourcenverbrauchs.
4. Anwendung dieser GrundsÀtze
Platzhaltertext. FĂŒllen Sie mit der Sprache Ihrer Organisation fĂŒr 4. Anwendung dieser GrundsĂ€tze aus.
4.1 In Governance-Entscheidungen
Der KI-Governance-Ausschuss nutzt diese GrundsĂ€tze als Basis fĂŒr die Genehmigung oder Ablehnung von KI-AnwendungsfĂ€llen, die Festlegung von Risikoschwellen und die Lösung von Eskalationen.
4.2 In Entwicklung und Testing
Engineering- und Data-Science-Teams beziehen sich auf diese GrundsĂ€tze bei DesignprĂŒfungen, Datenauswahl, Modellvalidierung und Testing. Algorithmendesign muss Bias-Tests, Fairness-Metriken und adversariale Evaluation als Standardprotokoll beinhalten, nicht als optionale ErgĂ€nzungen.
4.3 In der Beschaffung
Drittanbieter-KI-Anbieter werden anhand dieser GrundsÀtze bewertet. Anbieter-Risikobewertungen umfassen Fragen zu Fairness-Tests, TransparenzfÀhigkeiten, Datenhandhabungspraktiken und Bereitschaft zur Vorfallreaktion.
4.4 In der Ăberwachung
Die Ăberwachung nach der Bereitstellung bewertet, ob eingesetzte Systeme weiterhin im Einklang mit diesen GrundsĂ€tzen arbeiten. Drift bei Fairness-Metriken, Bias-Verschiebungen und SicherheitsvorfĂ€lle lösen eine Neubewertung und mögliche Aussetzung aus.
5. Kontinuierliches Lernen
KI-Technologie, Regulierung und gesellschaftliche Erwartungen entwickeln sich schnell. Wir verpflichten uns zu:
- Beobachtung aufkommender Risiken, regulatorischer Ănderungen und bewĂ€hrter Branchenpraktiken.
- Aktualisierung dieser GrundsÀtze bei Identifizierung neuer Risiken oder Verpflichtungen.
- Teilen von Erkenntnissen aus VorfÀllen, Beinahe-VorfÀllen und Audit-Feststellungen in der gesamten Organisation.
- Investition in laufende Schulung, damit alle Mitarbeitenden ihre Rolle bei verantwortungsvoller KI verstehen.
6. Regulatorische Ausrichtung
Diese GrundsÀtze sind ausgerichtet an:
- EU AI Act: Transparenz (Art. 13), menschliche Aufsicht (Art. 14), Genauigkeit/Robustheit (Art. 15), Nichtdiskriminierung (Art. 10), Nutzerbenachrichtigung (Art. 50).
- DSGVO: Automatisierte Entscheidungsfindung (Art. 22), Datenschutz durch Technikgestaltung (Art. 25), Datenschutz-FolgenabschÀtzungen (Art. 35).
- ISO/IEC 42001: FĂŒhrungsverpflichtung (Abschnitt 5), Risikobehandlung (Abschnitt 8), interessierte Parteien (Abschnitt 4.2).
- NIST AI RMF: Govern (GV), Map (MP), Measure (MS), Manage (MG) Funktionen.
- OECD-KI-GrundsÀtze: Inklusives Wachstum, menschenzentrierte Werte, Transparenz, Robustheit, Rechenschaftspflicht.
7. Ausnahmen
Diese GrundsĂ€tze kennen keine Ausnahmen. Wenn ein KI-System nicht im Einklang mit diesen GrundsĂ€tzen betrieben werden kann, darf es nicht bereitgestellt werden. Wo Spannungen zwischen GrundsĂ€tzen bestehen (z. B. Transparenz vs. Sicherheit), bestimmt der KI-Governance-Ausschuss die angemessene Balance fĂŒr den jeweiligen Kontext, und die BegrĂŒndung wird dokumentiert.
8. ĂberprĂŒfung
Diese GrundsĂ€tze werden jĂ€hrlich oder bei wesentlichen Ănderungen regulatorischer Anforderungen, der Organisationsstrategie oder Erkenntnissen aus KI-VorfĂ€llen ĂŒberprĂŒft. Aktualisierungen erfordern die Genehmigung des KI-Governance-Ausschusses.
Dokumentenlenkung
| Feld | Wert |
| Richtlinienverantwortlicher | [KI-Governance-Verantwortlicher] |
| Genehmigt durch | [KI-Governance-Ausschuss / Vorstand] |
| Inkrafttreten | [Datum] |
| NĂ€chste ĂberprĂŒfung | [Datum + 12 Monate] |
| Version | 1.0 |
| Klassifizierung | Intern |