EU AI Act Compliance leicht gemacht
Der EU AI Act ist in Kraft. Wir verwandeln Gesetzestext in einen klaren Plan mit Verantwortlichen, Fristen und Nachweisen. Starten Sie mit einer schnellen Lückenanalyse und verfolgen Sie dann alles an einem Ort.
Risikostufen erklärt
Der EU AI Act verwendet einen risikobasierten Ansatz mit vier Hauptkategorien
Unannehmbares Risiko
Vollständig verboten
Social Scoring, Emotionserkennung am Arbeitsplatz/in Schulen, biometrische Kategorisierung, Echtzeit-Biometrie in öffentlichen Räumen, unterschwellige Techniken
verbotenHohes Risiko
Strenge Kontrollen erforderlich
Lebenslauf-Screening, Kreditwürdigkeitsprüfung, Strafverfolgung, Medizinprodukte, kritische Infrastruktur, Bildungsbewertung, Recruiting-Tools
reguliertBegrenztes Risiko
Transparenz erforderlich
Chatbots, Deepfakes, Emotionserkennungssysteme, biometrische Kategorisierung (nicht verboten), KI-generierte Inhalte
offenlegungMinimales Risiko
Wenig bis keine Pflichten
Spam-Filter, Videospiele, Bestandsverwaltung, KI-gestützte Videospiele, einfache Empfehlungssysteme
minimalWie VerifyWise die EU AI Act Compliance unterstützt
Konkrete Funktionen, die spezifische regulatorische Anforderungen adressieren
KI-Systeminventar mit Risikoklassifizierung
Registrieren Sie jedes KI-System in Ihrer Organisation mit strukturierten Metadaten. Jeder Eintrag erfasst Zweck, Datenquellen, Einsatzkontext und Stakeholder. Die Plattform wendet Anhang III-Kriterien an, um zu bestimmen, ob Systeme als Hochrisiko, begrenztes Risiko oder minimales Risiko gelten, und generiert eine Klassifizierungsbegründung für Audits.
Adressiert: Artikel 6 Klassifizierung, Artikel 9 Risikomanagement, Artikel 49 Registrierung
Technische Dokumentationserstellung
Erstellen Sie das Dokumentationspaket, das gemäß Artikel 11 erforderlich ist. Die Plattform strukturiert Informationen über Systemarchitektur, Trainingsdaten-Herkunft, Leistungsmetriken und bekannte Einschränkungen in formatierte Dokumente, die den regulatorischen Erwartungen entsprechen. Vorlagen decken sowohl Anbieter- als auch Betreiber-Perspektiven ab.
Adressiert: Artikel 11 Technische Dokumentation, Anhang IV Anforderungen
Konfiguration von Workflows zur menschlichen Aufsicht
Definieren Sie, wer KI-Ausgaben prüft, unter welchen Bedingungen und mit welcher Befugnis zur Überstimmung. Die Plattform ermöglicht die Konfiguration von Aufsichtsauslösern, die Zuweisung von Prüfern nach Rolle oder Expertise und die Erfassung von Prüfentscheidungen mit Zeitstempeln. Aufsichtsmuster werden zu prüfbaren Aufzeichnungen, die Artikel 14-Compliance nachweisen.
Adressiert: Artikel 14 Menschliche Aufsicht, Artikel 26 Betreiberpflichten
Betriebsprotokollierung und -aufbewahrung
Erfassen Sie Systemereignisse, Benutzerinteraktionen und Entscheidungsausgaben mit automatischem Zeitstempel. Protokolle werden gemäß konfigurierbaren Richtlinien aufbewahrt, die standardmäßig auf das sechsmonatige Minimum für Betreiber eingestellt sind. Such- und Exportfunktionen unterstützen Vorfalluntersuchungen und behördliche Anfragen.
Adressiert: Artikel 12 Aufzeichnungen, Artikel 26(5) Protokollaufbewahrung
Vorfallverfolgung und -meldung
Protokollieren Sie KI-bezogene Vorfälle mit Schweregradklassifizierung und weisen Sie Untersuchungsverantwortliche zu. Die Plattform verfolgt den Behebungsfortschritt und erstellt Vorfallberichte, die für behördliche Meldungen geeignet sind. Schwerwiegende Vorfälle können innerhalb der erforderlichen Frist an Behörden eskaliert werden, mit beigefügter Dokumentation.
Adressiert: Artikel 62 Meldung schwerwiegender Vorfälle, Artikel 73 Strafen
Grundrechte-Folgenabschätzung
Betreiber von Hochrisiko-KI in bestimmten Sektoren müssen vor der Bereitstellung Auswirkungen auf Grundrechte bewerten. Die Plattform bietet strukturierte Bewertungsvorlagen für Diskriminierungsrisiko, Datenschutzimplikationen, Zugang zu Diensten und Verfahrensgarantien. Abgeschlossene Bewertungen generieren datierte Aufzeichnungen als Compliance-Nachweis.
Adressiert: Artikel 27 Grundrechte-Folgenabschätzung
Alle Compliance-Aktivitäten werden mit Zeitstempeln, zugewiesenen Verantwortlichen und Genehmigungsworkflows verfolgt. Dieser Audit-Trail demonstriert systematische Governance anstatt nachträglich erstellter Dokumentation.
Vollständige Abdeckung der EU AI Act-Anforderungen
VerifyWise bietet dedizierte Werkzeuge für jede regulatorische Anforderung in 15 Compliance-Kategorien
EU AI Act-Anforderungen
Anforderungen mit dedizierten Werkzeugen
Abdeckung aller Kategorien
Risikomanagement & -bewertung
Daten-Governance
Technische Dokumentation
Aufzeichnungen & Protokollierung
Transparenz & Nutzerinformation
Menschliche Aufsicht
Genauigkeit, Robustheit & Cybersicherheit
Qualitätsmanagementsystem
Konformitätsbewertung
Registrierung & CE-Kennzeichnung
Post-Market-Überwachung
Vorfallmeldung
Betreiberpflichten
Grundrechte-Folgenabschätzung
KI-Kompetenz & Schulung
Funktionen, die VerifyWise auszeichnen
CE-Kennzeichnungs-Workflow
Geführter 7-Schritte-Konformitätsbewertungsprozess mit Dokumentgenerierung
LLM-Gateway
Echtzeit-Überwachung und Richtliniendurchsetzung für GPAI-Modellnutzung
Schulungsregister
Verfolgung von KI-Kompetenzanforderungen und Mitarbeiter-Qualifikationsnachweisen
Vorfallmanagement
Strukturierte Workflows für Verfolgung schwerwiegender Vorfälle und Behördenmeldung
Nicht sicher, ob Sie betroffen sind?
Machen Sie unsere kostenlose EU AI Act Bereitschaftsbewertung, um Ihre Risikoklassifizierung und Compliance-Pflichten in Minuten zu bestimmen.
Schnelle Bewertung
Ergebnisse sofort erhalten
Kennen Sie Ihre Rolle & Pflichten
Verschiedene Akteure in der KI-Wertschöpfungskette haben unterschiedliche Verantwortlichkeiten unter dem EU AI Act
Anbieter
Organisationen, die KI-Systeme entwickeln oder wesentlich modifizieren
- Risikomanagementsystem über den gesamten Lebenszyklus implementieren
- Qualität und Governance der Trainingsdaten sicherstellen
- Technische Dokumentation erstellen und pflegen
- Angemessene Protokollierungsfunktionen entwickeln
- Transparenz gewährleisten und Betreiber informieren
- Maßnahmen zur menschlichen Aufsicht implementieren
- Genauigkeit, Robustheit und Cybersicherheit sicherstellen
- Qualitätsmanagementsystem etablieren
- Konformitätsbewertung durchführen und CE-Kennzeichnung anbringen
- System in EU-Datenbank registrieren
- Schwerwiegende Vorfälle an Behörden melden
Betreiber
Organisationen, die KI-Systeme unter ihrer Verantwortung nutzen
- Personal für menschliche Aufsicht zuweisen
- Protokolle mindestens 6 Monate aufbewahren
- Grundrechte-Folgenabschätzung durchführen
- Systembetrieb und -leistung überwachen
- Schwerwiegende Vorfälle an Anbieter und Behörden melden
- KI-System gemäß Anweisungen verwenden
- Relevante Eingabedaten für den vorgesehenen Zweck sicherstellen
- Anbieter über identifizierte Risiken informieren
- Nutzung aussetzen, wenn System Risiko darstellt
- Mit Behörden bei Untersuchungen kooperieren
Vertreiber/Importeur
Organisationen, die KI-Systeme auf dem EU-Markt bereitstellen
- Überprüfen, ob Anbieter Konformitätsbewertung durchgeführt hat
- CE-Kennzeichnung und Dokumentation sicherstellen
- Registrierung in EU-Datenbank verifizieren
- Erforderliche Dokumentation speichern und pflegen
- Lager- und Transportbedingungen zur Compliance-Erhaltung sicherstellen
- Behörden notwendige Informationen bereitstellen
- Vertrieb einstellen, wenn KI-System nicht konform
- Anbieter und Behörden über Nicht-Konformität informieren
- Mit Behörden bei Korrekturmaßnahmen kooperieren
Pflichten-Vergleichstabelle
Schnellreferenz, welche Pflichten für jede Rolle gelten
| Pflicht | Anbieter | Betreiber | Vertreiber |
|---|---|---|---|
Risikomanagementsystem Lebenszyklus-Risikobewertung und -minderung | |||
Technische Dokumentation Systemspezifikationen, Trainingsdaten, Leistungsmetriken | Speichern | ||
Menschliche Aufsicht Risiken verhindern oder minimieren | Entwerfen | Implementieren | |
Protokollierung & Aufzeichnungen Mindestens 6 Monate Aufbewahrung für Betreiber | Ermöglichen | Pflegen | |
Konformitätsbewertung Selbstbewertung oder notifizierte Stelle | Verifizieren | ||
CE-Kennzeichnung Erforderlich vor Markteinführung | Anbringen | Verifizieren | |
EU-Datenbankregistrierung Hochrisiko-KI-Systeme | Registrieren | Verifizieren | |
Grundrechte-Folgenabschätzung Erforderlich für Betreiber in bestimmten Sektoren | |||
Vorfallmeldung Schwerwiegende Vorfälle an Behörden | Bei Kenntnis | ||
Post-Market-Überwachung Kontinuierliche Überwachung der Systemleistung | Nutzung überwachen |
Hinweis: Viele Organisationen können mehrere Rollen haben. Wenn Sie beispielsweise sowohl ein KI-System entwickeln als auch betreiben, müssen Sie sowohl Anbieter- als auch Betreiberpflichten erfüllen.
6 Schritte zur Compliance bis Dezember 2027
Ein praktischer Fahrplan zur Erreichung der EU AI Act Compliance
KI-Systeminventar
Alle KI-Systeme in Ihrer Organisation katalogisieren
- Alle genutzten KI-Systeme und -Tools identifizieren
- KI-Anbieter und Drittanbieter-Dienste dokumentieren
- KI-Systeme auf Geschäftsprozesse abbilden
- KI-Systemverantwortliche und Stakeholder identifizieren
- Zentrales KI-Register erstellen
Risikoklassifizierung
Risikostufen jedem KI-System zuweisen
- Jedes System gegen Anhang III-Kategorien bewerten
- Prüfen, ob System unter verbotene Anwendungsfälle fällt
- Als Hochrisiko, begrenztes Risiko oder minimales Risiko klassifizieren
- Klassifizierungsbegründung dokumentieren
- Ihre Rolle identifizieren (Anbieter, Betreiber, Vertreiber)
Lückenanalyse
Compliance-Lücken und Anforderungen identifizieren
- Ist-Zustand gegen EU AI Act-Anforderungen abgleichen
- Fehlende Dokumentation und Prozesse identifizieren
- Technische Compliance-Lücken bewerten
- Governance- und Aufsichtsmechanismen evaluieren
- Behebungsmaßnahmen priorisieren
Dokumentation & Governance
Erforderliche Dokumentation und Kontrollen aufbauen
- Technische Dokumentation für Hochrisiko-Systeme erstellen
- Risikomanagementsysteme implementieren
- Daten-Governance-Verfahren etablieren
- Mechanismen für menschliche Aufsicht dokumentieren
- Qualitätsmanagementsystem erstellen
- Grundrechte-Folgenabschätzungen vorbereiten
Prüfung & Validierung
Konformitätsbewertungen durchführen
- Interne Tests und Validierung durchführen
- Bias- und Fairness-Bewertungen durchführen
- Genauigkeit, Robustheit und Cybersicherheit testen
- Bei Bedarf notifizierte Stelle einbeziehen
- CE-Kennzeichnung für anwendbare Systeme erhalten
- Hochrisiko-Systeme in EU-Datenbank registrieren
Überwachung & Berichterstattung
Compliance aufrechterhalten und Systeme überwachen
- Kontinuierliche Überwachungssysteme implementieren
- Protokolle und Audit-Trails pflegen
- Leistungsdrift und Vorfälle überwachen
- Schwerwiegende Vorfälle fristgerecht melden
- Regelmäßige Überprüfungen und Aktualisierungen durchführen
- Über regulatorische Leitlinien informiert bleiben
Hinweis: Notifizierte Stellen vergeben bereits Termine. Starten Sie Ihre Compliance-Reise jetzt, um die Fristen Dezember 2027 (Anhang III) und August 2028 (Anhang I) einzuhalten.
Compliance-Reise startenWichtige Termine, die Sie kennen sollten
Kritische Compliance-Fristen stehen bevor
Verbotene Praktiken
Verbotene KI-Praktiken werden illegal
- Social Scoring
- Biometrische Kategorisierung
- Emotionserkennung am Arbeitsplatz/in Schulen
GPAI-Transparenz
Transparenzregeln für allgemeine KI
- Verhaltenskodizes
- Modelldokumentation
- Systemische Risikobewertungen
Artikel 50(2) Wasserzeichen
Offenlegungspflichten für synthetische Inhalte gelten
- UI-Kennzeichnung KI-generierter Inhalte
- Maschinenlesbare Metadaten
- Erkennungsfähigkeit
Anhang III Hochrisiko
Eigenständige Hochrisiko-Systeme müssen konform sein
- Risikomanagementsysteme
- Daten-Governance
- Technische Dokumentation
Anhang I eingebettete Hochrisiko
KI in regulierten Produkten muss konform sein
- Medizinprodukte, Maschinen, Spielzeug, Aufzüge
- Post-Market-Überwachung
- Konformitätsbewertungen
Hochrisiko-KI-Systeme (Anhang III)
Acht Kategorien von KI-Systemen, die unter dem EU AI Act als Hochrisiko klassifiziert sind
Biometrische Identifizierung
Beispiele
Gesichtserkennung, Fingerabdrucksysteme, Iris-Scanning
Kernanforderung
Besonders streng für Strafverfolgungszwecke
Kritische Infrastruktur
Beispiele
Verkehrsmanagement, Wasser-/Gas-/Stromversorgung
Kernanforderung
Muss Ausfallsicherheit und Fail-Safe-Mechanismen nachweisen
Bildung & Berufsausbildung
Beispiele
Schülerbewertung, Prüfungsbewertung, Zulassungsentscheidungen
Kernanforderung
Erfordert Bias-Tests und Transparenz gegenüber Schülern
Beschäftigung & HR
Beispiele
Lebenslauf-Screening, Interview-Tools, Beförderungsentscheidungen, Überwachung
Kernanforderung
Muss Arbeitnehmerrechte schützen und Erklärungen liefern
Wesentliche Dienste
Beispiele
Kreditwürdigkeitsprüfung, Versicherungsrisikobewertung, Leistungsansprüche
Kernanforderung
Erfordert menschliche Überprüfung bei negativen Entscheidungen
Strafverfolgung
Beispiele
Risikobewertung, Lügendetektoranalyse, Kriminalitätsvorhersage
Kernanforderung
Zusätzliche Schutzmaßnahmen für Grundrechte
Migration & Grenzkontrolle
Beispiele
Visumanträge, Asylentscheidungen, Abschiebungsrisikobewertung
Kernanforderung
Starke menschliche Aufsicht und Einspruchsmechanismen
Justiz & Demokratie
Beispiele
Recherche zu Gerichtsfällen, richterliche Entscheidungsunterstützung
Kernanforderung
Muss richterliche Unabhängigkeit wahren
Strafen & Durchsetzung
Der EU AI Act hat eine dreistufige Bußgeldstruktur mit erheblichen Strafen
Stufe 1 - Verbotene KI
35 Mio. € oder 7% des weltweiten Umsatzes
(je nachdem, was höher ist)
Verstöße umfassen:
- Social-Scoring-Systeme
- Manipulative KI
- Echtzeit-Biometrie in öffentlichen Räumen
- Ungezieltes Gesichts-Scraping
Stufe 2 - Hochrisiko-Verstöße
15 Mio. € oder 3% des weltweiten Umsatzes
(je nachdem, was höher ist)
Verstöße umfassen:
- Nicht konforme Hochrisiko-KI-Systeme
- Verstöße gegen KI-Systempflichten
- Unterlassene erforderliche Folgenabschätzungen
Stufe 3 - Informationsverstöße
7,5 Mio. € oder 1,5% des weltweiten Umsatzes
(je nachdem, was höher ist)
Verstöße umfassen:
- Bereitstellung falscher Informationen
- Unterlassene Informationsbereitstellung an Behörden
- Unvollständige Dokumentation
Anforderungen für allgemeine KI (GPAI)
Pflichten für GPAI-Anbieter traten am 2. August 2025 in Kraft
Was qualifiziert als allgemeine KI?
Allgemeine KI bezieht sich auf Modelle, die auf breiten Daten trainiert wurden und eine Vielzahl von Aufgaben ausführen können, ohne für einen bestimmten Zweck entwickelt worden zu sein. Diese Foundation-Modelle treiben viele nachgelagerte Anwendungen an, von Chatbots über Code-Assistenten bis hin zu Bildgeneratoren. Der EU AI Act schafft spezifische Pflichten für Organisationen, die diese Modelle entwickeln, und solche, die Anwendungen damit erstellen.
Große Sprachmodelle
GPT-4, Claude, Gemini, Llama, Mistral
Bildgenerierung
Midjourney, DALL-E, Stable Diffusion
Multimodale Modelle
GPT-4o, Gemini Pro Vision, Claude 3.5
Codegenerierung
GitHub Copilot, Amazon CodeWhisperer
Sind Sie GPAI-Anbieter oder nachgelagerter Integrator?
Sie haben das Foundation-Modell selbst entwickelt oder trainiert
- Vollständige GPAI-Transparenzpflichten gelten
- Muss Dokumentation für nachgelagerte Nutzer bereitstellen
- Verantwortlich für Urheberrechts-Compliance beim Training
- Systemische Risikoanforderungen bei Schwellenwertüberschreitung
Beispiele: OpenAI, Anthropic, Google DeepMind, Meta AI
Sie entwickeln Anwendungen unter Nutzung von GPAI-Modellen per API oder Integration
- Muss Dokumentation vom GPAI-Anbieter einholen
- Verantwortlich für Compliance Ihrer spezifischen Anwendung
- Hochrisiko-Anwendungsfälle lösen Hochrisiko-Pflichten aus
- Kann Verantwortung nicht auf Foundation-Model-Anbieter übertragen
Beispiele: Unternehmen, die GPT-4 API, Claude API oder feinabgestimmte Modelle nutzen
GPAI-Pflichtstufen
Allgemeine GPAI-Modelle
Alle allgemeinen KI-Modelle
- Technische Dokumentation bereitstellen
- Informationen und Dokumentation an nachgelagerte Anbieter liefern
- Urheberrechtsrichtlinie implementieren und Trainingsdaten-Zusammenfassung veröffentlichen
- Energieeffizienz nach Möglichkeit sicherstellen
GPAI-Modelle mit systemischem Risiko
>10²⁵ FLOPs oder von der Kommission benannt
- Modellevaluierung und systemische Risikobewertung durchführen
- Adversariale Tests durchführen
- Schwerwiegende Vorfälle verfolgen, dokumentieren und melden
- Angemessenen Cybersicherheitsschutz gewährleisten
- Risikominderungsmaßnahmen implementieren
- Jährlich an das KI-Büro berichten
Verständnis der Schwelle für systemisches Risiko
Modelle, die mit mehr als 10²⁵ Gleitkommaoperationen (FLOPs) trainiert wurden, werden automatisch als systemisches Risiko klassifiziert. Die Europäische Kommission kann auch Modelle basierend auf ihren Fähigkeiten, Reichweite oder Potenzial für schwerwiegende Schäden benennen, unabhängig von der Trainingsrechenleistung. Aktuelle Modelle, die diesen Schwellenwert wahrscheinlich erreichen, umfassen GPT-4 und Nachfolger, Claude 3 Opus und spätere Versionen, Gemini Ultra und Metas größte Llama-Varianten.
Die Klassifizierung als systemisches Risiko löst zusätzliche Pflichten aus: umfassende Modellevaluierungen, adversariales Red-Teaming, Vorfallverfolgung und -meldung, verbesserte Cybersicherheit und jährliche Berichterstattung an das EU AI Office.
Open-Source-GPAI-Bestimmungen
Reduzierte Pflichten gelten, wenn
- Modellgewichte öffentlich verfügbar sind
- Trainingsmethodik offen dokumentiert ist
- Unter einer qualifizierenden Open-Source-Lizenz veröffentlicht
- Parameter und Architektur veröffentlicht sind
Vollständige Pflichten gelten weiterhin, wenn
- Modell systemisches Risiko birgt (>10²⁵ FLOPs)
- Sie modifizieren und kommerziell bereitstellen
- Verwendet in Hochrisiko-Anwendungen nach Anhang III
- Modell in regulierte Produkte integriert ist
Wenn Sie auf GPAI-Modellen aufbauen
Die meisten Organisationen, die KI nutzen, sind nachgelagerte Integratoren und keine Foundation-Model-Anbieter. Wenn Sie über APIs auf GPT-4, Claude oder ähnliche Modelle zugreifen, um eigene Anwendungen zu erstellen, gelten diese Pflichten für Sie.
Das EU AI Office
Das EU AI Office innerhalb der Europäischen Kommission bietet zentrale Aufsicht für GPAI-Modelle. Es gibt Leitlinien heraus, entwickelt Verhaltenskodizes, bewertet Modelle mit systemischem Risiko und koordiniert mit nationalen Behörden. GPAI-Anbieter mit Modellen mit systemischem Risiko müssen direkt an das AI Office berichten. Das Office dient auch als Ressource für nachgelagerte Integratoren, die Klarheit über ihre Pflichten suchen.
Vollständiges KI-Governance-Richtlinien-Repository
Zugang zu 37 sofort einsatzbereiten KI-Governance-Richtlinienvorlagen, die auf EU AI Act, ISO 42001 und NIST AI RMF-Anforderungen abgestimmt sind
Kern-Governance
- • KI-Governance-Richtlinie
- • KI-Risikomanagement-Richtlinie
- • Verantwortungsvolle KI-Prinzipien
- • KI-Ethik-Charta
- • Modellgenehmigung & -freigabe
- • KI-Qualitätssicherung
- + 6 weitere Richtlinien
Daten & Sicherheit
- • KI-Datennutzungsrichtlinie
- • Datenminimierung für KI
- • Beschaffung von Trainingsdaten
- • Handhabung sensibler Daten
- • Prompt-Sicherheit & -Härtung
- • Vorfallreaktion für KI
- + 2 weitere Richtlinien
Recht & Compliance
- • KI-Lieferantenrisiko-Richtlinie
- • Regulatorische Compliance
- • CE-Kennzeichnungsbereitschaft
- • Hochrisiko-Systemregistrierung
- • Dokumentation & Rückverfolgbarkeit
- • KI-Verantwortlichkeit & Rollen
- + 7 weitere Richtlinien
Häufig gestellte Fragen
Häufige Fragen zur EU AI Act Compliance
Bereit für Compliance?
Starten Sie Ihre EU AI Act Compliance-Reise heute mit unseren umfassenden Bewertungs- und Tracking-Tools.