Der EU AI Act ist in Kraft. Wir verwandeln Gesetzestext in einen klaren Plan mit Verantwortlichen, Fristen und Nachweisen. Starten Sie mit einer schnellen Lückenanalyse und verfolgen Sie dann alles an einem Ort.
Der EU AI Act verwendet einen risikobasierten Ansatz mit vier Hauptkategorien
Vollständig verboten
Social Scoring, Emotionserkennung am Arbeitsplatz/in Schulen, biometrische Kategorisierung, Echtzeit-Biometrie in öffentlichen Räumen, unterschwellige Techniken
verbotenStrenge Kontrollen erforderlich
Lebenslauf-Screening, Kreditwürdigkeitsprüfung, Strafverfolgung, Medizinprodukte, kritische Infrastruktur, Bildungsbewertung, Recruiting-Tools
reguliertTransparenz erforderlich
Chatbots, Deepfakes, Emotionserkennungssysteme, biometrische Kategorisierung (nicht verboten), KI-generierte Inhalte
offenlegungWenig bis keine Pflichten
Spam-Filter, Videospiele, Bestandsverwaltung, KI-gestützte Videospiele, einfache Empfehlungssysteme
minimalKonkrete Funktionen, die spezifische regulatorische Anforderungen adressieren
Registrieren Sie jedes KI-System in Ihrer Organisation mit strukturierten Metadaten. Jeder Eintrag erfasst Zweck, Datenquellen, Einsatzkontext und Stakeholder. Die Plattform wendet Anhang III-Kriterien an, um zu bestimmen, ob Systeme als Hochrisiko, begrenztes Risiko oder minimales Risiko gelten, und generiert eine Klassifizierungsbegründung für Audits.
Adressiert: Artikel 6 Klassifizierung, Artikel 9 Risikomanagement, Artikel 49 Registrierung
Erstellen Sie das Dokumentationspaket, das gemäß Artikel 11 erforderlich ist. Die Plattform strukturiert Informationen über Systemarchitektur, Trainingsdaten-Herkunft, Leistungsmetriken und bekannte Einschränkungen in formatierte Dokumente, die den regulatorischen Erwartungen entsprechen. Vorlagen decken sowohl Anbieter- als auch Betreiber-Perspektiven ab.
Adressiert: Artikel 11 Technische Dokumentation, Anhang IV Anforderungen
Definieren Sie, wer KI-Ausgaben prüft, unter welchen Bedingungen und mit welcher Befugnis zur Überstimmung. Die Plattform ermöglicht die Konfiguration von Aufsichtsauslösern, die Zuweisung von Prüfern nach Rolle oder Expertise und die Erfassung von Prüfentscheidungen mit Zeitstempeln. Aufsichtsmuster werden zu prüfbaren Aufzeichnungen, die Artikel 14-Compliance nachweisen.
Adressiert: Artikel 14 Menschliche Aufsicht, Artikel 26 Betreiberpflichten
Erfassen Sie Systemereignisse, Benutzerinteraktionen und Entscheidungsausgaben mit automatischem Zeitstempel. Protokolle werden gemäß konfigurierbaren Richtlinien aufbewahrt, die standardmäßig auf das sechsmonatige Minimum für Betreiber eingestellt sind. Such- und Exportfunktionen unterstützen Vorfalluntersuchungen und behördliche Anfragen.
Adressiert: Artikel 12 Aufzeichnungen, Artikel 26(5) Protokollaufbewahrung
Protokollieren Sie KI-bezogene Vorfälle mit Schweregradklassifizierung und weisen Sie Untersuchungsverantwortliche zu. Die Plattform verfolgt den Behebungsfortschritt und erstellt Vorfallberichte, die für behördliche Meldungen geeignet sind. Schwerwiegende Vorfälle können innerhalb der erforderlichen Frist an Behörden eskaliert werden, mit beigefügter Dokumentation.
Adressiert: Artikel 62 Meldung schwerwiegender Vorfälle, Artikel 73 Strafen
Betreiber von Hochrisiko-KI in bestimmten Sektoren müssen vor der Bereitstellung Auswirkungen auf Grundrechte bewerten. Die Plattform bietet strukturierte Bewertungsvorlagen für Diskriminierungsrisiko, Datenschutzimplikationen, Zugang zu Diensten und Verfahrensgarantien. Abgeschlossene Bewertungen generieren datierte Aufzeichnungen als Compliance-Nachweis.
Adressiert: Artikel 27 Grundrechte-Folgenabschätzung
Alle Compliance-Aktivitäten werden mit Zeitstempeln, zugewiesenen Verantwortlichen und Genehmigungsworkflows verfolgt. Dieser Audit-Trail demonstriert systematische Governance anstatt nachträglich erstellter Dokumentation.
VerifyWise bietet dedizierte Werkzeuge für jede regulatorische Anforderung in 15 Compliance-Kategorien
EU AI Act-Anforderungen
Anforderungen mit dedizierten Werkzeugen
Abdeckung aller Kategorien
Geführter 7-Schritte-Konformitätsbewertungsprozess mit Dokumentgenerierung
Echtzeit-Überwachung und Richtliniendurchsetzung für GPAI-Modellnutzung
Verfolgung von KI-Kompetenzanforderungen und Mitarbeiter-Qualifikationsnachweisen
Strukturierte Workflows für Verfolgung schwerwiegender Vorfälle und Behördenmeldung
Machen Sie unsere kostenlose EU AI Act Bereitschaftsbewertung, um Ihre Risikoklassifizierung und Compliance-Pflichten in Minuten zu bestimmen.
Schnelle Bewertung
Ergebnisse sofort erhalten
Verschiedene Akteure in der KI-Wertschöpfungskette haben unterschiedliche Verantwortlichkeiten unter dem EU AI Act
Organisationen, die KI-Systeme entwickeln oder wesentlich modifizieren
Organisationen, die KI-Systeme unter ihrer Verantwortung nutzen
Organisationen, die KI-Systeme auf dem EU-Markt bereitstellen
Schnellreferenz, welche Pflichten für jede Rolle gelten
| Pflicht | Anbieter | Betreiber | Vertreiber |
|---|---|---|---|
Risikomanagementsystem Lebenszyklus-Risikobewertung und -minderung | |||
Technische Dokumentation Systemspezifikationen, Trainingsdaten, Leistungsmetriken | Speichern | ||
Menschliche Aufsicht Risiken verhindern oder minimieren | Entwerfen | Implementieren | |
Protokollierung & Aufzeichnungen Mindestens 6 Monate Aufbewahrung für Betreiber | Ermöglichen | Pflegen | |
Konformitätsbewertung Selbstbewertung oder notifizierte Stelle | Verifizieren | ||
CE-Kennzeichnung Erforderlich vor Markteinführung | Anbringen | Verifizieren | |
EU-Datenbankregistrierung Hochrisiko-KI-Systeme | Registrieren | Verifizieren | |
Grundrechte-Folgenabschätzung Erforderlich für Betreiber in bestimmten Sektoren | |||
Vorfallmeldung Schwerwiegende Vorfälle an Behörden | Bei Kenntnis | ||
Post-Market-Überwachung Kontinuierliche Überwachung der Systemleistung | Nutzung überwachen |
Hinweis: Viele Organisationen können mehrere Rollen haben. Wenn Sie beispielsweise sowohl ein KI-System entwickeln als auch betreiben, müssen Sie sowohl Anbieter- als auch Betreiberpflichten erfüllen.
Ein praktischer Fahrplan zur Erreichung der EU AI Act Compliance
Alle KI-Systeme in Ihrer Organisation katalogisieren
Risikostufen jedem KI-System zuweisen
Compliance-Lücken und Anforderungen identifizieren
Erforderliche Dokumentation und Kontrollen aufbauen
Konformitätsbewertungen durchführen
Compliance aufrechterhalten und Systeme überwachen
Hinweis: Notifizierte Stellen vergeben bereits Termine bis Q2 2026. Starten Sie Ihre Compliance-Reise jetzt, um die August 2026-Frist einzuhalten.
Compliance-Reise startenKritische Compliance-Fristen stehen bevor
Verbotene KI-Praktiken werden illegal
Transparenzregeln für allgemeine KI
Klassifizierungsregeln treten in Kraft
Alle Hochrisiko-Anforderungen aktiv
Acht Kategorien von KI-Systemen, die unter dem EU AI Act als Hochrisiko klassifiziert sind
Beispiele
Gesichtserkennung, Fingerabdrucksysteme, Iris-Scanning
Kernanforderung
Besonders streng für Strafverfolgungszwecke
Beispiele
Verkehrsmanagement, Wasser-/Gas-/Stromversorgung
Kernanforderung
Muss Ausfallsicherheit und Fail-Safe-Mechanismen nachweisen
Beispiele
Schülerbewertung, Prüfungsbewertung, Zulassungsentscheidungen
Kernanforderung
Erfordert Bias-Tests und Transparenz gegenüber Schülern
Beispiele
Lebenslauf-Screening, Interview-Tools, Beförderungsentscheidungen, Überwachung
Kernanforderung
Muss Arbeitnehmerrechte schützen und Erklärungen liefern
Beispiele
Kreditwürdigkeitsprüfung, Versicherungsrisikobewertung, Leistungsansprüche
Kernanforderung
Erfordert menschliche Überprüfung bei negativen Entscheidungen
Beispiele
Risikobewertung, Lügendetektoranalyse, Kriminalitätsvorhersage
Kernanforderung
Zusätzliche Schutzmaßnahmen für Grundrechte
Beispiele
Visumanträge, Asylentscheidungen, Abschiebungsrisikobewertung
Kernanforderung
Starke menschliche Aufsicht und Einspruchsmechanismen
Beispiele
Recherche zu Gerichtsfällen, richterliche Entscheidungsunterstützung
Kernanforderung
Muss richterliche Unabhängigkeit wahren
Der EU AI Act hat eine dreistufige Bußgeldstruktur mit erheblichen Strafen
35 Mio. € oder 7% des weltweiten Umsatzes
(je nachdem, was höher ist)
Verstöße umfassen:
15 Mio. € oder 3% des weltweiten Umsatzes
(je nachdem, was höher ist)
Verstöße umfassen:
7,5 Mio. € oder 1,5% des weltweiten Umsatzes
(je nachdem, was höher ist)
Verstöße umfassen:
Pflichten für GPAI-Anbieter traten am 2. August 2025 in Kraft
Allgemeine KI bezieht sich auf Modelle, die auf breiten Daten trainiert wurden und eine Vielzahl von Aufgaben ausführen können, ohne für einen bestimmten Zweck entwickelt worden zu sein. Diese Foundation-Modelle treiben viele nachgelagerte Anwendungen an, von Chatbots über Code-Assistenten bis hin zu Bildgeneratoren. Der EU AI Act schafft spezifische Pflichten für Organisationen, die diese Modelle entwickeln, und solche, die Anwendungen damit erstellen.
Große Sprachmodelle
GPT-4, Claude, Gemini, Llama, Mistral
Bildgenerierung
Midjourney, DALL-E, Stable Diffusion
Multimodale Modelle
GPT-4o, Gemini Pro Vision, Claude 3.5
Codegenerierung
GitHub Copilot, Amazon CodeWhisperer
Sie haben das Foundation-Modell selbst entwickelt oder trainiert
Beispiele: OpenAI, Anthropic, Google DeepMind, Meta AI
Sie entwickeln Anwendungen unter Nutzung von GPAI-Modellen per API oder Integration
Beispiele: Unternehmen, die GPT-4 API, Claude API oder feinabgestimmte Modelle nutzen
Alle allgemeinen KI-Modelle
>10²⁵ FLOPs oder von der Kommission benannt
Modelle, die mit mehr als 10²⁵ Gleitkommaoperationen (FLOPs) trainiert wurden, werden automatisch als systemisches Risiko klassifiziert. Die Europäische Kommission kann auch Modelle basierend auf ihren Fähigkeiten, Reichweite oder Potenzial für schwerwiegende Schäden benennen, unabhängig von der Trainingsrechenleistung. Aktuelle Modelle, die diesen Schwellenwert wahrscheinlich erreichen, umfassen GPT-4 und Nachfolger, Claude 3 Opus und spätere Versionen, Gemini Ultra und Metas größte Llama-Varianten.
Die Klassifizierung als systemisches Risiko löst zusätzliche Pflichten aus: umfassende Modellevaluierungen, adversariales Red-Teaming, Vorfallverfolgung und -meldung, verbesserte Cybersicherheit und jährliche Berichterstattung an das EU AI Office.
Die meisten Organisationen, die KI nutzen, sind nachgelagerte Integratoren und keine Foundation-Model-Anbieter. Wenn Sie über APIs auf GPT-4, Claude oder ähnliche Modelle zugreifen, um eigene Anwendungen zu erstellen, gelten diese Pflichten für Sie.
Das EU AI Office innerhalb der Europäischen Kommission bietet zentrale Aufsicht für GPAI-Modelle. Es gibt Leitlinien heraus, entwickelt Verhaltenskodizes, bewertet Modelle mit systemischem Risiko und koordiniert mit nationalen Behörden. GPAI-Anbieter mit Modellen mit systemischem Risiko müssen direkt an das AI Office berichten. Das Office dient auch als Ressource für nachgelagerte Integratoren, die Klarheit über ihre Pflichten suchen.
Zugang zu 37 sofort einsatzbereiten KI-Governance-Richtlinienvorlagen, die auf EU AI Act, ISO 42001 und NIST AI RMF-Anforderungen abgestimmt sind
Häufige Fragen zur EU AI Act Compliance
Starten Sie Ihre EU AI Act Compliance-Reise heute mit unseren umfassenden Bewertungs- und Tracking-Tools.