EU veröffentlicht zentrale Leitlinien für allgemeine KI-Modelle unter dem AI Act
Am 18. Juli unternahm die Europäische Kommission einen weiteren konkreten Schritt zur Operationalisierung des wegweisenden EU AI Acts, indem sie offizielle Leitlinien für Anbieter allgemeiner KI-Modelle veröffentlichte.
Am 18. Juli unternahm die Europäische Kommission einen weiteren konkreten Schritt zur Operationalisierung des wegweisenden EU AI Acts, indem sie offizielle Leitlinien für Anbieter allgemeiner KI-Modelle (GPAI) veröffentlichte. Diese Leitlinien kommen nur zwei Wochen vor dem Inkrafttreten der AI Act-Verpflichtungen am 2. August 2025 und bieten lang erwartete Klarheit für Entwickler, Forscher und Unternehmen, die grundlegende KI-Technologien entwickeln.
Diese Leitlinien signalisieren das Engagement der EU für technologische Souveränität, regulatorische Klarheit und verantwortungsvolle Innovation. Durch die Übersetzung hochrangiger Rechtssprache in praktische Anweisungen erleichtert die Kommission sowohl Open-Source-Gemeinschaften als auch kommerziellen Entwicklern die vertrauensvolle Compliance.
Was enthalten die Leitlinien?
Das Dokument definiert GPAI-Modelle als solche, die:
- Mit Rechenleistung über 10²³ Gleitkommaoperationen (FLOPs) trainiert wurden
- Fähig sind, Sprache, Text-zu-Bild oder Text-zu-Video Inhalte zu generieren
Es:
- Klärt, wer als Anbieter qualifiziert ist
- Definiert, was das Inverkehrbringen eines Modells bedeutet
- Erklärt Ausnahmen für Open-Source-Modelle, vorausgesetzt sie erfüllen Transparenzanforderungen
- Beschreibt, wie die Ausrichtung am Verhaltenskodex für allgemeine KI die Compliance unterstützen kann
- Umreißt zusätzliche Pflichten für hochauswirkende Modelle, die systemische Risiken darstellen könnten, einschließlich Risiken für Sicherheit, Grundrechte und Autonomie
Diese hochauswirkenden Modelle – die Typen, die autonome Agenten oder große Verbraucheranwendungen antreiben könnten – müssen Risikobewertungen durchführen, Risikominderungsstrategien implementieren und die Ausrichtung an EU-Werten wie Menschenwürde, demokratische Aufsicht und Sicherheit-by-Design demonstrieren.
Warum das wichtig ist
Dies ist ein kritischer Moment für Europas Position in der globalen KI-Governance.
Durch die Veröffentlichung dieser detaillierten Leitlinien:
- Befähigt die Kommission Entwickler in der EU, ohne Angst vor regulatorischer Ungewissheit zu innovieren
- Bietet einen Wettbewerbsvorteil für KI-Anbieter, die sich frühzeitig an EU-Normen ausrichten
- Fördert verantwortungsvolle Entwicklung und Bereitstellung grundlegender KI-Modelle
- Stärkt die globale Relevanz europäischer KI-Standards, besonders da andere Jurisdiktionen auf die EU als regulatorisches Vorbild blicken
Auswirkungen für Entwickler und Unternehmen
Für Startups, Akademiker und Open-Source-Mitwirkende ist die Botschaft klar: Transparenz und Dokumentation sind Ihre Compliance-Währung. Für größere KI-Unternehmen, insbesondere diejenigen, die multimodale oder große generative Modelle entwickeln, ist dies ein Weckruf, Governance und Risikomanagement tiefer in ihren Entwicklungslebenszyklus einzubetten.
Die Leitlinien verstärken auch, dass Open-Source-Modelle nicht automatisch befreit sind. Wenn ein Modell unter einer freien und offenen Lizenz veröffentlicht wird, müssen Anbieter dennoch sicherstellen, dass Transparenzbedingungen erfüllt werden, wie die Veröffentlichung von Dokumentation, Offenlegung von Trainingsdatenquellen (wo machbar) und Information der Benutzer über bekannte Einschränkungen.
Ausblick
Dieser Schritt ergänzt den laufenden AI-Pakt, ein freiwilliges Framework, in dem Unternehmen frühzeitige Compliance mit dem AI Act vor dessen vollständiger Durchsetzung zeigen können. Mit diesen nun öffentlichen Leitlinien haben Unternehmen, die am AI-Pakt teilnehmen, eine solide Grundlage zum Aufbauen.