Le Règlement IA de l'UE est en vigueur. Nous transformons le texte juridique en un plan clair avec des responsables, des échéances et des preuves. Commencez par une analyse rapide des écarts, puis suivez tout au même endroit.
Le Règlement IA de l'UE utilise une approche basée sur les risques avec quatre catégories principales
Entièrement interdit
Notation sociale, reconnaissance des émotions au travail/à l'école, catégorisation biométrique, biométrie en temps réel dans les espaces publics, techniques subliminales
interditContrôles stricts requis
Tri de CV, évaluation de solvabilité, application de la loi, dispositifs médicaux, infrastructures critiques, évaluation éducative, outils de recrutement
réglementéTransparence requise
Chatbots, deepfakes, systèmes de reconnaissance des émotions, catégorisation biométrique (non interdite), contenus générés par IA
divulgationPeu ou pas d'obligations
Filtres anti-spam, jeux vidéo, gestion des stocks, jeux vidéo alimentés par IA, systèmes de recommandation simples
minimalDes fonctionnalités concrètes qui répondent aux exigences réglementaires spécifiques
Enregistrez chaque système d'IA de votre organisation avec des métadonnées structurées. Chaque entrée capture l'objectif, les sources de données, le contexte de déploiement et les parties prenantes. La plateforme applique les critères de l'Annexe III pour déterminer si les systèmes sont classés à haut risque, risque limité ou risque minimal, et génère une justification de classification pour les audits.
Adresse : Article 6 Classification, Article 9 Gestion des risques, Article 49 Enregistrement
Créez le package de documentation requis par l'Article 11. La plateforme structure les informations sur l'architecture du système, la provenance des données d'entraînement, les métriques de performance et les limitations connues dans des documents formatés conformes aux attentes réglementaires. Les modèles couvrent les perspectives des fournisseurs et des déployeurs.
Adresse : Article 11 Documentation technique, Annexe IV Exigences
Définissez qui examine les sorties de l'IA, dans quelles conditions et avec quelle autorité pour annuler. La plateforme permet de configurer les déclencheurs de surveillance, d'attribuer des examinateurs par rôle ou expertise et de capturer les décisions d'examen avec horodatage. Les modèles de surveillance deviennent des enregistrements vérifiables démontrant la conformité à l'Article 14.
Adresse : Article 14 Surveillance humaine, Article 26 Obligations des déployeurs
Capturez les événements système, les interactions utilisateur et les sorties de décision avec horodatage automatique. Les journaux sont conservés selon des politiques configurables, par défaut à six mois minimum pour les déployeurs. Les capacités de recherche et d'exportation soutiennent les enquêtes sur les incidents et les demandes des autorités.
Adresse : Article 12 Enregistrements, Article 26(5) Conservation des journaux
Enregistrez les incidents liés à l'IA avec une classification de gravité et assignez des responsables d'investigation. La plateforme suit les progrès de remédiation et génère des rapports d'incidents adaptés aux déclarations aux autorités. Les incidents graves peuvent être escaladés aux autorités dans les délais requis, avec documentation jointe.
Adresse : Article 62 Signalement des incidents graves, Article 73 Sanctions
Les déployeurs d'IA à haut risque dans certains secteurs doivent évaluer les impacts sur les droits fondamentaux avant le déploiement. La plateforme fournit des modèles d'évaluation structurés pour le risque de discrimination, les implications de confidentialité, l'accès aux services et les garanties procédurales. Les évaluations complétées génèrent des enregistrements datés comme preuve de conformité.
Adresse : Article 27 Analyse d'impact sur les droits fondamentaux
Toutes les activités de conformité sont suivies avec horodatage, responsables assignés et workflows d'approbation. Cette piste d'audit démontre une gouvernance systématique plutôt qu'une documentation créée a posteriori.
VerifyWise fournit des outils dédiés pour chaque exigence réglementaire dans 15 catégories de conformité
Exigences du Règlement IA de l'UE
Exigences avec outils dédiés
Couverture de toutes les catégories
Processus guidé en 7 étapes pour l'évaluation de conformité avec génération de documents
Surveillance en temps réel et application des politiques pour l'utilisation des modèles GPAI
Suivi des exigences de compétence IA et des preuves de qualification des employés
Workflows structurés pour le suivi des incidents graves et le signalement aux autorités
Faites notre évaluation gratuite de préparation au Règlement IA de l'UE pour déterminer votre classification de risque et vos obligations de conformité en quelques minutes.
Évaluation rapide
Résultats instantanés
Les différents acteurs de la chaîne de valeur de l'IA ont des responsabilités différentes selon le Règlement IA de l'UE
Organisations qui développent ou modifient substantiellement des systèmes d'IA
Organisations qui utilisent des systèmes d'IA sous leur responsabilité
Organisations qui mettent des systèmes d'IA à disposition sur le marché de l'UE
Référence rapide des obligations qui s'appliquent à chaque rôle
| Obligation | Fournisseur | Déployeur | Distributeur |
|---|---|---|---|
Système de gestion des risques Évaluation et atténuation des risques tout au long du cycle de vie | |||
Documentation technique Spécifications du système, données d'entraînement, métriques de performance | Stocker | ||
Surveillance humaine Prévenir ou minimiser les risques | Concevoir | Mettre en œuvre | |
Journalisation & Enregistrements Conservation minimale de 6 mois pour les déployeurs | Activer | Maintenir | |
Évaluation de conformité Auto-évaluation ou organisme notifié | Vérifier | ||
Marquage CE Requis avant la mise sur le marché | Apposer | Vérifier | |
Enregistrement base de données UE Systèmes d'IA à haut risque | Enregistrer | Vérifier | |
Analyse d'impact droits fondamentaux Requis pour les déployeurs dans certains secteurs | |||
Signalement des incidents Incidents graves aux autorités | Si connaissance | ||
Surveillance post-commercialisation Surveillance continue des performances du système | Surveiller l'usage |
Note : De nombreuses organisations peuvent avoir plusieurs rôles. Par exemple, si vous développez et exploitez un système d'IA, vous devez remplir les obligations de fournisseur et de déployeur.
Une feuille de route pratique pour atteindre la conformité au Règlement IA de l'UE
Cataloguer tous les systèmes d'IA de votre organisation
Attribuer des niveaux de risque à chaque système d'IA
Identifier les écarts de conformité et les exigences
Construire la documentation et les contrôles requis
Effectuer les évaluations de conformité
Maintenir la conformité et surveiller les systèmes
Note : Les organismes notifiés prennent déjà des rendez-vous jusqu'au T2 2026. Commencez votre parcours de conformité maintenant pour respecter l'échéance d'août 2026.
Commencer le parcours de conformitéDes échéances de conformité critiques approchent
Les pratiques d'IA interdites deviennent illégales
Règles de transparence pour l'IA à usage général
Les règles de classification entrent en vigueur
Toutes les exigences pour les systèmes à haut risque actives
Huit catégories de systèmes d'IA classés à haut risque selon le Règlement IA de l'UE
Exemples
Reconnaissance faciale, systèmes d'empreintes digitales, scan de l'iris
Exigence clé
Particulièrement strict pour les forces de l'ordre
Exemples
Gestion du trafic, approvisionnement en eau/gaz/électricité
Exigence clé
Doit démontrer la résilience et les mécanismes de sécurité intégrée
Exemples
Évaluation des étudiants, notation des examens, décisions d'admission
Exigence clé
Nécessite des tests de biais et une transparence envers les étudiants
Exemples
Tri de CV, outils d'entretien, décisions de promotion, surveillance
Exigence clé
Doit protéger les droits des travailleurs et fournir des explications
Exemples
Évaluation de solvabilité, évaluation des risques d'assurance, demandes de prestations
Exigence clé
Nécessite un examen humain pour les décisions négatives
Exemples
Évaluation des risques, analyse de détection de mensonges, prédiction de la criminalité
Exigence clé
Protections supplémentaires pour les droits fondamentaux
Exemples
Demandes de visa, décisions d'asile, évaluation des risques d'expulsion
Exigence clé
Forte surveillance humaine et mécanismes de recours
Exemples
Recherche juridique, aide à la décision judiciaire
Exigence clé
Doit préserver l'indépendance judiciaire
Le Règlement IA de l'UE a une structure d'amendes à trois niveaux avec des sanctions significatives
35 M€ ou 7% du chiffre d'affaires mondial
(le plus élevé des deux)
Les violations comprennent :
15 M€ ou 3% du chiffre d'affaires mondial
(le plus élevé des deux)
Les violations comprennent :
7,5 M€ ou 1,5% du chiffre d'affaires mondial
(le plus élevé des deux)
Les violations comprennent :
Les obligations pour les fournisseurs GPAI sont entrées en vigueur le 2 août 2025
L'IA à usage général fait référence aux modèles entraînés sur des données larges et capables d'effectuer une variété de tâches sans être conçus pour un usage spécifique. Ces modèles fondateurs alimentent de nombreuses applications en aval, des chatbots aux assistants de code en passant par les générateurs d'images. Le Règlement IA de l'UE crée des obligations spécifiques pour les organisations qui développent ces modèles et celles qui créent des applications avec eux.
Grands modèles de langage
GPT-4, Claude, Gemini, Llama, Mistral
Génération d'images
Midjourney, DALL-E, Stable Diffusion
Modèles multimodaux
GPT-4o, Gemini Pro Vision, Claude 3.5
Génération de code
GitHub Copilot, Amazon CodeWhisperer
Vous avez développé ou entraîné le modèle fondateur vous-même
Exemples : OpenAI, Anthropic, Google DeepMind, Meta AI
Vous développez des applications utilisant des modèles GPAI via API ou intégration
Exemples : Entreprises utilisant l'API GPT-4, l'API Claude ou des modèles affinés
Tous les modèles d'IA à usage général
>10²⁵ FLOPs ou désigné par la Commission
Les modèles entraînés avec plus de 10²⁵ opérations en virgule flottante (FLOPs) sont automatiquement classés comme présentant un risque systémique. La Commission européenne peut également désigner des modèles en fonction de leurs capacités, de leur portée ou de leur potentiel de dommages graves, indépendamment de la puissance de calcul d'entraînement. Les modèles actuels susceptibles d'atteindre ce seuil incluent GPT-4 et ses successeurs, Claude 3 Opus et versions ultérieures, Gemini Ultra et les plus grandes variantes Llama de Meta.
La classification de risque systémique déclenche des obligations supplémentaires : évaluations complètes des modèles, red-teaming contradictoire, suivi et signalement des incidents, cybersécurité renforcée et rapport annuel au Bureau de l'IA de l'UE.
La plupart des organisations utilisant l'IA sont des intégrateurs en aval plutôt que des fournisseurs de modèles fondateurs. Si vous accédez à GPT-4, Claude ou des modèles similaires via des API pour créer vos propres applications, ces obligations s'appliquent à vous.
Le Bureau de l'IA de l'UE au sein de la Commission européenne assure une surveillance centralisée des modèles GPAI. Il émet des lignes directrices, développe des codes de conduite, évalue les modèles à risque systémique et coordonne avec les autorités nationales. Les fournisseurs GPAI avec des modèles à risque systémique doivent rapporter directement au Bureau de l'IA. Le Bureau sert également de ressource pour les intégrateurs en aval cherchant des éclaircissements sur leurs obligations.
Accédez à 37 modèles de politiques de gouvernance IA prêts à l'emploi alignés sur le Règlement IA de l'UE, ISO 42001 et les exigences NIST AI RMF
Questions fréquentes sur la conformité au Règlement IA de l'UE
Commencez votre parcours de conformité au Règlement IA de l'UE dès aujourd'hui avec nos outils complets d'évaluation et de suivi.