La conformité au Règlement IA de l'UE simplifiée
Le Règlement IA de l'UE est en vigueur. Nous transformons le texte juridique en un plan clair avec des responsables, des échéances et des preuves. Commencez par une analyse rapide des écarts, puis suivez tout au même endroit.
Niveaux de risque expliqués
Le Règlement IA de l'UE utilise une approche basée sur les risques avec quatre catégories principales
Risque inacceptable
Entièrement interdit
Notation sociale, reconnaissance des émotions au travail/à l'école, catégorisation biométrique, biométrie en temps réel dans les espaces publics, techniques subliminales
interditRisque élevé
Contrôles stricts requis
Tri de CV, évaluation de solvabilité, application de la loi, dispositifs médicaux, infrastructures critiques, évaluation éducative, outils de recrutement
réglementéRisque limité
Transparence requise
Chatbots, deepfakes, systèmes de reconnaissance des émotions, catégorisation biométrique (non interdite), contenus générés par IA
divulgationRisque minimal
Peu ou pas d'obligations
Filtres anti-spam, jeux vidéo, gestion des stocks, jeux vidéo alimentés par IA, systèmes de recommandation simples
minimalComment VerifyWise aide à la conformité au Règlement IA de l'UE
Des fonctionnalités concrètes qui répondent aux exigences réglementaires spécifiques
Inventaire des systèmes d'IA avec classification des risques
Enregistrez chaque système d'IA de votre organisation avec des métadonnées structurées. Chaque entrée capture l'objectif, les sources de données, le contexte de déploiement et les parties prenantes. La plateforme applique les critères de l'Annexe III pour déterminer si les systèmes sont classés à haut risque, risque limité ou risque minimal, et génère une justification de classification pour les audits.
Adresse : Article 6 Classification, Article 9 Gestion des risques, Article 49 Enregistrement
Génération de documentation technique
Créez le package de documentation requis par l'Article 11. La plateforme structure les informations sur l'architecture du système, la provenance des données d'entraînement, les métriques de performance et les limitations connues dans des documents formatés conformes aux attentes réglementaires. Les modèles couvrent les perspectives des fournisseurs et des déployeurs.
Adresse : Article 11 Documentation technique, Annexe IV Exigences
Configuration des workflows de surveillance humaine
Définissez qui examine les sorties de l'IA, dans quelles conditions et avec quelle autorité pour annuler. La plateforme permet de configurer les déclencheurs de surveillance, d'attribuer des examinateurs par rôle ou expertise et de capturer les décisions d'examen avec horodatage. Les modèles de surveillance deviennent des enregistrements vérifiables démontrant la conformité à l'Article 14.
Adresse : Article 14 Surveillance humaine, Article 26 Obligations des déployeurs
Journalisation et conservation opérationnelles
Capturez les événements système, les interactions utilisateur et les sorties de décision avec horodatage automatique. Les journaux sont conservés selon des politiques configurables, par défaut à six mois minimum pour les déployeurs. Les capacités de recherche et d'exportation soutiennent les enquêtes sur les incidents et les demandes des autorités.
Adresse : Article 12 Enregistrements, Article 26(5) Conservation des journaux
Suivi et signalement des incidents
Enregistrez les incidents liés à l'IA avec une classification de gravité et assignez des responsables d'investigation. La plateforme suit les progrès de remédiation et génère des rapports d'incidents adaptés aux déclarations aux autorités. Les incidents graves peuvent être escaladés aux autorités dans les délais requis, avec documentation jointe.
Adresse : Article 62 Signalement des incidents graves, Article 73 Sanctions
Analyse d'impact sur les droits fondamentaux
Les déployeurs d'IA à haut risque dans certains secteurs doivent évaluer les impacts sur les droits fondamentaux avant le déploiement. La plateforme fournit des modèles d'évaluation structurés pour le risque de discrimination, les implications de confidentialité, l'accès aux services et les garanties procédurales. Les évaluations complétées génèrent des enregistrements datés comme preuve de conformité.
Adresse : Article 27 Analyse d'impact sur les droits fondamentaux
Toutes les activités de conformité sont suivies avec horodatage, responsables assignés et workflows d'approbation. Cette piste d'audit démontre une gouvernance systématique plutôt qu'une documentation créée a posteriori.
Couverture complète des exigences du Règlement IA de l'UE
VerifyWise fournit des outils dédiés pour chaque exigence réglementaire dans 15 catégories de conformité
Exigences du Règlement IA de l'UE
Exigences avec outils dédiés
Couverture de toutes les catégories
Gestion et évaluation des risques
Gouvernance des données
Documentation technique
Enregistrements & Journalisation
Transparence & Information des utilisateurs
Surveillance humaine
Précision, robustesse & Cybersécurité
Système de gestion de la qualité
Évaluation de conformité
Enregistrement & Marquage CE
Surveillance post-commercialisation
Signalement des incidents
Obligations des déployeurs
Analyse d'impact sur les droits fondamentaux
Compétence IA & Formation
Fonctionnalités qui distinguent VerifyWise
Workflow marquage CE
Processus guidé en 7 étapes pour l'évaluation de conformité avec génération de documents
Passerelle LLM
Surveillance en temps réel et application des politiques pour l'utilisation des modèles GPAI
Registre des formations
Suivi des exigences de compétence IA et des preuves de qualification des employés
Gestion des incidents
Workflows structurés pour le suivi des incidents graves et le signalement aux autorités
Pas sûr d'être concerné ?
Faites notre évaluation gratuite de préparation au Règlement IA de l'UE pour déterminer votre classification de risque et vos obligations de conformité en quelques minutes.
Évaluation rapide
Résultats instantanés
Connaissez votre rôle et vos obligations
Les différents acteurs de la chaîne de valeur de l'IA ont des responsabilités différentes selon le Règlement IA de l'UE
Fournisseur
Organisations qui développent ou modifient substantiellement des systèmes d'IA
- Mettre en œuvre un système de gestion des risques tout au long du cycle de vie
- Assurer la qualité et la gouvernance des données d'entraînement
- Créer et maintenir une documentation technique
- Développer des capacités de journalisation appropriées
- Assurer la transparence et informer les déployeurs
- Mettre en œuvre des mesures de surveillance humaine
- Assurer la précision, la robustesse et la cybersécurité
- Établir un système de gestion de la qualité
- Effectuer une évaluation de conformité et apposer le marquage CE
- Enregistrer le système dans la base de données de l'UE
- Signaler les incidents graves aux autorités
Déployeur
Organisations qui utilisent des systèmes d'IA sous leur responsabilité
- Affecter du personnel pour la surveillance humaine
- Conserver les journaux pendant au moins 6 mois
- Effectuer une analyse d'impact sur les droits fondamentaux
- Surveiller le fonctionnement et les performances du système
- Signaler les incidents graves aux fournisseurs et aux autorités
- Utiliser le système d'IA conformément aux instructions
- Assurer des données d'entrée pertinentes pour l'usage prévu
- Informer les fournisseurs des risques identifiés
- Suspendre l'utilisation si le système présente un risque
- Coopérer avec les autorités lors des enquêtes
Distributeur/Importateur
Organisations qui mettent des systèmes d'IA à disposition sur le marché de l'UE
- Vérifier que le fournisseur a effectué l'évaluation de conformité
- S'assurer du marquage CE et de la documentation
- Vérifier l'enregistrement dans la base de données de l'UE
- Stocker et maintenir la documentation requise
- Assurer les conditions de stockage et de transport pour maintenir la conformité
- Fournir les informations nécessaires aux autorités
- Cesser la distribution si le système d'IA n'est pas conforme
- Informer les fournisseurs et les autorités de la non-conformité
- Coopérer avec les autorités pour les mesures correctives
Tableau comparatif des obligations
Référence rapide des obligations qui s'appliquent à chaque rôle
| Obligation | Fournisseur | Déployeur | Distributeur |
|---|---|---|---|
Système de gestion des risques Évaluation et atténuation des risques tout au long du cycle de vie | |||
Documentation technique Spécifications du système, données d'entraînement, métriques de performance | Stocker | ||
Surveillance humaine Prévenir ou minimiser les risques | Concevoir | Mettre en œuvre | |
Journalisation & Enregistrements Conservation minimale de 6 mois pour les déployeurs | Activer | Maintenir | |
Évaluation de conformité Auto-évaluation ou organisme notifié | Vérifier | ||
Marquage CE Requis avant la mise sur le marché | Apposer | Vérifier | |
Enregistrement base de données UE Systèmes d'IA à haut risque | Enregistrer | Vérifier | |
Analyse d'impact droits fondamentaux Requis pour les déployeurs dans certains secteurs | |||
Signalement des incidents Incidents graves aux autorités | Si connaissance | ||
Surveillance post-commercialisation Surveillance continue des performances du système | Surveiller l'usage |
Note : De nombreuses organisations peuvent avoir plusieurs rôles. Par exemple, si vous développez et exploitez un système d'IA, vous devez remplir les obligations de fournisseur et de déployeur.
6 étapes vers la conformité d'ici août 2026
Une feuille de route pratique pour atteindre la conformité au Règlement IA de l'UE
Inventaire des systèmes d'IA
Cataloguer tous les systèmes d'IA de votre organisation
- Identifier tous les systèmes et outils d'IA utilisés
- Documenter les fournisseurs d'IA et les services tiers
- Mapper les systèmes d'IA aux processus métier
- Identifier les propriétaires des systèmes d'IA et les parties prenantes
- Créer un registre central de l'IA
Classification des risques
Attribuer des niveaux de risque à chaque système d'IA
- Évaluer chaque système par rapport aux catégories de l'Annexe III
- Vérifier si le système relève des cas d'usage interdits
- Classifier comme haut risque, risque limité ou risque minimal
- Documenter la justification de la classification
- Identifier votre rôle (fournisseur, déployeur, distributeur)
Analyse des écarts
Identifier les écarts de conformité et les exigences
- Comparer l'état actuel aux exigences du Règlement IA de l'UE
- Identifier la documentation et les processus manquants
- Évaluer les écarts de conformité technique
- Évaluer les mécanismes de gouvernance et de surveillance
- Prioriser les mesures de remédiation
Documentation & Gouvernance
Construire la documentation et les contrôles requis
- Créer une documentation technique pour les systèmes à haut risque
- Mettre en œuvre des systèmes de gestion des risques
- Établir des procédures de gouvernance des données
- Documenter les mécanismes de surveillance humaine
- Créer un système de gestion de la qualité
- Préparer les analyses d'impact sur les droits fondamentaux
Test & Validation
Effectuer les évaluations de conformité
- Effectuer des tests et validations internes
- Réaliser des évaluations de biais et d'équité
- Tester la précision, la robustesse et la cybersécurité
- Faire appel à un organisme notifié si nécessaire
- Obtenir le marquage CE pour les systèmes applicables
- Enregistrer les systèmes à haut risque dans la base de données de l'UE
Surveillance & Reporting
Maintenir la conformité et surveiller les systèmes
- Mettre en œuvre des systèmes de surveillance continue
- Maintenir les journaux et les pistes d'audit
- Surveiller la dérive des performances et les incidents
- Signaler les incidents graves dans les délais
- Effectuer des révisions et mises à jour régulières
- Rester informé des directives réglementaires
Note : Les organismes notifiés prennent déjà des rendez-vous jusqu'au T2 2026. Commencez votre parcours de conformité maintenant pour respecter l'échéance d'août 2026.
Commencer le parcours de conformitéDates clés à connaître
Des échéances de conformité critiques approchent
Pratiques interdites
Les pratiques d'IA interdites deviennent illégales
- Notation sociale
- Catégorisation biométrique
- Reconnaissance des émotions au travail/à l'école
Transparence GPAI
Règles de transparence pour l'IA à usage général
- Codes de conduite
- Documentation des modèles
- Évaluations des risques systémiques
Haut risque Phase 1
Les règles de classification entrent en vigueur
- Systèmes de gestion des risques
- Gouvernance des données
- Documentation technique
Conformité complète
Toutes les exigences pour les systèmes à haut risque actives
- Surveillance complète
- Surveillance post-commercialisation
- Évaluations de conformité
Systèmes d'IA à haut risque (Annexe III)
Huit catégories de systèmes d'IA classés à haut risque selon le Règlement IA de l'UE
Identification biométrique
Exemples
Reconnaissance faciale, systèmes d'empreintes digitales, scan de l'iris
Exigence clé
Particulièrement strict pour les forces de l'ordre
Infrastructures critiques
Exemples
Gestion du trafic, approvisionnement en eau/gaz/électricité
Exigence clé
Doit démontrer la résilience et les mécanismes de sécurité intégrée
Éducation & Formation professionnelle
Exemples
Évaluation des étudiants, notation des examens, décisions d'admission
Exigence clé
Nécessite des tests de biais et une transparence envers les étudiants
Emploi & RH
Exemples
Tri de CV, outils d'entretien, décisions de promotion, surveillance
Exigence clé
Doit protéger les droits des travailleurs et fournir des explications
Services essentiels
Exemples
Évaluation de solvabilité, évaluation des risques d'assurance, demandes de prestations
Exigence clé
Nécessite un examen humain pour les décisions négatives
Application de la loi
Exemples
Évaluation des risques, analyse de détection de mensonges, prédiction de la criminalité
Exigence clé
Protections supplémentaires pour les droits fondamentaux
Migration & Contrôle aux frontières
Exemples
Demandes de visa, décisions d'asile, évaluation des risques d'expulsion
Exigence clé
Forte surveillance humaine et mécanismes de recours
Justice & Démocratie
Exemples
Recherche juridique, aide à la décision judiciaire
Exigence clé
Doit préserver l'indépendance judiciaire
Sanctions et application
Le Règlement IA de l'UE a une structure d'amendes à trois niveaux avec des sanctions significatives
Niveau 1 - IA interdite
35 M€ ou 7% du chiffre d'affaires mondial
(le plus élevé des deux)
Les violations comprennent :
- Systèmes de notation sociale
- IA manipulatrice
- Biométrie en temps réel dans les espaces publics
- Extraction non ciblée de visages
Niveau 2 - Violations haut risque
15 M€ ou 3% du chiffre d'affaires mondial
(le plus élevé des deux)
Les violations comprennent :
- Systèmes d'IA à haut risque non conformes
- Violations des obligations des systèmes d'IA
- Non-réalisation des analyses d'impact requises
Niveau 3 - Violations d'information
7,5 M€ ou 1,5% du chiffre d'affaires mondial
(le plus élevé des deux)
Les violations comprennent :
- Fourniture de fausses informations
- Non-fourniture d'informations aux autorités
- Documentation incomplète
Exigences pour l'IA à usage général (GPAI)
Les obligations pour les fournisseurs GPAI sont entrées en vigueur le 2 août 2025
Qu'est-ce qui qualifie comme IA à usage général ?
L'IA à usage général fait référence aux modèles entraînés sur des données larges et capables d'effectuer une variété de tâches sans être conçus pour un usage spécifique. Ces modèles fondateurs alimentent de nombreuses applications en aval, des chatbots aux assistants de code en passant par les générateurs d'images. Le Règlement IA de l'UE crée des obligations spécifiques pour les organisations qui développent ces modèles et celles qui créent des applications avec eux.
Grands modèles de langage
GPT-4, Claude, Gemini, Llama, Mistral
Génération d'images
Midjourney, DALL-E, Stable Diffusion
Modèles multimodaux
GPT-4o, Gemini Pro Vision, Claude 3.5
Génération de code
GitHub Copilot, Amazon CodeWhisperer
Êtes-vous fournisseur GPAI ou intégrateur en aval ?
Vous avez développé ou entraîné le modèle fondateur vous-même
- Les obligations complètes de transparence GPAI s'appliquent
- Doit fournir une documentation pour les utilisateurs en aval
- Responsable de la conformité aux droits d'auteur pour l'entraînement
- Exigences de risque systémique si le seuil est atteint
Exemples : OpenAI, Anthropic, Google DeepMind, Meta AI
Vous développez des applications utilisant des modèles GPAI via API ou intégration
- Doit obtenir la documentation du fournisseur GPAI
- Responsable de la conformité de votre application spécifique
- Les cas d'usage à haut risque déclenchent les obligations de haut risque
- Ne peut pas transférer la responsabilité au fournisseur du modèle fondateur
Exemples : Entreprises utilisant l'API GPT-4, l'API Claude ou des modèles affinés
Niveaux d'obligations GPAI
Modèles GPAI généraux
Tous les modèles d'IA à usage général
- Fournir une documentation technique
- Fournir des informations et une documentation aux fournisseurs en aval
- Mettre en œuvre une politique de droits d'auteur et publier un résumé des données d'entraînement
- Assurer l'efficacité énergétique dans la mesure du possible
Modèles GPAI avec risque systémique
>10²⁵ FLOPs ou désigné par la Commission
- Effectuer une évaluation du modèle et une analyse des risques systémiques
- Effectuer des tests contradictoires
- Suivre, documenter et signaler les incidents graves
- Assurer une protection adéquate en matière de cybersécurité
- Mettre en œuvre des mesures d'atténuation des risques
- Rapporter annuellement au Bureau de l'IA
Comprendre le seuil de risque systémique
Les modèles entraînés avec plus de 10²⁵ opérations en virgule flottante (FLOPs) sont automatiquement classés comme présentant un risque systémique. La Commission européenne peut également désigner des modèles en fonction de leurs capacités, de leur portée ou de leur potentiel de dommages graves, indépendamment de la puissance de calcul d'entraînement. Les modèles actuels susceptibles d'atteindre ce seuil incluent GPT-4 et ses successeurs, Claude 3 Opus et versions ultérieures, Gemini Ultra et les plus grandes variantes Llama de Meta.
La classification de risque systémique déclenche des obligations supplémentaires : évaluations complètes des modèles, red-teaming contradictoire, suivi et signalement des incidents, cybersécurité renforcée et rapport annuel au Bureau de l'IA de l'UE.
Dispositions GPAI open source
Les obligations réduites s'appliquent si
- Les poids du modèle sont accessibles publiquement
- La méthodologie d'entraînement est documentée ouvertement
- Publié sous une licence open-source qualifiante
- Les paramètres et l'architecture sont publiés
Les obligations complètes s'appliquent toujours si
- Le modèle présente un risque systémique (>10²⁵ FLOPs)
- Vous modifiez et déployez commercialement
- Utilisé dans des applications à haut risque selon l'Annexe III
- Le modèle est intégré dans des produits réglementés
Si vous construisez sur des modèles GPAI
La plupart des organisations utilisant l'IA sont des intégrateurs en aval plutôt que des fournisseurs de modèles fondateurs. Si vous accédez à GPT-4, Claude ou des modèles similaires via des API pour créer vos propres applications, ces obligations s'appliquent à vous.
Le Bureau de l'IA de l'UE
Le Bureau de l'IA de l'UE au sein de la Commission européenne assure une surveillance centralisée des modèles GPAI. Il émet des lignes directrices, développe des codes de conduite, évalue les modèles à risque systémique et coordonne avec les autorités nationales. Les fournisseurs GPAI avec des modèles à risque systémique doivent rapporter directement au Bureau de l'IA. Le Bureau sert également de ressource pour les intégrateurs en aval cherchant des éclaircissements sur leurs obligations.
Référentiel complet de politiques de gouvernance IA
Accédez à 37 modèles de politiques de gouvernance IA prêts à l'emploi alignés sur le Règlement IA de l'UE, ISO 42001 et les exigences NIST AI RMF
Gouvernance de base
- • Politique de gouvernance IA
- • Politique de gestion des risques IA
- • Principes d'IA responsable
- • Charte éthique IA
- • Approbation et validation des modèles
- • Assurance qualité IA
- + 6 autres politiques
Données et sécurité
- • Politique d'utilisation des données IA
- • Minimisation des données pour l'IA
- • Approvisionnement des données d'entraînement
- • Traitement des données sensibles
- • Sécurité des prompts et durcissement
- • Réponse aux incidents IA
- + 2 autres politiques
Juridique et conformité
- • Politique de risque fournisseur IA
- • Conformité réglementaire
- • Préparation au marquage CE
- • Enregistrement des systèmes à haut risque
- • Documentation et traçabilité
- • Responsabilité IA et rôles
- + 7 autres politiques
Foire aux questions
Questions fréquentes sur la conformité au Règlement IA de l'UE
Prêt pour la conformité ?
Commencez votre parcours de conformité au Règlement IA de l'UE dès aujourd'hui avec nos outils complets d'évaluation et de suivi.