Banque centrale européenne
Voir la ressource originaleLe guide de supervision 2024 de la Banque centrale européenne représente le premier cadre réglementaire complet traitant spécifiquement des applications d'intelligence artificielle et d'apprentissage automatique au sein des établissements de crédit de l'UE. Ce document de 50 pages établit des attentes claires pour les banques utilisant l'IA/ML dans l'évaluation du risque de crédit, la détection des fraudes, le trading algorithmique et les applications destinées aux clients. Contrairement aux cadres génériques de gouvernance de l'IA, ce guide fournit des exigences sectorielles spécifiques qui impactent directement la façon dont les banques doivent structurer leurs programmes d'IA, valider les modèles et rendre compte aux superviseurs. L'orientation fait le pont entre la loi sur l'IA plus large de l'UE et les réalités pratiques de la mise en œuvre de l'IA dans les services financiers hautement réglementés.
Ce n'est pas un autre document d'éthique de l'IA de haut niveau. Le guide de la BCE fournit des attentes granulaires et exécutoires que les superviseurs bancaires utiliseront lors des examens. Il établit des exigences spécifiques pour la documentation de validation des modèles, introduit de nouveaux concepts comme les « inventaires de modèles d'IA/ML » et impose des structures de gouvernance particulières qui doivent impliquer la direction générale et les fonctions de risque. Le guide aborde également des préoccupations bancaires uniques comme la procyclicité des modèles d'IA, le risque de concentration lié aux dépendances aux fournisseurs et l'intersection de la gouvernance de l'IA avec les réglementations bancaires existantes comme Bâle III et CRD V.
L'orientation reconnaît explicitement que les cadres traditionnels de gestion des risques de modèle, conçus principalement pour les modèles statistiques, sont insuffisants pour les systèmes d'IA/ML qui peuvent présenter des comportements émergents ou nécessiter des capacités d'apprentissage continu.
Les banques doivent établir des fonctions de surveillance dédiées à l'IA/ML avec une responsabilité claire envers la direction générale et les conseils d'administration. Le guide exige que les institutions maintiennent des inventaires complets d'IA, mettent en œuvre des structures de trois lignes de défense spécifiquement pour l'IA/ML, et assurent des cadres d'appétit pour le risque appropriés qui tiennent compte des risques spécifiques à l'IA comme le biais algorithmique et la dérive des modèles.
Les approches traditionnelles de backtesting sont jugées insuffisantes pour les modèles d'IA/ML. Les banques doivent mettre en œuvre des capacités de surveillance continue, établir des benchmarks de performance qui tiennent compte des distributions de données changeantes, et maintenir une documentation détaillée des processus de développement des modèles. Le guide souligne le besoin d'équipes de validation indépendantes avec une expertise spécifique en IA/ML.
L'orientation exige que les banques établissent un suivi de la lignée des données, mettent en œuvre des contrôles de qualité des données robustes et traitent les biais potentiels dans les ensembles de données d'entraînement. Cela va au-delà de la gouvernance des données typique pour inclure une surveillance continue des changements de distribution des données qui pourraient impacter les performances des modèles.
Phase 1 : Évaluation et analyse des écarts (0-6 mois)
Phase 2 : Fondation de la gouvernance (6-12 mois)
Phase 3 : Intégration opérationnelle (12-24 mois)
Public principal :
Public secondaire :
Publié
2024
Juridiction
Union européenne
Catégorie
Sector specific governance
Accès
Accès public
VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.