Retour aux modèles de politiques
Politique 06 sur 15

Politique de gestion des risques IA

Definit comment les risques IA sont identifies, evalues, notes, attenues, surveilles et escalades au sein de l'organisation.

1. Objectif

La presente politique etablit un cadre systematique de gestion des risques associes aux systemes d'IA tout au long de leur cycle de vie. Elle confirme que les initiatives d'IA sont alignees avec l'appetence au risque de l'organisation et respectent les exigences reglementaires, y compris le Reglement europeen sur l'IA, l'ISO/IEC 42001 et le cadre NIST AI Risk Management Framework.

2. Perimetre

La presente politique s'applique a :

  • Tous les systemes d'IA et d'apprentissage automatique en developpement, en test ou en production.
  • Tous les services d'IA tiers et solutions fournisseurs.
  • Toutes les applications d'IA generative et grands modeles de langage.
  • Tous les systemes d'automatisation et d'aide a la decision bases sur l'IA.
  • Tout le personnel implique dans la conception, le developpement, le deploiement ou la supervision de l'IA.

3. Taxonomie des risques

Les risques IA sont categorises selon six dimensions. Chaque risque identifie doit etre etiquete avec sa dimension principale :

DimensionDescriptionExemples
TechniqueRisques lies au comportement et aux performances du modeleHallucinations, degradation des performances, attaques adversariales, empoisonnement des donnees, derive du modele
OperationnelRisques lies au deploiement et aux operationsEchecs d'integration, surveillance inadequate, erreurs de deploiement, planification de capacite
EthiqueRisques lies a l'impact societal et individuelBiais et discrimination, violations d'equite, manque de transparence, prejudice social involontaire
ConformiteRisques lies aux obligations reglementaires et legalesNon-conformite reglementaire, violations de la vie privee, documentation inadequate, echeances de reporting manquees
SecuriteRisques lies aux activites adversariales et non autoriseesInjection de prompt, vol de modele, exfiltration de donnees, compromission de la chaine d'approvisionnement, acces non autorise
ReputationnelRisques lies a la perception des parties prenantesErosion de la confiance publique, couverture mediatique negative, reactions des clients, preoccupations des partenaires

4. Classification des risques

Tous les systemes d'IA doivent etre classes selon les niveaux de risque du Reglement europeen sur l'IA avant le developpement ou l'acquisition :

Niveau de risqueCriteresExigences de gouvernance
InacceptableInterdit au titre de l'Art. 5 du Reglement europeen sur l'IA (notation sociale, manipulation subliminale, exploitation des vulnerabilites, identification biometrique a distance en temps reel dans les espaces publics sans autorisation)Interdit. Ne doit pas etre developpe ni deploye.
EleveCategories de l'Annexe III du Reglement europeen sur l'IA : biometrie, infrastructures critiques, education, emploi, services essentiels, forces de l'ordre, migration, justice. Egalement : systemes affectant la sante, la securite ou les droits fondamentaux.Evaluation complete des risques, evaluation de conformite, AIPD des droits fondamentaux, surveillance post-deploiement, plan de reponse aux incidents, marquage CE.
LimiteSystemes avec obligations de transparence : chatbots, deepfakes, reconnaissance emotionnelle, categorisation biometrique.Mentions de transparence, notification des utilisateurs.
MinimalApplications a faible impact avec un risque negligeable.Inscription dans l'inventaire IA, documentation de base.

5. Processus d'evaluation des risques

Les evaluations des risques suivent un processus en cinq phases aligne sur le NIST AI RMF :

Phase 1 : Identification du systeme (MAP)

  • Documenter la finalite du systeme d'IA, les utilisateurs prevus et le contexte operationnel.
  • Classer le systeme selon la section 4.
  • Identifier les parties prenantes susceptibles d'etre affectees par le systeme.
  • Inscrire le systeme dans l'inventaire IA.

Phase 2 : Identification des risques (MAP)

  • Identifier les risques selon les six dimensions de la taxonomie de la section 3.
  • Utiliser des questionnaires d'identification des risques, la modelisation des menaces et l'avis d'experts.
  • Considerer les risques a chaque etape du cycle de vie (conception, donnees, entrainement, deploiement, exploitation, retrait).
  • Documenter chaque risque dans le registre des risques avec sa description, sa dimension et les parties prenantes affectees.

Phase 3 : Evaluation et notation des risques (MEASURE)

Chaque risque est note a l'aide d'une matrice de vraisemblance-impact 5x5 :

NoteVraisemblanceImpact
1Rare (moins de 5 % de probabilite)Negligeable (aucun effet mesurable)
2Peu probable (5-20 %)Mineur (effet limite, reversible)
3Possible (20-50 %)Modere (effet perceptible, gerable)
4Probable (50-80 %)Majeur (prejudice significatif, difficile a surmonter)
5Quasi certain (plus de 80 %)Severe (prejudice catastrophique, action reglementaire, violation des droits fondamentaux)

Note de risque = Vraisemblance x Impact (plage de 1 a 25)

Plage de notesNiveau de risqueAction requise
1-4FaibleAccepter avec documentation. Surveiller dans le cadre des revues de routine.
5-9MoyenAttenuer. Mettre en oeuvre des controles et suivre la remediation. Approbation du proprietaire du modele.
10-15EleveAttenuer de maniere urgente. Revue par le Responsable de la gouvernance IA. Deploiement interdit sans plan d'attenuation approuve.
16-25CritiqueEscalader au Comite de gouvernance de l'IA. Le systeme ne peut pas progresser sans l'approbation du Comite et des attenuations verifiees.

Phase 4 : Planification de l'attenuation (MANAGE)

Pour chaque risque note Moyen ou superieur, selectionner une strategie de traitement :

StrategieQuand l'utiliserExemple
EviterLe risque est inacceptable et aucune attenuation ne peut le reduire suffisammentNe pas deployer le systeme dans ce contexte
AttenuerLe risque peut etre reduit a des niveaux acceptables grace a des controlesAjouter des tests de biais, mettre en place des garde-fous, ajouter un examen humain
TransfererLe risque peut etre partage avec un tiersAssurance, allocation contractuelle de responsabilite avec le fournisseur
AccepterLe risque residuel est dans les limites de l'appetence apres attenuationDocumenter l'acceptation avec justification et date de revue

Chaque attenuation doit avoir un responsable, une echeance et une note de risque residuel definie apres mise en oeuvre.

Phase 5 : Surveillance continue (MANAGE)

  • Surveiller les indicateurs de risque en production (indicateurs de performance, alertes de derive, rapports d'incidents).
  • Revoir les systemes a haut risque trimestriellement, a risque moyen semestriellement, a faible risque annuellement.
  • Reevaluer lors de changements significatifs (mise a jour du modele, changement de donnees, changement de contexte, changement reglementaire).
  • Suivre les tendances des risques sur l'ensemble du portefeuille pour identifier les problemes systemiques.

6. Declencheurs d'evaluation

Les evaluations des risques sont requises aux points suivants :

  • Initial : Lors de l'enregistrement du projet, avant le debut du developpement.
  • Pre-deploiement : Apres le developpement et les tests, avant la mise en production.
  • Declenche par un changement : Lors de changements significatifs du modele, des donnees ou du contexte.
  • Declenche par un incident : Suite a tout incident ou quasi-incident lie a l'IA.
  • Periodique : Trimestriel pour le haut risque, semestriel pour le moyen, annuel pour le faible.

7. Registre des risques

Tous les risques identifies sont enregistres dans le registre des risques IA avec les champs suivants :

  • Identifiant et description du risque.
  • Dimension du risque (selon la taxonomie).
  • Systeme d'IA associe et proprietaire du modele.
  • Note de vraisemblance, note d'impact et note de risque.
  • Strategie de traitement et attenuations specifiques.
  • Responsable de l'attenuation et echeance.
  • Note de risque residuel apres attenuation.
  • Statut (ouvert, en traitement, accepte, clos).
  • Date de derniere revue et date de prochaine revue.

8. Risques lies a l'IA tierce

Les systemes d'IA tiers comportent des risques supplementaires qui doivent etre evalues :

Les evaluations des risques lies aux tiers doivent etre realisees avant l'activation du fournisseur et actualisees annuellement ou lorsque le fournisseur effectue des changements significatifs.

  • Posture de securite du fournisseur et certifications (SOC 2, ISO 27001).
  • Pratiques de gouvernance des donnees d'entrainement et transparence.
  • Frequence de mise a jour du modele et processus de notification des changements.
  • Localisation des donnees et inventaire des sous-traitants.
  • SLA de signalement des incidents et voies d'escalade.
  • Droit d'audit et allocation contractuelle de responsabilite.
  • Risque de dependance fournisseur et portabilite des donnees.

9. Escalade

  • Risques critiques (16-25) : Escalader immediatement au Comite de gouvernance de l'IA. Le deploiement du systeme est bloque dans l'attente de la decision du Comite.
  • Risques eleves (10-15) : Escalader au Responsable de la gouvernance IA dans les 48 heures. Le deploiement requiert un plan d'attenuation approuve.
  • Attenuations en retard : Si une attenuation depasse son echeance sans etre achevee, escalader au Responsable de la gouvernance IA.
  • Risques systemiques : Si plusieurs systemes partagent le meme schema de risque, escalader au Comite pour une reponse au niveau du portefeuille.

10. Roles et responsabilites

RoleResponsabilites en matiere de gestion des risques
Proprietaire du modeleRealise les evaluations des risques, maintient les entrees du registre des risques, met en oeuvre les attenuations, surveille le risque residuel.
Responsable de la gouvernance IAExamine les evaluations, suit la posture de risque du portefeuille, escalade au Comite, coordonne le reporting des risques.
Comite de gouvernance de l'IADefinit l'appetence au risque, approuve l'acceptation des risques critiques, resout les escalades, examine le rapport trimestriel des risques.
SecuriteEvalue les risques de la dimension securite, realise la modelisation des menaces, examine la posture de securite des fournisseurs.
Juridique / ConformiteEvalue les risques de la dimension conformite, conseille sur les obligations reglementaires, examine les contrats tiers.

11. Alignement reglementaire

  • Reglement europeen sur l'IA : Article 9 (systeme de gestion des risques pour l'IA a haut risque), Article 5 (pratiques interdites), Articles 6/Annexe III (classification a haut risque).
  • ISO/IEC 42001 : Clause 6.1 (actions face aux risques et opportunites), Annexe B (sources de risques IA).
  • NIST AI RMF : MAP (contexte et identification des risques), MEASURE (analyse des risques), MANAGE (reponse aux risques et surveillance).
  • ISO 31000 : Principes et processus de management des risques.

12. Revue

La presente politique est revue annuellement. Le registre des risques est revu trimestriellement par le Responsable de la gouvernance IA et presente au Comite de gouvernance de l'IA. Les modifications significatives de la methodologie de risque requierent l'approbation du Comite.

Controle du document

ChampValeur
Proprietaire de la politique[Responsable de la gouvernance IA]
Approuve par[Comite de gouvernance de l'IA]
Date d'entree en vigueur[Date]
Prochaine date de revue[Date + 12 mois]
Version1.0
ClassificationInterne

Prêt à implémenter cette politique ?

Utilisez VerifyWise pour personnaliser ce modèle de politique, le déployer et suivre la conformité.

Politique de gestion des risques IA | Modèles de gouvernance IA VerifyWise