Retour aux modèles de politiques
Politique 15 sur 15

Principes d'IA responsable

Codifie l'engagement de l'organisation a developper, deployer et exploiter des systemes d'IA equitables, transparents, responsables et surs.

1. Objectif

Le present document etablit les principes fondamentaux qui guident toutes les activites d'IA de [Nom de l'organisation]. Ces principes definissent le socle ethique de la facon dont nous construisons, achetons et exploitons l'IA. Chaque politique, procedure et decision de gouvernance de l'IA au sein de l'organisation doit etre coherente avec ces principes.

Nous publions ces principes en tant que declaration de responsabilite publique. Ils refletent nos valeurs et notre engagement envers les communautes, les clients et les employes affectes par nos systemes d'IA.

2. Perimetre

Ces principes s'appliquent a :

  • Tous les systemes d'IA, quelle que soit la classification des risques (eleve, moyen ou faible).
  • Tous les employes, sous-traitants et partenaires impliques dans les activites d'IA.
  • Toutes les etapes du cycle de vie de l'IA, de l'ideation au retrait.
  • Les systemes developpes en interne et l'IA tierce acquise ou integree.

3. Nos principes

Texte de remplacement. Complétez avec le langage de votre organisation pour 3. Nos principes.

3.1 Equite et non-discrimination

Les systemes d'IA ne doivent pas produire de resultats qui discriminent injustement des individus ou des groupes sur la base de caracteristiques protegees telles que la race, le genre, l'age, le handicap, la religion ou le statut socioeconomique.

Nous nous engageons a :

  • Tester les biais avant le deploiement en utilisant des methodes statistiques appropriees et des jeux de donnees d'evaluation representatifs.
  • Utiliser des donnees d'entrainement representatives, equilibrees et examinees pour les biais historiques susceptibles d'etre amplifies par le modele.
  • Documenter les limites connues, les impacts disparates potentiels et les groupes demographiques evalues.
  • Fournir des mecanismes permettant aux individus de contester les decisions pilotees par l'IA qui les affectent, conformement a l'article 22 du RGPD (droit de ne pas faire l'objet d'une decision fondee exclusivement sur un traitement automatise).
  • Reevaluer l'equite periodiquement apres le deploiement, pas seulement au lancement.

3.2 Transparence et explicabilite

Les personnes qui interagissent avec ou sont affectees par nos systemes d'IA ont le droit de comprendre comment ces systemes fonctionnent et quel role l'IA joue dans les decisions qui les concernent.

Nous nous engageons a :

  • Divulguer quand l'IA est utilisee dans les interactions avec les individus, comme l'exige l'article 50 du Reglement europeen sur l'IA.
  • Fournir des explications sur les decisions pilotees par l'IA a un niveau adapte au public et aux enjeux impliques.
  • Maintenir des fiches de modeles, des fiches de donnees et une documentation systeme decrivant les capacites, les limites et les modes de defaillance connus.
  • Rendre les enregistrements de gouvernance disponibles pour les audits internes et externes.
  • Communiquer clairement le niveau de confiance et les limites des resultats de l'IA aux utilisateurs finaux.

3.3 Responsabilisation et supervision humaine

L'IA ne decharge pas les personnes de leur responsabilite. Chaque systeme d'IA doit avoir un proprietaire designe, et les humains doivent conserver un controle significatif sur les decisions qui affectent de maniere significative les individus ou l'organisation.

Nous nous engageons a :

  • Attribuer un proprietaire de modele a chaque systeme d'IA, redevable de son comportement tout au long de son cycle de vie.
  • Exiger un examen humain pour les decisions a haut risque avant qu'elles ne prennent effet, comme l'exige l'article 14 du Reglement europeen sur l'IA.
  • Maintenir la capacite de contourner, corriger ou arreter les systemes d'IA a tout moment.
  • Etablir des voies d'escalade claires lorsque les systemes d'IA se comportent de maniere inattendue.
  • Enregistrer les decisions de gouvernance avec leur justification afin qu'elles puissent etre reconstituees a posteriori.

3.4 Confidentialite et protection des donnees

Les systemes d'IA doivent respecter la vie privee des individus et se conformer aux lois applicables en matiere de protection des donnees. Les donnees utilisees pour entrainer, affiner ou exploiter l'IA doivent etre collectees, traitees et stockees de maniere licite.

Nous nous engageons a :

  • Ne collecter que les donnees necessaires a la finalite declaree (minimisation des donnees).
  • Obtenir le consentement approprie ou etablir une base juridique avant de traiter des donnees personnelles.
  • Documenter la provenance, les licences et la duree de conservation de toutes les donnees d'entrainement et d'evaluation.
  • Appliquer le chiffrement, les controles d'acces et l'anonymisation de maniere appropriee.
  • Realiser des analyses d'impact relatives a la protection des donnees pour les systemes d'IA qui traitent des donnees personnelles a grande echelle.
  • Respecter les droits des individus a acceder, rectifier et supprimer leurs donnees telles qu'utilisees par les systemes d'IA.

3.5 Surete, securite et robustesse

Les systemes d'IA doivent etre fiables dans des conditions normales et resilients dans des conditions adversariales ou inattendues. La securite doit etre prise en compte tout au long du cycle de vie de l'IA, et non ajoutee apres le deploiement.

Nous nous engageons a :

  • Tester les entrees adversariales, l'injection de prompt et les modes de defaillance avant le deploiement.
  • Securiser la chaine d'approvisionnement de l'IA : modeles, bibliotheques, pipelines de donnees et infrastructure.
  • Surveiller la degradation des performances, la derive et les defaillances de surete en production.
  • Maintenir des plans de reponse aux incidents couvrant les scenarios de defaillance specifiques a l'IA.
  • Concevoir des mecanismes de repli afin que les processus essentiels puissent continuer lorsque les systemes d'IA echouent.

3.6 Qualite et gouvernance des donnees

La qualite des resultats de l'IA depend de la qualite des donnees qui les alimentent. Une mauvaise gouvernance des donnees cree des risques cumules en matiere d'equite, de confidentialite et de surete.

Nous nous engageons a :

  • Etablir des normes de qualite des donnees pour toutes les donnees d'entrainement, de validation et de production de l'IA.
  • Documenter la lignee des donnees afin que l'origine, les transformations et les dependances de chaque jeu de donnees soient tracables.
  • Examiner les jeux de donnees pour les biais, la representativite et la conformite reglementaire avant utilisation.
  • Attribuer des proprietaires de donnees redevables de la qualite et de la conformite de leurs jeux de donnees.

3.7 Durabilite

L'impact environnemental de l'IA doit etre pris en compte dans les decisions de conception et d'exploitation. L'efficience fait partie de la responsabilite.

Nous nous engageons a :

  • Evaluer le cout computationnel et l'impact carbone de l'entrainement et de l'inference.
  • Privilegier les architectures efficientes, la mise en cache et l'affinage plutot que le reentrainement redondant.
  • Suivre et rapporter la consommation de ressources liee a l'IA.

4. Application de ces principes

Texte de remplacement. Complétez avec le langage de votre organisation pour 4. Application de ces principes.

4.1 Dans les decisions de gouvernance

Le Comite de gouvernance de l'IA utilise ces principes comme base pour approuver ou rejeter les cas d'usage de l'IA, definir les seuils de risque et resoudre les escalades.

4.2 Dans le developpement et les tests

Les equipes d'ingenierie et de science des donnees se referent a ces principes lors des revues de conception, de la selection des donnees, de la validation des modeles et des tests. La conception des algorithmes doit inclure les tests de biais, les indicateurs d'equite et l'evaluation adversariale comme protocole standard, et non comme ajouts optionnels.

4.3 Dans les acquisitions

Les fournisseurs d'IA tiers sont evalues au regard de ces principes. Les evaluations des risques fournisseurs incluent des questions sur les tests d'equite, les capacites de transparence, les pratiques de traitement des donnees et la preparation a la reponse aux incidents.

4.4 Dans la surveillance

La surveillance post-deploiement evalue si les systemes deployes continuent de fonctionner conformement a ces principes. Une derive des indicateurs d'equite, des changements de biais et des incidents de surete declenchent une reevaluation et une eventuelle suspension.

5. Apprentissage continu

La technologie, la reglementation et les attentes societales en matiere d'IA evoluent rapidement. Nous nous engageons a :

  • Surveiller les risques emergents, les changements reglementaires et les meilleures pratiques du secteur.
  • Mettre a jour ces principes lorsque de nouveaux risques ou obligations sont identifies.
  • Partager les retours d'experience des incidents, des quasi-incidents et des constatations d'audit au sein de l'organisation.
  • Investir dans la formation continue afin que tous les employes comprennent leur role dans l'IA responsable.

6. Alignement reglementaire

Ces principes sont alignes avec :

  • Reglement europeen sur l'IA : Transparence (Art. 13), supervision humaine (Art. 14), exactitude/robustesse (Art. 15), non-discrimination (Art. 10), notification des utilisateurs (Art. 50).
  • RGPD : Prise de decision automatisee (Art. 22), protection des donnees des la conception (Art. 25), analyses d'impact relatives a la protection des donnees (Art. 35).
  • ISO/IEC 42001 : Engagement de la direction (Clause 5), traitement des risques (Clause 8), parties interessees (Clause 4.2).
  • NIST AI RMF : Fonctions Govern (GV), Map (MP), Measure (MS), Manage (MG).
  • Principes de l'OCDE en matiere d'IA : Croissance inclusive, valeurs centrees sur l'humain, transparence, robustesse, responsabilisation.

7. Derogations

Ces principes n'admettent pas de derogation. Si un systeme d'IA ne peut etre exploite conformement a ces principes, il ne doit pas etre deploye. Lorsqu'une tension existe entre les principes (ex. : transparence vs. securite), le Comite de gouvernance de l'IA determine l'equilibre approprie pour ce contexte specifique, et la justification est documentee.

8. Revue

Ces principes sont revus annuellement ou lorsque declenches par des changements significatifs des exigences reglementaires, de la strategie organisationnelle ou des retours d'experience des incidents IA. Les mises a jour requierent l'approbation du Comite de gouvernance de l'IA.

Controle du document

ChampValeur
Proprietaire de la politique[Responsable de la gouvernance IA]
Approuve par[Comite de gouvernance de l'IA / Conseil d'administration]
Date d'entree en vigueur[Date]
Prochaine date de revue[Date + 12 mois]
Version1.0
ClassificationInterne

Prêt à implémenter cette politique ?

Utilisez VerifyWise pour personnaliser ce modèle de politique, le déployer et suivre la conformité.

Principes d'IA responsable | Modèles de gouvernance IA VerifyWise