Retour aux modèles de politiques
Politique 07 sur 15

Politique de traitement des donnees sensibles pour l'IA

Definit comment les donnees sensibles sont classifiees, protegees et controlees lorsqu'elles sont utilisees dans des systemes d'IA.

1. Objectif

La presente politique etablit les controles de traitement des donnees sensibles dans les systemes d'IA de [Nom de l'organisation]. Elle definit les niveaux de classification des donnees, specifie les mesures de securite requises pour chaque niveau et confirme que les informations sensibles sont protegees tout au long du cycle de vie de l'IA — de l'ingestion des donnees d'entrainement a l'inference et aux resultats du modele.

2. Perimetre

La presente politique s'applique a :

  • Toutes les donnees classifiees Confidentiel ou Restreint utilisees dans ou generees par des systemes d'IA.
  • Toutes les donnees a caractere personnel (DCP) traitees par des systemes d'IA.
  • Toutes les donnees de categories particulieres (sante, biometrie, finance, etc.) dans des contextes IA.
  • Tous les environnements : developpement, test, pre-production et production.
  • Tous les employes, sous-traitants et fournisseurs tiers manipulant des donnees IA sensibles.

3. Niveaux de classification des donnees

NiveauDefinitionExemples dans un contexte IA
PublicInformation destinee a la divulgation publique. Aucune restriction d'acces.Fiches de modeles publiees, documentation publique, benchmarks anonymises.
InterneInformation a usage interne. Faible risque en cas de divulgation mais non destinee au public.Indicateurs d'entrainement non sensibles, journaux d'experimentation internes, notes d'architecture de modele.
ConfidentielInformation commerciale ou personnelle sensible. La divulgation pourrait causer un prejudice.Donnees clients utilisees pour l'entrainement, DCP dans les entrees d'inference, poids de modeles proprietaires, predictions a caractere commercial sensible.
RestreintInformation hautement sensible. La divulgation pourrait causer un prejudice grave ou une violation reglementaire.Dossiers medicaux, donnees biometriques, donnees de comptes financiers, donnees d'entree pour le credit scoring, donnees couvertes par le secret professionnel.

Tous les jeux de donnees utilises dans les systemes d'IA doivent etre classifies avant utilisation. La classification est effectuee par le Proprietaire des donnees et revue par le Delegue a la protection des donnees pour les jeux de donnees contenant des donnees personnelles.

4. Exigences de protection par classification

ControlePublicInterneConfidentielRestreint
Chiffrement au reposOptionnelRecommandeObligatoire (AES-256)Obligatoire (AES-256)
Chiffrement en transitRecommandeObligatoire (TLS 1.2+)Obligatoire (TLS 1.2+)Obligatoire (TLS 1.3)
Controle d'accesOuvertBase sur les rolesBase sur les roles + approbationPersonnes nommees + MFA
Journalisation d'auditOptionnelleRecommandeeObligatoireObligatoire + alertes en temps reel
Masquage/anonymisation des donneesNon requisNon requisObligatoire pour le hors-productionObligatoire pour tous les environnements
Revue de conservationAnnuelleAnnuelleTrimestrielleMensuelle
Surveillance DLPNon requiseRecommandeeObligatoireObligatoire

5. Traitement des DCP dans les systemes d'IA

Texte de remplacement. Complétez avec le langage de votre organisation pour 5. Traitement des DCP dans les systemes d'IA.

5.1 Decouverte

Avant que les donnees n'entrent dans un pipeline d'IA, elles doivent etre analysees pour detecter les DCP a l'aide d'outils de decouverte automatises. Les categories de DCP comprennent, sans s'y limiter : noms, adresses e-mail, numeros de telephone, numeros d'identification nationale, numeros de comptes financiers, dossiers medicaux, identifiants biometriques et donnees de localisation.

5.2 Minimisation

Les systemes d'IA doivent utiliser le minimum de DCP necessaire. Techniques pour reduire l'exposition aux DCP :

  • Masquage : Remplacer les DCP par des espaces reserves fonctionnels (ex. : [EMAIL], [NOM]) qui preservent la structure des donnees sans exposer les valeurs reelles.
  • Expurgation : Supprimer definitivement les champs de DCP qui ne sont pas necessaires a la tache d'IA.
  • Tokenisation : Remplacer les DCP par des jetons reversibles stockes dans un coffre-fort securise, accessibles uniquement par les systemes autorises.
  • Anonymisation : Transformer les donnees de maniere irreversible afin que les individus ne puissent etre re-identifies. Privilegiee pour les donnees d'entrainement lorsque l'identification personnelle n'est pas requise.
  • Donnees synthetiques : Generer des donnees artificielles preservant les proprietes statistiques sans contenir de DCP reelles. Privilegiees pour les environnements de developpement et de test.

5.3 Garde-fous IA

Des garde-fous a l'execution doivent etre configures pour analyser les entrees et sorties de l'IA afin de detecter les fuites de DCP. Actions des garde-fous :

  • Bloquer : Rejeter la requete si des DCP sont detectees en entree ou en sortie.
  • Masquer : Remplacer les DCP detectees par des espaces reserves avant le transfert.
  • Alerter : Enregistrer la detection et notifier l'equipe de securite sans bloquer.

6. Securite des modeles et des resultats d'IA

  • Les poids de modeles proprietaires sont classifies Confidentiel et doivent etre chiffres au repos et soumis a un controle d'acces.
  • Les resultats des modeles contenant des donnees Confidentielles ou Restreintes doivent etre traites au meme niveau de classification que les donnees d'entree.
  • Le contenu genere par l'IA ne doit pas etre stocke dans des systemes ayant une classification inferieure a celle des donnees sources.
  • Les attaques par extraction et inversion de modele doivent etre prises en compte dans le modele de menace pour les modeles a haute valeur.

7. Environnements de developpement et de test

  • Les donnees de production classifiees Confidentiel ou Restreint ne doivent pas etre utilisees en developpement ou en test sans anonymisation, masquage ou utilisation de donnees synthetiques.
  • Les environnements de developpement doivent disposer de controles d'acces equivalents au niveau de classification des donnees qu'ils traitent.
  • Les jeux de donnees de test doivent etre documentes avec leur niveau de classification et les transformations appliquees.

8. Traitement des donnees par des tiers

  • Les fournisseurs d'IA tiers traitant des donnees Confidentielles ou Restreintes doivent demontrer des controles de securite equivalents.
  • Les Accords de traitement des donnees doivent specifier les exigences de traitement par classification.
  • Les fournisseurs ne doivent pas utiliser les donnees sensibles pour l'entrainement de leurs propres modeles.
  • Les restrictions de localisation des donnees et de sous-traitants doivent etre appliquees contractuellement.

9. Reponse aux incidents pour les donnees sensibles

Si des donnees sensibles sont exposees par un systeme d'IA (fuite de prompt, memorisation par le modele, acces non autorise) :

  • L'incident doit etre signale immediatement a l'equipe de securite et au Delegue a la protection des donnees.
  • Le systeme d'IA doit etre suspendu dans l'attente de l'investigation si l'exposition est en cours.
  • L'article 33 du RGPD exige la notification a l'autorite de controle dans les 72 heures pour les violations de donnees personnelles.
  • Les personnes affectees doivent etre notifiees si la violation est susceptible d'engendrer un risque eleve pour leurs droits (Article 34 du RGPD).
  • L'analyse des causes profondes et la remediation doivent etre realisees et documentees.

10. Roles et responsabilites

RoleResponsabilites
Proprietaire des donneesClassifie les donnees, approuve les acces, examine la conservation, s'assure du maintien de la classification.
Proprietaire du modeleS'assure que le systeme d'IA traite les donnees a un niveau egal ou superieur a leur classification, configure les garde-fous.
SecuriteMet en oeuvre le chiffrement, le DLP, les controles d'acces et surveille les acces non autorises.
Delegue a la protection des donneesExamine la classification des donnees personnelles, conseille sur l'anonymisation, gere les notifications de violation.
Tous les employesTraitent les donnees conformement a leur classification, signalent les suspicions d'exposition de donnees.

11. Alignement reglementaire

  • RGPD : Articles 5 (principes), 25 (protection des donnees des la conception), 32 (securite du traitement), 33-34 (notification de violation).
  • Reglement europeen sur l'IA : Article 10 (gouvernance des donnees), Article 15 (exactitude et robustesse).
  • ISO/IEC 27001 : Controles de l'Annexe A pour le controle d'acces, la cryptographie et la securite des operations.
  • ISO/IEC 42001 : Annexe B (B.7 — donnees pour les systemes d'IA).

12. Revue

La presente politique est revue annuellement ou plus tot en cas de violations de donnees, de nouvelles exigences de classification des donnees, de changements reglementaires ou de modifications des activites de traitement IA.

Controle du document

ChampValeur
Proprietaire de la politique[RSSI / Delegue a la protection des donnees]
Approuve par[Comite de gouvernance de l'IA]
Date d'entree en vigueur[Date]
Prochaine date de revue[Date + 12 mois]
Version1.0
ClassificationInterne

Prêt à implémenter cette politique ?

Utilisez VerifyWise pour personnaliser ce modèle de politique, le déployer et suivre la conformité.

Politique de traitement des donnees sensibles pour l'IA | Modèles de gouvernance IA VerifyWise