Responsible AI Collaborative
Jeu de donnéesActif

Base de donnees des incidents IA

Responsible AI Collaborative

Voir la ressource originale

Base de donnees des incidents IA

Resume

La base de donnees des incidents IA transforme le monde desordonne et anecdotique des defaillances de l'IA en donnees structurees que les chercheurs et les praticiens peuvent reellement analyser. Au lieu de s'appuyer sur des reportages epars et des etudes de cas individuelles, ce jeu de donnees du Responsible AI Collaborative fournit un moyen systematique d'etudier les modeles dans les incidents IA - des biais algorithmiques dans les systemes de recrutement aux accidents de vehicules autonomes en passant par les erreurs de reconnaissance faciale. En standardisant la facon dont nous documentons et categorisons les prejudices de l'IA, cette ressource permet des approches fondees sur des preuves pour la securite et la gestion des risques de l'IA.

Ce que contient reellement le jeu de donnees

Le jeu de donnees contient des enregistrements structures d'incidents reels lies a l'IA, chacun etiquete avec plusieurs attributs incluant :

  • Categories de prejudices : Prejudice physique, perte economique, violations de la vie privee, discrimination, manipulation, et plus
  • Details du systeme IA : Type de technologie (vision par ordinateur, NLP, classification ML, etc.), contexte de deploiement et echelle
  • Informations sur les parties prenantes : Deploiements, developpeurs, parties lesees et populations affectees
  • Caracteristiques de l'incident : Gravite, intentionnalite, localisation geographique et facteurs temporels
  • Donnees de reponse : Si les incidents ont declenche des enquetes, des changements de politique ou des modifications du systeme

Chaque incident renvoie a la documentation source, aux reportages mediatiques, aux articles academiques ou aux enquetes officielles, maintenant la transparence sur la provenance des donnees.

L'histoire : des coupures de presse a l'analyse structuree

Le suivi traditionnel des incidents IA reposait sur des collections ad-hoc d'articles de presse et de billets de blog - utiles pour la sensibilisation mais presque impossibles a analyser systematiquement. Le Partnership on AI a lance la base de donnees originale des incidents IA en 2020 pour creer une approche plus rigoureuse, similaire a la facon dont l'aviation et la sante suivent les incidents de securite. Le Responsible AI Collaborative maintient et developpe maintenant ce travail, appliquant des taxonomies et des structures de donnees coherentes qui permettent aux chercheurs d'identifier des modeles, de tester des hypotheses et de mesurer les tendances en matiere de securite de l'IA au fil du temps.

A qui s'adresse cette ressource

  • Chercheurs en securite de l'IA menant des etudes empiriques sur les modes de defaillance, les modeles de prejudices ou l'efficacite des interventions de securite a travers differentes applications d'IA.
  • Analystes politiques et regulateurs qui ont besoin d'informations basees sur des preuves concernant les risques de l'IA pour informer les cadres de gouvernance, les priorites d'application ou les evaluations d'impact reglementaire.
  • Equipes de gestion des risques dans les organisations deployant des systemes d'IA, en particulier celles cherchant a comparer leurs approches d'evaluation des risques aux modeles d'incidents du monde reel.
  • Chercheurs academiques en informatique, droit, politique ou sciences sociales etudiant les impacts societaux de l'IA avec des methodes quantitatives plutot que des approches purement theoriques.
  • Developpeurs de normes travaillant sur des cadres de securite de l'IA qui ont besoin de donnees empiriques pour valider les categories de risques, les echelles de gravite ou les strategies d'attenuation.

Tirer le meilleur parti de ce jeu de donnees

Commencez par explorer l'interface de decouverte sur incidentdatabase.ai pour comprendre la taxonomie des incidents et la structure des donnees avant de telecharger. L'interface web vous permet de filtrer par types de prejudices, technologies ou periodes pour avoir une idee des modeles qui pourraient valoir la peine d'etre etudies.

Pour l'analyse quantitative, concentrez-vous sur les incidents avec des donnees d'attributs completes plutot que d'essayer d'utiliser chaque enregistrement - la qualite des donnees varie en fonction de la documentation source disponible. Les analyses les plus robustes combinent souvent plusieurs attributs (type de technologie + categorie de prejudice + contexte de deploiement) plutot que d'examiner des variables uniques isolement.

Considerez attentivement les facteurs temporels lors de l'analyse des tendances. Le jeu de donnees reflete a la fois les changements reels dans les taux d'incidents IA et les changements dans les pratiques de reportage, d'attention mediatique et de collecte de donnees au fil du temps.

Points d'attention

Ce sont des donnees observationnelles basees sur des incidents signales publiquement, pas un recensement complet de tous les prejudices de l'IA. Les defaillances de haut profil sont surrepresentees par rapport aux problemes routiniers qui ne generent pas de couverture mediatique. Les applications grand public apparaissent plus frequemment que les systemes d'entreprise ou gouvernementaux ou les incidents peuvent rester confidentiels.

Les categories structurees imposent des limites a des situations reelles desordonnees - certains incidents couvrent plusieurs types de prejudices ou impliquent des chaines causales complexes qui ne rentrent pas nettement dans des taxonomies predefinies.

L'exhaustivite des donnees varie considerablement selon les incidents en fonction du materiel source disponible. Les restrictions legales, la confidentialite des entreprises et les delais d'enquete signifient que certains details d'incidents peuvent ne jamais devenir publics.

FAQ

Puis-je utiliser ce jeu de donnees pour la recherche commerciale ?

  • A quelle frequence le jeu de donnees est-il mis a jour ? Ce jeu couvre-t-il les incidents IA en dehors des Etats-Unis et de l'Europe ?
  • Comment distinguez-vous les incidents IA des defaillances logicielles generales ?

Mots-clés

incidentsprejudicesbase de donneesetudes de cas

En bref

Publié

2024

Juridiction

Mondial

Catégorie

Datasets and benchmarks

Accès

Accès public

Construisez votre programme de gouvernance de l'IA

VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.

Base de donnees des incidents IA | Bibliothèque de la gouvernance de l'IA | VerifyWise