Responsible AI Collaborative
Voir la ressource originaleLa base de donnees des incidents IA transforme le monde desordonne et anecdotique des defaillances de l'IA en donnees structurees que les chercheurs et les praticiens peuvent reellement analyser. Au lieu de s'appuyer sur des reportages epars et des etudes de cas individuelles, ce jeu de donnees du Responsible AI Collaborative fournit un moyen systematique d'etudier les modeles dans les incidents IA - des biais algorithmiques dans les systemes de recrutement aux accidents de vehicules autonomes en passant par les erreurs de reconnaissance faciale. En standardisant la facon dont nous documentons et categorisons les prejudices de l'IA, cette ressource permet des approches fondees sur des preuves pour la securite et la gestion des risques de l'IA.
Le jeu de donnees contient des enregistrements structures d'incidents reels lies a l'IA, chacun etiquete avec plusieurs attributs incluant :
Chaque incident renvoie a la documentation source, aux reportages mediatiques, aux articles academiques ou aux enquetes officielles, maintenant la transparence sur la provenance des donnees.
Le suivi traditionnel des incidents IA reposait sur des collections ad-hoc d'articles de presse et de billets de blog - utiles pour la sensibilisation mais presque impossibles a analyser systematiquement. Le Partnership on AI a lance la base de donnees originale des incidents IA en 2020 pour creer une approche plus rigoureuse, similaire a la facon dont l'aviation et la sante suivent les incidents de securite. Le Responsible AI Collaborative maintient et developpe maintenant ce travail, appliquant des taxonomies et des structures de donnees coherentes qui permettent aux chercheurs d'identifier des modeles, de tester des hypotheses et de mesurer les tendances en matiere de securite de l'IA au fil du temps.
Commencez par explorer l'interface de decouverte sur incidentdatabase.ai pour comprendre la taxonomie des incidents et la structure des donnees avant de telecharger. L'interface web vous permet de filtrer par types de prejudices, technologies ou periodes pour avoir une idee des modeles qui pourraient valoir la peine d'etre etudies.
Pour l'analyse quantitative, concentrez-vous sur les incidents avec des donnees d'attributs completes plutot que d'essayer d'utiliser chaque enregistrement - la qualite des donnees varie en fonction de la documentation source disponible. Les analyses les plus robustes combinent souvent plusieurs attributs (type de technologie + categorie de prejudice + contexte de deploiement) plutot que d'examiner des variables uniques isolement.
Considerez attentivement les facteurs temporels lors de l'analyse des tendances. Le jeu de donnees reflete a la fois les changements reels dans les taux d'incidents IA et les changements dans les pratiques de reportage, d'attention mediatique et de collecte de donnees au fil du temps.
Ce sont des donnees observationnelles basees sur des incidents signales publiquement, pas un recensement complet de tous les prejudices de l'IA. Les defaillances de haut profil sont surrepresentees par rapport aux problemes routiniers qui ne generent pas de couverture mediatique. Les applications grand public apparaissent plus frequemment que les systemes d'entreprise ou gouvernementaux ou les incidents peuvent rester confidentiels.
Les categories structurees imposent des limites a des situations reelles desordonnees - certains incidents couvrent plusieurs types de prejudices ou impliquent des chaines causales complexes qui ne rentrent pas nettement dans des taxonomies predefinies.
L'exhaustivite des donnees varie considerablement selon les incidents en fonction du materiel source disponible. Les restrictions legales, la confidentialite des entreprises et les delais d'enquete signifient que certains details d'incidents peuvent ne jamais devenir publics.
Puis-je utiliser ce jeu de donnees pour la recherche commerciale ?
Publié
2024
Juridiction
Mondial
Catégorie
Datasets and benchmarks
Accès
Accès public
VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.