Everything related to failures and accountability.
17 ressources
Une base de données complète cataloguant les incidents et préjudices liés à l'IA. La base de données permet aux chercheurs et praticiens d'apprendre des échecs passés de l'IA, d'identifier des modèles et de développer des mesures préventives.
Le répertoire des incidents et controverses liés à l'IA, aux algorithmes et à l'automatisation suit les incidents impliquant l'IA et les systèmes automatisés. Il fournit des études de cas détaillées avec des chronologies, des parties prenantes et des résultats.
L'AI Act européen établit des exigences obligatoires de reporting d'incidents pour les systèmes IA à haut risque. Les fournisseurs doivent signaler les incidents graves et dysfonctionnements aux autorités compétentes dans des délais spécifiés.
Législation américaine proposée exigeant des entreprises qu'elles effectuent des évaluations d'impact sur les systèmes de décision automatisés. Le projet de loi établirait des exigences de responsabilité pour les systèmes algorithmiques à haut risque affectant des décisions critiques.
Un outil de suivi complet qui fournit une analyse détaillée des incidents IA de 2015 à 2024. Le traqueur utilise les taxonomies causales et de domaine du MIT AI Risk Repository pour catégoriser et analyser l'évolution des incidents IA dans le temps.
La base de données des incidents IA est une collection complète de plus de 1 200 cas documentés où les systèmes IA ont causé des problèmes de sécurité, d'équité ou d'autres problèmes réels. Elle sert d'outil pour aider les parties prenantes à mieux comprendre, anticiper et atténuer les risques liés à l'IA.
Une ressource couvrant deux initiatives majeures de suivi des incidents IA : le moniteur des incidents et dangers IA de l'OCDE (AIM) et le répertoire AIAAIC. Ces efforts se concentrent sur la documentation des incidents IA réels pour améliorer la transparence et informer les décisions de gouvernance.
Le répertoire AIAAIC est une ressource ouverte d'intérêt public qui documente les incidents et controverses liés à l'intelligence artificielle, aux algorithmes et à l'automatisation. Il fournit des outils et métriques conçus pour suivre et analyser les incidents liés à l'IA à des fins de responsabilité et de gouvernance.
Un cadre de responsabilité complet développé par le GAO américain pour aider les agences fédérales et autres entités à assurer une mise en œuvre responsable de l'IA. Le cadre est organisé autour de quatre principes complémentaires abordant la gouvernance, les données, la performance et la surveillance.
Un cadre de responsabilité complet développé par l'Information Technology Industry Council qui délimite le partage des responsabilités entre les différents acteurs du développement et du déploiement des systèmes IA. Le cadre aborde spécifiquement les rôles des différentes parties prenantes.
Un rapport de politique de la NTIA examinant les cadres de responsabilité IA et leur mise en œuvre. Le rapport référence et s'appuie sur le cadre de gestion des risques IA du NIST, en se concentrant sur le développement de systèmes IA dignes de confiance et responsables.
Cette recherche examine diverses formes de résistance et de refus face aux préjudices algorithmiques à travers différents « projets de connaissance ». Le travail s'appuie sur le journalisme d'investigation comme Machine Bias qui a révélé comment les systèmes algorithmiques peuvent répliquer et amplifier les biais raciaux.
Cet article de recherche présente une revue de la portée et une taxonomie des préjudices sociotechniques causés par les systèmes algorithmiques. L'étude utilise une analyse thématique réflexive de la recherche en informatique pour catégoriser différents types de préjudices.
Cet article de recherche examine le concept de réparation morale comme réponse aux préjudices algorithmiques, allant au-delà des approches traditionnelles centrées sur le contrevenant pour se concentrer sur ce dont les victimes ont réellement besoin.
Cette ressource fournit des conseils sur les systèmes de réponse aux incidents pilotés par l'IA qui offrent des cadres de prise de décision structurés pour les menaces de cybersécurité. Elle se concentre sur comment l'IA peut fournir des insights basés sur les données et des actions suggérées.
Un cadre complet développé par la Coalition for Secure AI qui fournit aux équipes de sécurité des approches structurées, des outils et des connaissances pour protéger les systèmes IA contre les menaces émergentes.
Un guide pratique fournissant des listes de contrôle et des meilleures pratiques pour développer des plans de réponse aux incidents IA. La ressource couvre les éléments clés incluant l'attribution de coordinateurs de réponse, l'établissement de canaux de communication et la documentation des procédures.