Everything related to failures and accountability.
17 recursos
Une base de datos complète cataloguant les incidentes et préjudices liés à l'IA. La base de datos permet aux investigadors et profesionals d'apprendre des échecs passés de l'IA, d'identifier des modelos et de développer des mesures préventives.
Le répertoire des incidentes et controverses liés à l'IA, aux algoritmos et à l'automatisation suit les incidentes impliquant l'IA et les systèmes automatisés. Il fournit des études de cas détaillées avec des chronologies, des parties prenantes et des résultats.
L'AI Act européen établit des exigences obligatoires de reporting d'incidentes pour les systèmes IA à haut riesgo. Les fournisseurs doivent signaler les incidentes graves et dysfonctionnements aux autorités compétentes dans des délais spécifiés.
Législation américaine proposée exigeant des empresas qu'elles effectuent des Evaluaciones de impactoo sur les systèmes de decision automatisés. Le projet de loi établirait des exigences de Responsabilidad pour les systèmes algorithmiques à haut riesgo affectant des decisions critiques.
Un herramienta de suivi complet qui fournit une analyse détaillée des incidentes IA de 2015 à 2024. Le traqueur utilise les taxonomies causales et de domaine du MIT AI Risk Repository pour catégoriser et analyser l'évolution des incidentes IA dans le temps.
La base de datos des incidentes IA est une collection complète de plus de 1 200 cas documentés où les systèmes IA ont causé des problèmes de seguridad, d'equidad ou d'autres problèmes réels. Elle sert d'herramienta pour aider les parties prenantes à mieux comprendre, anticiper et atténuer les riesgos liés à l'IA.
Une ressource couvrant deux initiatives majeures de suivi des incidentes IA : le moniteur des incidentes et dangers IA de l'OCDE (AIM) et le répertoire AIAAIC. Ces efforts se concentrent sur la Documentacion des incidentes IA réels pour améliorer la Transparencia et informer les decisions de gobernanza.
Le répertoire AIAAIC est une ressource ouverte d'intérêt public qui documente les incidentes et controverses liés à l'inteligencia artificial, aux algoritmos et à l'automatisation. Il fournit des Herramientas et métriques conçus pour suivre et analyser les incidentes liés à l'IA à des fins de Responsabilidad et de gobernanza.
Un marco de Responsabilidad complet développé par le GAO américain pour aider les agences fédérales et autres entités à assurer une implementacion responsable de l'IA. Le marco est organisé autour de quatre Principios complémentaires abordant la gobernanza, les datos, la performance et la vigilancia.
Un marco de Responsabilidad complet développé par l'Information Technology Industry Council qui délimite le partage des Responsabilidads entre les différents acteurs du desarrollo et du despliegue des systèmes IA. Le marco aborde spécifiquement les rôles des différentes parties prenantes.
Un informe de politica de la NTIA examinant les marcos de Responsabilidad IA et leur implementacion. Le informe référence et s'appuie sur le marco de gestion de riesgos IA du NIST, en se concentrant sur le desarrollo de systèmes IA dignes de confiance et responsables.
Cette Investigacion examine diverses formes de résistance et de refus face aux préjudices algorithmiques à travers différents « projets de connaissance ». Le travail s'appuie sur le journalisme d'investigation comme Machine Bias qui a révélé comment les systèmes algorithmiques peuvent répliquer et amplifier les sesgo raciaux.
Cet article de Investigacion présente une revue de la portée et une taxonomie des préjudices sociotechniques causés par les systèmes algorithmiques. L'étude utilise une analyse thématique réflexive de la Investigacion en informatique pour catégoriser différents types de préjudices.
Cet article de Investigacion examine le concept de réparation morale comme réponse aux préjudices algorithmiques, allant au-delà des approches traditionnelles centrées sur le contrevenant pour se concentrer sur ce dont les victimes ont réellement besoin.
Cette ressource fournit des conseils sur les systèmes de réponse aux incidentes pilotés par l'IA qui offrent des marcos de prise de decision structurés pour les amenazas de cyberseguridad. Elle se concentre sur comment l'IA peut fournir des insights basés sur les datos et des actions suggérées.
Un marco complet développé par la Coalition for Secure AI qui fournit aux equipos de seguridad des approches structurées, des Herramientas et des connaissances pour protéger les systèmes IA contre les amenazas émergentes.
Un guia pratique fournissant des listes de control et des meilleures pratiques pour développer des plans de réponse aux incidentes IA. La ressource couvre les Elementos clave incluant l'attribution de coordinateurs de réponse, l'établissement de canaux de communication et la Documentacion des procédures.