Incident and accountability
Everything related to failures and accountability.
17 recursos
Base de datos des incidentes IA de Partnership on AI
Une base de datos complète cataloguant les incidentes et préjudices liés à l'IA. La base de datos permet aux investigadors et profesionals d'apprendre des échecs passés de l'IA, d'identifier des modelos et de développer des mesures préventives.
Répertoire AIAAIC
Le répertoire des incidentes et controverses liés à l'IA, aux algoritmos et à l'automatisation suit les incidentes impliquant l'IA et les systèmes automatisés. Il fournit des études de cas détaillées avec des chronologies, des parties prenantes et des résultats.
Exigences de reporting d'incidentes de l'AI Act européen
L'AI Act européen établit des exigences obligatoires de reporting d'incidentes pour les systèmes IA à haut riesgo. Les fournisseurs doivent signaler les incidentes graves et dysfonctionnements aux autorités compétentes dans des délais spécifiés.
Algorithmic Accountability Act américain (Proposé)
Législation américaine proposée exigeant des empresas qu'elles effectuent des Evaluaciones de impactoo sur les systèmes de decision automatisés. Le projet de loi établirait des exigences de Responsabilidad pour les systèmes algorithmiques à haut riesgo affectant des decisions critiques.
Traqueur d'incidentes IA
Un herramienta de suivi complet qui fournit une analyse détaillée des incidentes IA de 2015 à 2024. Le traqueur utilise les taxonomies causales et de domaine du MIT AI Risk Repository pour catégoriser et analyser l'évolution des incidentes IA dans le temps.
Base de datos des incidentes IA
La base de datos des incidentes IA est une collection complète de plus de 1 200 cas documentés où les systèmes IA ont causé des problèmes de seguridad, d'equidad ou d'autres problèmes réels. Elle sert d'herramienta pour aider les parties prenantes à mieux comprendre, anticiper et atténuer les riesgos liés à l'IA.
Suivi des incidentes IA : OECD AIM et répertoire AIAIAC
Une ressource couvrant deux initiatives majeures de suivi des incidentes IA : le moniteur des incidentes et dangers IA de l'OCDE (AIM) et le répertoire AIAAIC. Ces efforts se concentrent sur la Documentacion des incidentes IA réels pour améliorer la Transparencia et informer les decisions de gobernanza.
Répertoire AIAAIC (OCDE)
Le répertoire AIAAIC est une ressource ouverte d'intérêt public qui documente les incidentes et controverses liés à l'inteligencia artificial, aux algoritmos et à l'automatisation. Il fournit des Herramientas et métriques conçus pour suivre et analyser les incidentes liés à l'IA à des fins de Responsabilidad et de gobernanza.
Inteligencia artificial : Un marco de Responsabilidad pour les agences fédérales
Un marco de Responsabilidad complet développé par le GAO américain pour aider les agences fédérales et autres entités à assurer une implementacion responsable de l'IA. Le marco est organisé autour de quatre Principios complémentaires abordant la gobernanza, les datos, la performance et la vigilancia.
Marco de Responsabilidad IA de l'ITI
Un marco de Responsabilidad complet développé par l'Information Technology Industry Council qui délimite le partage des Responsabilidads entre les différents acteurs du desarrollo et du despliegue des systèmes IA. Le marco aborde spécifiquement les rôles des différentes parties prenantes.
Informe de politica sur la Responsabilidad de l'inteligencia artificial
Un informe de politica de la NTIA examinant les marcos de Responsabilidad IA et leur implementacion. Le informe référence et s'appuie sur le marco de gestion de riesgos IA du NIST, en se concentrant sur le desarrollo de systèmes IA dignes de confiance et responsables.
Résistance et refus face aux préjudices algorithmiques
Cette Investigacion examine diverses formes de résistance et de refus face aux préjudices algorithmiques à travers différents « projets de connaissance ». Le travail s'appuie sur le journalisme d'investigation comme Machine Bias qui a révélé comment les systèmes algorithmiques peuvent répliquer et amplifier les sesgo raciaux.
Préjudices sociotechniques des systèmes algorithmiques : Élaboration d'une taxonomie
Cet article de Investigacion présente une revue de la portée et une taxonomie des préjudices sociotechniques causés par les systèmes algorithmiques. L'étude utilise une analyse thématique réflexive de la Investigacion en informatique pour catégoriser différents types de préjudices.
Après le préjudice : Un plaidoyer pour la réparation morale après les échecs algorithmiques
Cet article de Investigacion examine le concept de réparation morale comme réponse aux préjudices algorithmiques, allant au-delà des approches traditionnelles centrées sur le contrevenant pour se concentrer sur ce dont les victimes ont réellement besoin.
Réponse aux incidentes pilotée par l'IA : Définition et composants
Cette ressource fournit des conseils sur les systèmes de réponse aux incidentes pilotés par l'IA qui offrent des marcos de prise de decision structurés pour les amenazas de cyberseguridad. Elle se concentre sur comment l'IA peut fournir des insights basés sur les datos et des actions suggérées.
Marco de réponse aux incidentes IA, Version 1.0
Un marco complet développé par la Coalition for Secure AI qui fournit aux equipos de seguridad des approches structurées, des Herramientas et des connaissances pour protéger les systèmes IA contre les amenazas émergentes.
Plans de réponse aux incidentes IA : Liste de control et meilleures pratiques
Un guia pratique fournissant des listes de control et des meilleures pratiques pour développer des plans de réponse aux incidentes IA. La ressource couvre les Elementos clave incluant l'attribution de coordinateurs de réponse, l'établissement de canaux de communication et la Documentacion des procédures.