Structured risk thinking.
20 ressources
Le dépôt des risques IA du MIT est une base de données complète des risques IA identifiés à partir de la littérature académique, des documents de politique et des rapports industriels. Il fournit une taxonomie structurée pour catégoriser et comprendre le paysage diversifié des risques liés à l'IA.
Le OWASP Top 10 pour les applications LLM identifie les risques de sécurité les plus critiques dans les applications de grands modèles de langage. Il couvre l'injection de prompt, la fuite de données, le sandboxing inadéquat, l'exécution de code non autorisée et d'autres vulnérabilités spécifiques aux LLM.
La taxonomie du NIST des attaques et atténuations de l'apprentissage automatique adversarial. Elle catégorise les attaques en évasion, empoisonnement et attaques de confidentialité, fournissant un cadre structuré pour comprendre et se défendre contre les menaces de sécurité ML.
La base de données des incidents IA catalogue les préjudices réels causés par les systèmes d'IA. Elle fournit une archive consultable d'incidents pour aider les chercheurs, développeurs et décideurs politiques à apprendre des échecs passés et prévenir les préjudices futurs.
Une revue systématique vivante et une base de données de cadres de risques IA qui fournit une cartographie complète des atténuations des risques IA. Le dépôt inclut une taxonomie de domaine couvrant les risques multi-agents et sert de ressource centralisée pour comprendre diverses approches d'évaluation des risques IA.
Un dépôt complet qui catégorise les risques IA en utilisant deux taxonomies : une taxonomie causale qui classe les risques par causation (humain vs IA), intention (intentionnel vs non intentionnel) et temporalité (pré vs post-déploiement), et une taxonomie de domaine qui organise les risques en sept domaines thématiques. Le dépôt sert de cadre systématique pour comprendre et catégoriser divers types de risques liés à l'IA.
MITRE ATLAS est une base de connaissances des tactiques, techniques et études de cas adversariales pour les systèmes d'apprentissage automatique basée sur des observations du monde réel. Il fournit un cadre pour comprendre et se défendre contre les menaces aux systèmes d'IA en cataloguant les patterns d'attaque et les stratégies d'atténuation.
Le framework MITRE ATLAS est une base de connaissances complète qui catalogue les tactiques, techniques et procédures adversariales ciblant spécifiquement les systèmes d'intelligence artificielle. Il fournit aux praticiens de la sécurité des études de cas réelles et des conseils pratiques pour identifier et atténuer les menaces contre les déploiements d'IA.
MITRE ATLAS est un framework complet qui catalogue les tactiques et techniques adversariales utilisées contre les systèmes d'IA. Le framework fournit 15 tactiques, 66 techniques, 46 sous-techniques, 26 atténuations et 33 études de cas réelles pour aider les organisations à comprendre et se défendre contre les menaces de sécurité spécifiques à l'IA.
Un framework technique de l'OWASP qui se concentre sur les menaces de sécurité de l'IA, les contrôles et les pratiques connexes. Il fournit une approche structurée pour comprendre et gérer les risques de sécurité dans les systèmes d'IA, avec une intégration planifiée dans le catalogue OpenCRE des exigences communes de sécurité.
OWASP AI Exchange est un framework communautaire pour cartographier les surfaces d'attaque de l'IA et codifier les méthodologies de test de sécurité spécifiques à l'IA. Il sert de ressource pour les organisations pour implémenter des standards d'atténuation des risques IA et des pratiques de sécurité à l'échelle.
Le framework de sécurité complet de l'OWASP pour les systèmes d'IA générative, couvrant les agents autonomes, les workflows IA multi-étapes et la protection des données contre les fuites et altérations. Le projet fournit des outils, des méthodologies de test incluant le red teaming adversarial, et des conseils pour traiter les principaux risques de sécurité GenAI incluant les menaces de deepfake.
Un dépôt complet contenant plusieurs taxonomies pour catégoriser les incidents et risques IA. Inclut des taxonomies détaillées couvrant les facteurs technologiques et de processus qui contribuent aux incidents IA, avec des connexions au dépôt des risques IA du MIT pour une catégorisation complète des risques.
Cette recherche établit un schéma standardisé pour le signalement des incidents IA afin d'améliorer la cohérence de la collecte de données à travers les bases de données. Elle introduit une taxonomie pour classifier les incidents IA spécifiquement dans les infrastructures numériques critiques, améliorant l'exhaustivité et la clarté des données d'incidents pour une meilleure gestion des risques.
Une taxonomie et base de données complète suivant les incidents IA catégorisés par niveaux de préjudice et caractéristiques de menace incluant la nouveauté, l'autonomie et l'imminence. Le dépôt fournit une analyse temporelle des patterns d'incidents à travers différentes catégories et inclut des évaluations d'impact sur la sécurité nationale pour chaque incident IA documenté.
Cette recherche présente une taxonomie complète pour catégoriser les préjudices de l'IA, algorithmiques et de l'automatisation basée sur l'analyse de plus de 10 000 cas réels provenant de médias mondiaux, de recherches et de rapports juridiques. La taxonomie aborde les limitations des systèmes de classification existants et incorpore les risques émergents des technologies d'IA générative et de reconnaissance des émotions.
Cet article de recherche présente une taxonomie collaborative centrée sur l'humain pour catégoriser les préjudices de l'IA, algorithmiques et de l'automatisation. Les auteurs soutiennent que les taxonomies existantes sont souvent étroites et négligent des perspectives importantes, proposant un cadre plus complet qui sert mieux les diverses parties prenantes au-delà des seuls praticiens et gouvernements.
Le livre blanc de Microsoft présente une taxonomie complète des modes de défaillance dans les agents IA, développée à travers des activités internes de red teaming. La recherche vise à améliorer la sécurité et la sûreté des systèmes d'IA en cataloguant les défaillances et risques réalistes dans les systèmes agentiques.
Un document complet qui catalogue divers modes de défaillance dans les systèmes d'apprentissage automatique, couvrant à la fois les attaques adversariales et les défaillances de conception inhérentes. La ressource vise à fournir une référence unifiée pour comprendre comment les systèmes ML peuvent échouer en pratique.
Un livre blanc qui fournit une taxonomie complète des modes de défaillance spécifiquement pour les systèmes d'IA agentiques, distinguant les défaillances nouvelles uniques à l'IA agentique des modes de défaillance existants. L'analyse est ancrée dans le Standard d'IA Responsable de Microsoft et cartographie les défaillances à travers plusieurs dimensions pour aider à identifier et catégoriser les risques potentiels.