Retour à la bibliothèque

Risk taxonomies

Structured risk thinking.

20 ressources

Type :
20 ressources trouvée(s)
DépôtMIT FutureTech • 2024

Dépôt des risques IA du MIT

Le dépôt des risques IA du MIT est une base de données complète des risques IA identifiés à partir de la littérature académique, des documents de politique et des rapports industriels. Il fournit une taxonomie structurée pour catégoriser et comprendre le paysage diversifié des risques liés à l'IA.

Taxonomies de risques IA
CadreOWASP • 2023

OWASP Top 10 pour les applications LLM

Le OWASP Top 10 pour les applications LLM identifie les risques de sécurité les plus critiques dans les applications de grands modèles de langage. Il couvre l'injection de prompt, la fuite de données, le sandboxing inadéquat, l'exécution de code non autorisée et d'autres vulnérabilités spécifiques aux LLM.

Modèles de menaces
CadreNIST • 2024

Taxonomie de l'apprentissage automatique adversarial du NIST

La taxonomie du NIST des attaques et atténuations de l'apprentissage automatique adversarial. Elle catégorise les attaques en évasion, empoisonnement et attaques de confidentialité, fournissant un cadre structuré pour comprendre et se défendre contre les menaces de sécurité ML.

Modèles de menacesUS
Jeu de donnéesResponsible AI Collaborative • 2021

Base de données des incidents IA

La base de données des incidents IA catalogue les préjudices réels causés par les systèmes d'IA. Elle fournit une archive consultable d'incidents pour aider les chercheurs, développeurs et décideurs politiques à apprendre des échecs passés et prévenir les préjudices futurs.

Catalogues d'abus et de mauvaise utilisation
DépôtMIT • 2024

Cartographie des atténuations des risques IA

Une revue systématique vivante et une base de données de cadres de risques IA qui fournit une cartographie complète des atténuations des risques IA. Le dépôt inclut une taxonomie de domaine couvrant les risques multi-agents et sert de ressource centralisée pour comprendre diverses approches d'évaluation des risques IA.

Taxonomies de risques IA
DépôtMIT • 2025

Rapport du dépôt des risques IA

Un dépôt complet qui catégorise les risques IA en utilisant deux taxonomies : une taxonomie causale qui classe les risques par causation (humain vs IA), intention (intentionnel vs non intentionnel) et temporalité (pré vs post-déploiement), et une taxonomie de domaine qui organise les risques en sept domaines thématiques. Le dépôt sert de cadre systématique pour comprendre et catégoriser divers types de risques liés à l'IA.

Taxonomies de risques IA
CadreMITRE Corporation • 2021

MITRE ATLAS : Paysage des menaces adversariales pour les systèmes d'intelligence artificielle

MITRE ATLAS est une base de connaissances des tactiques, techniques et études de cas adversariales pour les systèmes d'apprentissage automatique basée sur des observations du monde réel. Il fournit un cadre pour comprendre et se défendre contre les menaces aux systèmes d'IA en cataloguant les patterns d'attaque et les stratégies d'atténuation.

Taxonomies de risques IA
CadreMITRE Corporation • 2024

Framework MITRE ATLAS - Guide pour sécuriser les systèmes IA

Le framework MITRE ATLAS est une base de connaissances complète qui catalogue les tactiques, techniques et procédures adversariales ciblant spécifiquement les systèmes d'intelligence artificielle. Il fournit aux praticiens de la sécurité des études de cas réelles et des conseils pratiques pour identifier et atténuer les menaces contre les déploiements d'IA.

Taxonomies de risques IA
CadreMITRE Corporation • 2021

MITRE ATLAS : Paysage des menaces adversariales pour les systèmes d'intelligence artificielle

MITRE ATLAS est un framework complet qui catalogue les tactiques et techniques adversariales utilisées contre les systèmes d'IA. Le framework fournit 15 tactiques, 66 techniques, 46 sous-techniques, 26 atténuations et 33 études de cas réelles pour aider les organisations à comprendre et se défendre contre les menaces de sécurité spécifiques à l'IA.

Taxonomies de risques IA
CadreOWASP • 2024

Vue d'ensemble de la sécurité IA

Un framework technique de l'OWASP qui se concentre sur les menaces de sécurité de l'IA, les contrôles et les pratiques connexes. Il fournit une approche structurée pour comprendre et gérer les risques de sécurité dans les systèmes d'IA, avec une intégration planifiée dans le catalogue OpenCRE des exigences communes de sécurité.

Taxonomies de risques IA
CadreOWASP • 2024

AI Exchange

OWASP AI Exchange est un framework communautaire pour cartographier les surfaces d'attaque de l'IA et codifier les méthodologies de test de sécurité spécifiques à l'IA. Il sert de ressource pour les organisations pour implémenter des standards d'atténuation des risques IA et des pratiques de sécurité à l'échelle.

Taxonomies de risques IA
CadreOWASP • 2024

Projet de sécurité de l'IA générative OWASP

Le framework de sécurité complet de l'OWASP pour les systèmes d'IA générative, couvrant les agents autonomes, les workflows IA multi-étapes et la protection des données contre les fuites et altérations. Le projet fournit des outils, des méthodologies de test incluant le red teaming adversarial, et des conseils pour traiter les principaux risques de sécurité GenAI incluant les menaces de deepfake.

Taxonomies de risques IA
DépôtAI Incident Database • 2024

Liste des taxonomies

Un dépôt complet contenant plusieurs taxonomies pour catégoriser les incidents et risques IA. Inclut des taxonomies détaillées couvrant les facteurs technologiques et de processus qui contribuent aux incidents IA, avec des connexions au dépôt des risques IA du MIT pour une catégorisation complète des risques.

Taxonomies de risques IA
RecherchearXiv • 2025

Schéma et taxonomie standardisés pour les bases de données d'incidents IA dans les infrastructures numériques critiques

Cette recherche établit un schéma standardisé pour le signalement des incidents IA afin d'améliorer la cohérence de la collecte de données à travers les bases de données. Elle introduit une taxonomie pour classifier les incidents IA spécifiquement dans les infrastructures numériques critiques, améliorant l'exhaustivité et la clarté des données d'incidents pour une meilleure gestion des risques.

Taxonomies de risques IA
Jeu de donnéesMIT • 2024

Taxonomie des préjudices du suivi des incidents IA

Une taxonomie et base de données complète suivant les incidents IA catégorisés par niveaux de préjudice et caractéristiques de menace incluant la nouveauté, l'autonomie et l'imminence. Le dépôt fournit une analyse temporelle des patterns d'incidents à travers différentes catégories et inclut des évaluations d'impact sur la sécurité nationale pour chaque incident IA documenté.

Taxonomies de risques IA
RecherchearXiv • 2024

Une taxonomie collaborative centrée sur l'humain des préjudices de l'IA, algorithmiques et de l'automatisation

Cette recherche présente une taxonomie complète pour catégoriser les préjudices de l'IA, algorithmiques et de l'automatisation basée sur l'analyse de plus de 10 000 cas réels provenant de médias mondiaux, de recherches et de rapports juridiques. La taxonomie aborde les limitations des systèmes de classification existants et incorpore les risques émergents des technologies d'IA générative et de reconnaissance des émotions.

Taxonomies de risques IA
RecherchearXiv • 2024

Une taxonomie collaborative centrée sur l'humain des préjudices de l'IA, algorithmiques et de l'automatisation

Cet article de recherche présente une taxonomie collaborative centrée sur l'humain pour catégoriser les préjudices de l'IA, algorithmiques et de l'automatisation. Les auteurs soutiennent que les taxonomies existantes sont souvent étroites et négligent des perspectives importantes, proposant un cadre plus complet qui sert mieux les diverses parties prenantes au-delà des seuls praticiens et gouvernements.

Taxonomies de risques IA
RechercheMicrosoft • 2025

Taxonomie des modes de défaillance dans les agents IA

Le livre blanc de Microsoft présente une taxonomie complète des modes de défaillance dans les agents IA, développée à travers des activités internes de red teaming. La recherche vise à améliorer la sécurité et la sûreté des systèmes d'IA en cataloguant les défaillances et risques réalistes dans les systèmes agentiques.

Taxonomies de risques IA
GuideMicrosoft • 2024

Modes de défaillance dans l'apprentissage automatique

Un document complet qui catalogue divers modes de défaillance dans les systèmes d'apprentissage automatique, couvrant à la fois les attaques adversariales et les défaillances de conception inhérentes. La ressource vise à fournir une référence unifiée pour comprendre comment les systèmes ML peuvent échouer en pratique.

Taxonomies de risques IA
RechercheMicrosoft • 2024

Taxonomie des modes de défaillance dans les systèmes d'IA agentiques

Un livre blanc qui fournit une taxonomie complète des modes de défaillance spécifiquement pour les systèmes d'IA agentiques, distinguant les défaillances nouvelles uniques à l'IA agentique des modes de défaillance existants. L'analyse est ancrée dans le Standard d'IA Responsable de Microsoft et cartographie les défaillances à travers plusieurs dimensions pour aider à identifier et catégoriser les risques potentiels.

Taxonomies de risques IA
Risk taxonomies | Bibliothèque de la gouvernance de l'IA | VerifyWise