Volver a la biblioteca

Risk taxonomies

Structured risk thinking.

20 recursos

Tipo:
20 recursos encontrados
RepositorioMIT FutureTech • 2024

Repositorio des riesgos IA du MIT

Le repositorio des riesgos IA du MIT est une base de datos complète des riesgos IA identifiés à partir de la littérature Academico, des documents de politica et des informes industriels. Il fournit une taxonomie structurée pour catégoriser et comprendre le paysage diversifié des riesgos liés à l'IA.

Taxonomies de riesgos IA
FrameworkOWASP • 2023

OWASP Top 10 pour les applications LLM

Le OWASP Top 10 pour les applications LLM identifie les riesgos de seguridad les plus critiques dans les applications de grands modelos de langage. Il couvre l'injection de prompt, la fuite de datos, le sandboxing inadéquat, l'exécution de code non autorisée et d'autres vulnerabilidads spécifiques aux LLM.

Modelos de amenazas
FrameworkNIST • 2024

Taxonomie de l'aprendizaje automatico adversarial du NIST

La taxonomie du NIST des attaques et atténuations de l'aprendizaje automatico adversarial. Elle catégorise les attaques en évasion, empoisonnement et attaques de confidencialidad, fournissant un marco structuré pour comprendre et se défendre contre les amenazas de seguridad ML.

Modelos de amenazasUS
Conjunto de datosResponsible AI Collaborative • 2021

Base de datos des incidentes IA

La base de datos des incidentes IA catalogue les préjudices réels causés par les systèmes d'IA. Elle fournit une archive consultable d'incidentes pour aider les investigadors, desarrolladors et tomador de decisioness politicas à apprendre des échecs passés et prévenir les préjudices futurs.

Catalogues d'abus et de mauvaise utilisation
RepositorioMIT • 2024

Cartographie des atténuations des riesgos IA

Une revue systématique vivante et une base de datos de marcos de riesgos IA qui fournit une cartographie complète des atténuations des riesgos IA. Le repositorio inclut une taxonomie de domaine couvrant les riesgos multi-agents et sert de ressource centralisée pour comprendre diverses approches d'evaluacion des riesgos IA.

Taxonomies de riesgos IA
RepositorioMIT • 2025

Informe du repositorio des riesgos IA

Un repositorio complet qui catégorise les riesgos IA en utilisant deux taxonomies : une taxonomie causale qui classe les riesgos par causation (humain vs IA), intention (intentionnel vs non intentionnel) et temporalité (pré vs post-despliegue), et une taxonomie de domaine qui organise les riesgos en sept domaines thématiques. Le repositorio sert de marco systématique pour comprendre et catégoriser divers types de riesgos liés à l'IA.

Taxonomies de riesgos IA
FrameworkMITRE Corporation • 2021

MITRE ATLAS : Paysage des amenazas adversariales pour les systèmes d'inteligencia artificial

MITRE ATLAS est une base de connaissances des tactiques, techniques et études de cas adversariales pour les systèmes d'aprendizaje automatico basée sur des observations du monde réel. Il fournit un marco pour comprendre et se défendre contre les amenazas aux systèmes d'IA en cataloguant les patterns d'attaque et les stratégies d'atténuation.

Taxonomies de riesgos IA
FrameworkMITRE Corporation • 2024

Framework MITRE ATLAS - Guia pour sécuriser les systèmes IA

Le framework MITRE ATLAS est une base de connaissances complète qui catalogue les tactiques, techniques et procédures adversariales ciblant spécifiquement les systèmes d'inteligencia artificial. Il fournit aux profesionals de la seguridad des études de cas réelles et des conseils pratiques pour identifier et atténuer les amenazas contre les despliegues d'IA.

Taxonomies de riesgos IA
FrameworkMITRE Corporation • 2021

MITRE ATLAS : Paysage des amenazas adversariales pour les systèmes d'inteligencia artificial

MITRE ATLAS est un framework complet qui catalogue les tactiques et techniques adversariales utilisées contre les systèmes d'IA. Le framework fournit 15 tactiques, 66 techniques, 46 sous-techniques, 26 atténuations et 33 études de cas réelles pour aider les organizacions à comprendre et se défendre contre les amenazas de seguridad spécifiques à l'IA.

Taxonomies de riesgos IA
FrameworkOWASP • 2024

Vue d'ensemble de la seguridad IA

Un framework technique de l'OWASP qui se concentre sur les amenazas de seguridad de l'IA, les controls et les pratiques connexes. Il fournit une approche structurée pour comprendre et gérer les riesgos de seguridad dans les systèmes d'IA, avec une intégration planifiée dans le catalogue OpenCRE des exigences communes de seguridad.

Taxonomies de riesgos IA
FrameworkOWASP • 2024

AI Exchange

OWASP AI Exchange est un framework communautaire pour cartographier les surfaces d'attaque de l'IA et codifier les méthodologies de test de seguridad spécifiques à l'IA. Il sert de ressource pour les organizacions pour implémenter des standards d'atténuation des riesgos IA et des pratiques de seguridad à l'échelle.

Taxonomies de riesgos IA
FrameworkOWASP • 2024

Projet de seguridad de l'IA générative OWASP

Le framework de seguridad complet de l'OWASP pour les systèmes d'IA générative, couvrant les agents autonomes, les workflows IA multi-étapes et la protection des datos contre les fuites et altérations. Le projet fournit des Herramientas, des méthodologies de test incluant le red teaming adversarial, et des conseils pour traiter les principaux riesgos de seguridad GenAI incluant les amenazas de deepfake.

Taxonomies de riesgos IA
RepositorioAI Incident Database • 2024

Liste des taxonomies

Un repositorio complet contenant plusieurs taxonomies pour catégoriser les incidentes et riesgos IA. Inclut des taxonomies détaillées couvrant les facteurs technologiques et de Procesos qui contribuent aux incidentes IA, avec des connexions au repositorio des riesgos IA du MIT pour une catégorisation complète des riesgos.

Taxonomies de riesgos IA
InvestigaciónarXiv • 2025

Schéma et taxonomie standardisés pour les bases de datos d'incidentes IA dans les infrastructures numériques critiques

Cette Investigacion établit un schéma standardisé pour le signalement des incidentes IA afin d'améliorer la cohérence de la collecte de datos à travers les bases de datos. Elle introduit une taxonomie pour classifier les incidentes IA spécifiquement dans les infrastructures numériques critiques, améliorant l'exhaustivité et la clarté des datos d'incidentes pour une meilleure gestion de riesgos.

Taxonomies de riesgos IA
Conjunto de datosMIT • 2024

Taxonomie des préjudices du suivi des incidentes IA

Une taxonomie et base de datos complète suivant les incidentes IA catégorisés par niveaux de préjudice et caractéristiques de amenaza incluant la nouveauté, l'autonomie et l'imminence. Le repositorio fournit une analyse temporelle des patterns d'incidentes à travers différentes catégories et inclut des Evaluaciones de impactoo sur la seguridad nationale pour chaque incidente IA documenté.

Taxonomies de riesgos IA
InvestigaciónarXiv • 2024

Une taxonomie collaborative centrée sur l'humain des préjudices de l'IA, algorithmiques et de l'automatisation

Cette Investigacion présente une taxonomie complète pour catégoriser les préjudices de l'IA, algorithmiques et de l'automatisation basée sur l'analyse de plus de 10 000 cas réels provenant de médias mondiaux, de Investigacions et de informes juridiques. La taxonomie aborde les Limitaciones des systèmes de classification existants et incorpore les riesgos émergents des technologies d'IA générative et de reconnaissance des émotions.

Taxonomies de riesgos IA
InvestigaciónarXiv • 2024

Une taxonomie collaborative centrée sur l'humain des préjudices de l'IA, algorithmiques et de l'automatisation

Cet article de Investigacion présente une taxonomie collaborative centrée sur l'humain pour catégoriser les préjudices de l'IA, algorithmiques et de l'automatisation. Les auteurs soutiennent que les taxonomies existantes sont souvent étroites et négligent des perspectives importantes, proposant un marco plus complet qui sert mieux les diverses parties prenantes au-delà des seuls profesionals et gouvernements.

Taxonomies de riesgos IA
InvestigaciónMicrosoft • 2025

Taxonomie des modes de défaillance dans les agents IA

Le livre blanc de Microsoft présente une taxonomie complète des modes de défaillance dans les agents IA, développée à travers des activités internes de red teaming. La Investigacion vise à améliorer la seguridad et la sûreté des systèmes d'IA en cataloguant les défaillances et riesgos réalistes dans les systèmes agentiques.

Taxonomies de riesgos IA
GuíaMicrosoft • 2024

Modes de défaillance dans l'aprendizaje automatico

Un document complet qui catalogue divers modes de défaillance dans les systèmes d'aprendizaje automatico, couvrant à la fois les attaques adversariales et les défaillances de conception inhérentes. La ressource vise à fournir une référence unifiée pour comprendre comment les systèmes ML peuvent échouer en pratique.

Taxonomies de riesgos IA
InvestigaciónMicrosoft • 2024

Taxonomie des modes de défaillance dans les systèmes d'IA agentiques

Un livre blanc qui fournit une taxonomie complète des modes de défaillance spécifiquement pour les systèmes d'IA agentiques, distinguant les défaillances nouvelles uniques à l'IA agentique des modes de défaillance existants. L'analyse est ancrée dans le Standard d'IA Responsable de Microsoft et cartographie les défaillances à travers plusieurs dimensions pour aider à identifier et catégoriser les riesgos potentiels.

Taxonomies de riesgos IA
Risk taxonomies | Biblioteca de Gobernanza de IA | VerifyWise