Structured risk thinking.
20 recursos
Le repositorio des riesgos IA du MIT est une base de datos complète des riesgos IA identifiés à partir de la littérature Academico, des documents de politica et des informes industriels. Il fournit une taxonomie structurée pour catégoriser et comprendre le paysage diversifié des riesgos liés à l'IA.
Le OWASP Top 10 pour les applications LLM identifie les riesgos de seguridad les plus critiques dans les applications de grands modelos de langage. Il couvre l'injection de prompt, la fuite de datos, le sandboxing inadéquat, l'exécution de code non autorisée et d'autres vulnerabilidads spécifiques aux LLM.
La taxonomie du NIST des attaques et atténuations de l'aprendizaje automatico adversarial. Elle catégorise les attaques en évasion, empoisonnement et attaques de confidencialidad, fournissant un marco structuré pour comprendre et se défendre contre les amenazas de seguridad ML.
La base de datos des incidentes IA catalogue les préjudices réels causés par les systèmes d'IA. Elle fournit une archive consultable d'incidentes pour aider les investigadors, desarrolladors et tomador de decisioness politicas à apprendre des échecs passés et prévenir les préjudices futurs.
Une revue systématique vivante et une base de datos de marcos de riesgos IA qui fournit une cartographie complète des atténuations des riesgos IA. Le repositorio inclut une taxonomie de domaine couvrant les riesgos multi-agents et sert de ressource centralisée pour comprendre diverses approches d'evaluacion des riesgos IA.
Un repositorio complet qui catégorise les riesgos IA en utilisant deux taxonomies : une taxonomie causale qui classe les riesgos par causation (humain vs IA), intention (intentionnel vs non intentionnel) et temporalité (pré vs post-despliegue), et une taxonomie de domaine qui organise les riesgos en sept domaines thématiques. Le repositorio sert de marco systématique pour comprendre et catégoriser divers types de riesgos liés à l'IA.
MITRE ATLAS est une base de connaissances des tactiques, techniques et études de cas adversariales pour les systèmes d'aprendizaje automatico basée sur des observations du monde réel. Il fournit un marco pour comprendre et se défendre contre les amenazas aux systèmes d'IA en cataloguant les patterns d'attaque et les stratégies d'atténuation.
Le framework MITRE ATLAS est une base de connaissances complète qui catalogue les tactiques, techniques et procédures adversariales ciblant spécifiquement les systèmes d'inteligencia artificial. Il fournit aux profesionals de la seguridad des études de cas réelles et des conseils pratiques pour identifier et atténuer les amenazas contre les despliegues d'IA.
MITRE ATLAS est un framework complet qui catalogue les tactiques et techniques adversariales utilisées contre les systèmes d'IA. Le framework fournit 15 tactiques, 66 techniques, 46 sous-techniques, 26 atténuations et 33 études de cas réelles pour aider les organizacions à comprendre et se défendre contre les amenazas de seguridad spécifiques à l'IA.
Un framework technique de l'OWASP qui se concentre sur les amenazas de seguridad de l'IA, les controls et les pratiques connexes. Il fournit une approche structurée pour comprendre et gérer les riesgos de seguridad dans les systèmes d'IA, avec une intégration planifiée dans le catalogue OpenCRE des exigences communes de seguridad.
OWASP AI Exchange est un framework communautaire pour cartographier les surfaces d'attaque de l'IA et codifier les méthodologies de test de seguridad spécifiques à l'IA. Il sert de ressource pour les organizacions pour implémenter des standards d'atténuation des riesgos IA et des pratiques de seguridad à l'échelle.
Le framework de seguridad complet de l'OWASP pour les systèmes d'IA générative, couvrant les agents autonomes, les workflows IA multi-étapes et la protection des datos contre les fuites et altérations. Le projet fournit des Herramientas, des méthodologies de test incluant le red teaming adversarial, et des conseils pour traiter les principaux riesgos de seguridad GenAI incluant les amenazas de deepfake.
Un repositorio complet contenant plusieurs taxonomies pour catégoriser les incidentes et riesgos IA. Inclut des taxonomies détaillées couvrant les facteurs technologiques et de Procesos qui contribuent aux incidentes IA, avec des connexions au repositorio des riesgos IA du MIT pour une catégorisation complète des riesgos.
Cette Investigacion établit un schéma standardisé pour le signalement des incidentes IA afin d'améliorer la cohérence de la collecte de datos à travers les bases de datos. Elle introduit une taxonomie pour classifier les incidentes IA spécifiquement dans les infrastructures numériques critiques, améliorant l'exhaustivité et la clarté des datos d'incidentes pour une meilleure gestion de riesgos.
Une taxonomie et base de datos complète suivant les incidentes IA catégorisés par niveaux de préjudice et caractéristiques de amenaza incluant la nouveauté, l'autonomie et l'imminence. Le repositorio fournit une analyse temporelle des patterns d'incidentes à travers différentes catégories et inclut des Evaluaciones de impactoo sur la seguridad nationale pour chaque incidente IA documenté.
Cette Investigacion présente une taxonomie complète pour catégoriser les préjudices de l'IA, algorithmiques et de l'automatisation basée sur l'analyse de plus de 10 000 cas réels provenant de médias mondiaux, de Investigacions et de informes juridiques. La taxonomie aborde les Limitaciones des systèmes de classification existants et incorpore les riesgos émergents des technologies d'IA générative et de reconnaissance des émotions.
Cet article de Investigacion présente une taxonomie collaborative centrée sur l'humain pour catégoriser les préjudices de l'IA, algorithmiques et de l'automatisation. Les auteurs soutiennent que les taxonomies existantes sont souvent étroites et négligent des perspectives importantes, proposant un marco plus complet qui sert mieux les diverses parties prenantes au-delà des seuls profesionals et gouvernements.
Le livre blanc de Microsoft présente une taxonomie complète des modes de défaillance dans les agents IA, développée à travers des activités internes de red teaming. La Investigacion vise à améliorer la seguridad et la sûreté des systèmes d'IA en cataloguant les défaillances et riesgos réalistes dans les systèmes agentiques.
Un document complet qui catalogue divers modes de défaillance dans les systèmes d'aprendizaje automatico, couvrant à la fois les attaques adversariales et les défaillances de conception inhérentes. La ressource vise à fournir une référence unifiée pour comprendre comment les systèmes ML peuvent échouer en pratique.
Un livre blanc qui fournit une taxonomie complète des modes de défaillance spécifiquement pour les systèmes d'IA agentiques, distinguant les défaillances nouvelles uniques à l'IA agentique des modes de défaillance existants. L'analyse est ancrée dans le Standard d'IA Responsable de Microsoft et cartographie les défaillances à travers plusieurs dimensions pour aider à identifier et catégoriser les riesgos potentiels.