MITRE ATLAS : Paysage des menaces adversariales pour les systèmes d'intelligence artificielle
MITRE Corporation
Voir la ressource originaleMITRE ATLAS : Paysage des menaces adversariales pour les systèmes d'intelligence artificielle
Résumé
MITRE ATLAS (Adversarial Threat Landscape for AI Systems) est une base de connaissances qui documente les tactiques et techniques adversariales ciblant les systèmes d'intelligence artificielle. Modelé sur le framework MITRE ATT&CK largement adopté pour la cybersécurité traditionnelle, ATLAS fournit un langage commun pour discuter et défendre contre les menaces de sécurité de l'IA.
Structure du framework
- Tactiques : Les objectifs de haut niveau des adversaires
- Techniques : Méthodes spécifiques utilisées pour atteindre les objectifs
- Sous-techniques : Variations détaillées des techniques
- Atténuations : Approches défensives recommandées
- Études de cas : Attaques réelles documentées
Couverture
ATLAS couvre les menaces à travers le cycle de vie complet des systèmes ML :
- Collecte et préparation des données
- Développement et entraînement des modèles
- Déploiement et inférence
- Maintenance et mises à jour
À qui s'adresse cette ressource
- Équipes de sécurité protégeant les systèmes ML
- Développeurs ML construisant des modèles sécurisés
- Red teams testant la sécurité des systèmes IA
- Architectes de sécurité concevant des défenses
Mots-clés
En bref
Publié
2021
Juridiction
Mondial
Catégorie
Risk taxonomies
Accès
Accès public
Ressources connexes
Politique de mise à l'échelle responsable d'Anthropic
Policies and internal governance • Anthropic
Gouvernance de l'IA : Qu'est-ce que c'est et comment l'implémenter
Policies and internal governance • Diligent Corporation
Toute utilisation de l'IA ne nécessite pas une politique de gouvernance ; Comment faire la différence ?
Policies and internal governance • Corporate Compliance Insights
Construisez votre programme de gouvernance de l'IA
VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.