CadreActif
Taxonomie de l'apprentissage automatique adversarial du NIST
NIST
Voir la ressource originaleTaxonomie de l'apprentissage automatique adversarial du NIST
Résumé
La publication du NIST sur l'apprentissage automatique adversarial fournit une taxonomie complète des attaques contre les systèmes d'apprentissage automatique et leurs atténuations correspondantes. Ce document est devenu une référence fondamentale pour les praticiens de la sécurité travaillant avec des systèmes d'IA.
Catégories d'attaques
- Attaques par évasion : Manipulation des entrées pour causer des erreurs de classification pendant l'inférence
- Attaques par empoisonnement : Corruption des données d'entraînement pour compromettre le comportement du modèle
- Attaques de confidentialité : Extraction d'informations sensibles des modèles entraînés
- Attaques par extraction de modèle : Vol de la propriété intellectuelle du modèle
Stratégies d'atténuation
Le document décrit les approches défensives pour chaque catégorie d'attaque :
- Entraînement adversarial
- Nettoyage des entrées
- Confidentialité différentielle
- Mécanismes de défense de modèle
À qui s'adresse cette ressource
- Chercheurs en sécurité ML étudiant les menaces adversariales
- Scientifiques des données construisant des modèles robustes
- Équipes de sécurité protégeant les déploiements ML
- Professionnels des politiques comprenant les risques de sécurité ML
Mots-clés
NISTML adversarialattaquessécurité
En bref
Publié
2024
Juridiction
États-Unis
Catégorie
Risk taxonomies
Accès
Accès public
Construisez votre programme de gouvernance de l'IA
VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.