Taxonomie de l'aprendizaje automatico adversarial du NIST
Resumen
La publication du NIST sur l'aprendizaje automatico adversarial fournit une taxonomie complète des attaques contre les systèmes d'aprendizaje automatico et leurs atténuations correspondantes. Ce document est devenu une référence fondamentale pour les profesionals de la seguridad travaillant avec des systèmes d'IA.
Catégories d'attaques
- Attaques par évasion : Manipulation des entrées pour causer des erreurs de classification pendant l'inférence
- Attaques par empoisonnement : Corruption des datos d'entraînement pour compromettre le comportement du modelo
- Attaques de confidencialidad : Extraction d'informations sensibles des modelos entraînés
- Attaques par extraction de modelo : Vol de la propriété intellectuelle du modelo
Stratégies d'atténuation
Le document décrit les approches défensives pour chaque catégorie d'attaque :
- Entraînement adversarial
- Nettoyage des entrées
- Confidencialidad différentielle
- Mécanismes de défense de modelo
A quien va dirigido este recurso
- Investigadors en seguridad ML étudiant les amenazas adversariales
- Scientifiques des datos construisant des modelos robustes
- Equipos de seguridad protégeant les despliegues ML
- Professionnels des politicas comprenant les riesgos de seguridad ML
Etiquetas
NISTML adversarialattaquesseguridad
De un vistazo
Publicado
2024
Jurisdicción
Estados Unidos
Categoría
Risk taxonomies
Acceso
Acceso público
Construya su programa de gobernanza de IA
VerifyWise le ayuda a implementar frameworks de gobernanza de IA, hacer seguimiento del cumplimiento y gestionar riesgos en sus sistemas de IA.