NIST
FrameworkActivo

Taxonomie de l'aprendizaje automatico adversarial du NIST

NIST

Ver recurso original

Taxonomie de l'aprendizaje automatico adversarial du NIST

Resumen

La publication du NIST sur l'aprendizaje automatico adversarial fournit une taxonomie complète des attaques contre les systèmes d'aprendizaje automatico et leurs atténuations correspondantes. Ce document est devenu une référence fondamentale pour les profesionals de la seguridad travaillant avec des systèmes d'IA.

Catégories d'attaques

  • Attaques par évasion : Manipulation des entrées pour causer des erreurs de classification pendant l'inférence
  • Attaques par empoisonnement : Corruption des datos d'entraînement pour compromettre le comportement du modelo
  • Attaques de confidencialidad : Extraction d'informations sensibles des modelos entraînés
  • Attaques par extraction de modelo : Vol de la propriété intellectuelle du modelo

Stratégies d'atténuation

Le document décrit les approches défensives pour chaque catégorie d'attaque :

  • Entraînement adversarial
  • Nettoyage des entrées
  • Confidencialidad différentielle
  • Mécanismes de défense de modelo

A quien va dirigido este recurso

  • Investigadors en seguridad ML étudiant les amenazas adversariales
  • Scientifiques des datos construisant des modelos robustes
  • Equipos de seguridad protégeant les despliegues ML
  • Professionnels des politicas comprenant les riesgos de seguridad ML

Etiquetas

NISTML adversarialattaquesseguridad

De un vistazo

Publicado

2024

Jurisdicción

Estados Unidos

Categoría

Risk taxonomies

Acceso

Acceso público

Construya su programa de gobernanza de IA

VerifyWise le ayuda a implementar frameworks de gobernanza de IA, hacer seguimiento del cumplimiento y gestionar riesgos en sus sistemas de IA.

Taxonomie de l'aprendizaje automatico adversarial du NIST | Biblioteca de Gobernanza de IA | VerifyWise