NIST
CadreActif

Taxonomie de l'apprentissage automatique adversarial du NIST

NIST

Voir la ressource originale

Taxonomie de l'apprentissage automatique adversarial du NIST

Résumé

La publication du NIST sur l'apprentissage automatique adversarial fournit une taxonomie complète des attaques contre les systèmes d'apprentissage automatique et leurs atténuations correspondantes. Ce document est devenu une référence fondamentale pour les praticiens de la sécurité travaillant avec des systèmes d'IA.

Catégories d'attaques

  • Attaques par évasion : Manipulation des entrées pour causer des erreurs de classification pendant l'inférence
  • Attaques par empoisonnement : Corruption des données d'entraînement pour compromettre le comportement du modèle
  • Attaques de confidentialité : Extraction d'informations sensibles des modèles entraînés
  • Attaques par extraction de modèle : Vol de la propriété intellectuelle du modèle

Stratégies d'atténuation

Le document décrit les approches défensives pour chaque catégorie d'attaque :

  • Entraînement adversarial
  • Nettoyage des entrées
  • Confidentialité différentielle
  • Mécanismes de défense de modèle

À qui s'adresse cette ressource

  • Chercheurs en sécurité ML étudiant les menaces adversariales
  • Scientifiques des données construisant des modèles robustes
  • Équipes de sécurité protégeant les déploiements ML
  • Professionnels des politiques comprenant les risques de sécurité ML

Mots-clés

NISTML adversarialattaquessécurité

En bref

Publié

2024

Juridiction

États-Unis

Catégorie

Risk taxonomies

Accès

Accès public

Construisez votre programme de gouvernance de l'IA

VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.

Taxonomie de l'apprentissage automatique adversarial du NIST | Bibliothèque de la gouvernance de l'IA | VerifyWise