Microsoft
GuideActif

Modes de défaillance dans l'apprentissage automatique

Microsoft

Voir la ressource originale

Modes de défaillance dans l'apprentissage automatique

Résumé

Cette documentation Microsoft fournit une référence complète pour comprendre comment les systèmes d'apprentissage automatique peuvent échouer. Le document couvre à la fois les attaques intentionnelles et les défaillances non intentionnelles résultant de limitations de conception ou d'implémentation.

Catégories de défaillances

Défaillances adversariales

  • Attaques par évasion
  • Attaques par empoisonnement
  • Extraction de modèle
  • Attaques d'inférence

Défaillances non adversariales

  • Décalage de distribution
  • Défaillances de généralisation
  • Overfitting et underfitting
  • Problèmes de qualité des données

Conseils d'atténuation

Le document inclut des recommandations pour :

  • Entraînement robuste des modèles
  • Validation des entrées
  • Surveillance et détection
  • Planification de la réponse aux incidents

À qui s'adresse cette ressource

  • Ingénieurs ML construisant des systèmes robustes
  • Équipes de sécurité comprenant les risques ML
  • Équipes d'assurance qualité testant les systèmes ML

Mots-clés

apprentissage automatiquemodes de défaillancesécurité IAgestion des risquesattaques adversarialesfiabilité des systèmes

En bref

Publié

2024

Juridiction

Mondial

Catégorie

Risk taxonomies

Accès

Accès public

Construisez votre programme de gouvernance de l'IA

VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.

Modes de défaillance dans l'apprentissage automatique | Bibliothèque de la gouvernance de l'IA | VerifyWise