Modes de défaillance dans l'apprentissage automatique
Résumé
Cette documentation Microsoft fournit une référence complète pour comprendre comment les systèmes d'apprentissage automatique peuvent échouer. Le document couvre à la fois les attaques intentionnelles et les défaillances non intentionnelles résultant de limitations de conception ou d'implémentation.
Catégories de défaillances
Défaillances adversariales
- Attaques par évasion
- Attaques par empoisonnement
- Extraction de modèle
- Attaques d'inférence
Défaillances non adversariales
- Décalage de distribution
- Défaillances de généralisation
- Overfitting et underfitting
- Problèmes de qualité des données
Conseils d'atténuation
Le document inclut des recommandations pour :
- Entraînement robuste des modèles
- Validation des entrées
- Surveillance et détection
- Planification de la réponse aux incidents
À qui s'adresse cette ressource
- Ingénieurs ML construisant des systèmes robustes
- Équipes de sécurité comprenant les risques ML
- Équipes d'assurance qualité testant les systèmes ML
Mots-clés
apprentissage automatiquemodes de défaillancesécurité IAgestion des risquesattaques adversarialesfiabilité des systèmes
En bref
Publié
2024
Juridiction
Mondial
Catégorie
Risk taxonomies
Accès
Accès public
Construisez votre programme de gouvernance de l'IA
VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.