Modes de défaillance dans l'aprendizaje automatico
Resumen
Cette Documentacion Microsoft fournit une référence complète pour comprendre comment les systèmes d'aprendizaje automatico peuvent échouer. Le document couvre à la fois les attaques intentionnelles et les défaillances non intentionnelles résultant de Limitaciones de conception ou d'Implementacion.
Catégories de défaillances
Défaillances adversariales
- Attaques par évasion
- Attaques par empoisonnement
- Extraction de modelo
- Attaques d'inférence
Défaillances non adversariales
- Décalage de distribution
- Défaillances de généralisation
- Overfitting et underfitting
- Problèmes de qualité des datos
Conseils d'atténuation
Le document inclut des recommandations pour :
- Entraînement robuste des modelos
- Validation des entrées
- Vigilancia et détection
- Planification de la réponse aux incidentes
A quien va dirigido este recurso
- Ingénieurs ML construisant des systèmes robustes
- Equipos de seguridad comprenant les riesgos ML
- Equipos d'assurance qualité testant les systèmes ML
Etiquetas
aprendizaje automaticomodes de défaillanceseguridad IAgestion de riesgosattaques adversarialesfiabilité des systèmes
De un vistazo
Publicado
2024
Jurisdicción
Global
Categoría
Risk taxonomies
Acceso
Acceso público
Construya su programa de gobernanza de IA
VerifyWise le ayuda a implementar frameworks de gobernanza de IA, hacer seguimiento del cumplimiento y gestionar riesgos en sus sistemas de IA.