Microsoft
GuíaActivo

Modes de défaillance dans l'aprendizaje automatico

Microsoft

Ver recurso original

Modes de défaillance dans l'aprendizaje automatico

Resumen

Cette Documentacion Microsoft fournit une référence complète pour comprendre comment les systèmes d'aprendizaje automatico peuvent échouer. Le document couvre à la fois les attaques intentionnelles et les défaillances non intentionnelles résultant de Limitaciones de conception ou d'Implementacion.

Catégories de défaillances

Défaillances adversariales

  • Attaques par évasion
  • Attaques par empoisonnement
  • Extraction de modelo
  • Attaques d'inférence

Défaillances non adversariales

  • Décalage de distribution
  • Défaillances de généralisation
  • Overfitting et underfitting
  • Problèmes de qualité des datos

Conseils d'atténuation

Le document inclut des recommandations pour :

  • Entraînement robuste des modelos
  • Validation des entrées
  • Vigilancia et détection
  • Planification de la réponse aux incidentes

A quien va dirigido este recurso

  • Ingénieurs ML construisant des systèmes robustes
  • Equipos de seguridad comprenant les riesgos ML
  • Equipos d'assurance qualité testant les systèmes ML

Etiquetas

aprendizaje automaticomodes de défaillanceseguridad IAgestion de riesgosattaques adversarialesfiabilité des systèmes

De un vistazo

Publicado

2024

Jurisdicción

Global

Categoría

Risk taxonomies

Acceso

Acceso público

Construya su programa de gobernanza de IA

VerifyWise le ayuda a implementar frameworks de gobernanza de IA, hacer seguimiento del cumplimiento y gestionar riesgos en sus sistemas de IA.

Modes de défaillance dans l'aprendizaje automatico | Biblioteca de Gobernanza de IA | VerifyWise