Modèle d'évaluation d'impact de l'IA responsable
Résumé
Le modèle d'évaluation d'impact de l'IA responsable de Microsoft fournit une approche structurée pour évaluer les systèmes d'IA par rapport aux principes établis d'IA responsable. Ce modèle s'aligne avec le cadre d'IA responsable de Microsoft et peut être adapté par d'autres organisations.
Objectifs d'IA responsable évalués
- Équité : Évaluation des biais et impacts discriminatoires
- Fiabilité et sécurité : Évaluation de la robustesse et sûreté du système
- Confidentialité et sécurité : Revue de la protection des données et sécurité
- Inclusivité : Évaluation de l'accessibilité et considération diverse
- Transparence : Évaluation de l'explicabilité et de la communication
- Responsabilité : Revue de la gouvernance et de la supervision
Structure d'évaluation
- Identification des objectifs applicables
- Évaluation par rapport à chaque objectif
- Documentation des impacts potentiels
- Planification et suivi des atténuations
À qui s'adresse cette ressource
- Équipes de développement IA évaluant les systèmes
- Équipes d'IA responsable supervisant les évaluations
- Équipes de gouvernance établissant des standards d'évaluation
Mots-clés
En bref
Publié
2022
Juridiction
Mondial
Catégorie
Assessment and evaluation
Accès
Accès public
Ressources connexes
AI Act de l'UE - Texte officiel complet
Regulations and laws • Union européenne
Lignes directrices de l'AI Act de l'UE pour les modèles d'IA à usage général
Regulations and laws • Commission européenne
Analyse approfondie de la loi du Colorado sur l'intelligence artificielle
Regulations and laws • Baker Hostetler
Construisez votre programme de gouvernance de l'IA
VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.