GuideActif
Guide du processus d'évaluation des risques de l'IA
University of California AI Council
Voir la ressource originaleGuide du processus d'évaluation des risques de l'IA
Résumé
Le UC AI Council a développé ce guide d'évaluation des risques spécifiquement pour les contextes d'enseignement supérieur. Le guide aborde les défis uniques auxquels les universités font face lors du déploiement de systèmes d'IA tout en maintenant les valeurs et missions académiques.
Domaines d'évaluation
- Entraînement des modèles : Évaluation des données d'entraînement et des méthodes
- Risques de biais : Évaluation des impacts potentiellement discriminatoires
- Processus de développement : Revue des pratiques de développement
- Procédures de validation : Vérification de la performance du système
Considérations académiques
Le guide traite des préoccupations spécifiques aux universités :
- Liberté académique et intégrité de la recherche
- Vie privée et données des étudiants
- Équité dans les contextes éducatifs
- Recherche et innovation responsables
À qui s'adresse cette ressource
- Administrateurs universitaires supervisant l'utilisation de l'IA
- Équipes informatiques déployant des systèmes IA
- Chercheurs travaillant avec l'IA
- Autres institutions adaptant le cadre
Mots-clés
gouvernance IAévaluation des risquesenseignement supérieurpolitique institutionnelleatténuation des biaisdéveloppement IA
En bref
Publié
2024
Juridiction
États-Unis
Catégorie
Assessment and evaluation
Accès
Accès public
Ressources connexes
Construisez votre programme de gouvernance de l'IA
VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.