RechercheActif
Collection d'articles de recherche du MIT sur l'éthique de l'IA
MIT Media Lab
Voir la ressource originaleCollection d'articles de recherche du MIT sur l'éthique de l'IA
Résumé
Le groupe Éthique et Gouvernance de l'IA du MIT Media Lab produit des recherches révolutionnaires à l'intersection de l'intelligence artificielle, des valeurs humaines et de l'organisation sociale. Cette collection représente l'un des corps de travaux académiques les plus influents façonnant la pensée contemporaine sur la gouvernance de l'IA.
Domaines de recherche clés
Le programme de recherche du groupe s'étend sur plusieurs domaines interconnectés :
- Biais algorithmiques et équité : Recherche fondamentale sur la façon dont les systèmes d'apprentissage automatique perpétuent ou amplifient les inégalités sociales, incluant des méthodologies innovantes pour détecter et atténuer les biais.
- Transparence et explicabilité : Travaux examinant comment les systèmes d'IA peuvent être rendus plus compréhensibles pour les utilisateurs, les personnes affectées et les régulateurs.
- Responsabilité : Recherche sur les cadres juridiques, sociaux et techniques pour attribuer la responsabilité lorsque les systèmes d'IA causent des dommages.
- Impact sociétal : Études plus larges sur la façon dont la technologie de l'IA restructure le travail, les communautés et les institutions sociales.
À qui s'adresse cette ressource
- Chercheurs académiques travaillant sur l'éthique de l'IA, l'équité dans l'apprentissage automatique ou les impacts sociétaux de la technologie
- Décideurs politiques cherchant des fondements de recherche pour les réglementations de l'IA et les stratégies nationales
- Éthiciens de l'IA d'entreprise développant des principes et pratiques d'IA responsable
Mots-clés
MITéthique de l'IArecherchegouvernance
En bref
Publié
2024
Juridiction
Mondial
Catégorie
Research and academic references
Accès
Accès public
Construisez votre programme de gouvernance de l'IA
VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.