RechercheActif
Une taxonomie collaborative centrée sur l'humain des préjudices de l'IA, algorithmiques et de l'automatisation
arXiv
Voir la ressource originaleUne taxonomie collaborative centrée sur l'humain des préjudices de l'IA, algorithmiques et de l'automatisation
Résumé
Cette recherche développe une taxonomie des préjudices de l'IA en utilisant une approche centrée sur l'humain qui incorpore les perspectives de diverses parties prenantes. Basée sur l'analyse de plus de 10 000 cas réels, la taxonomie fournit une couverture complète des préjudices liés à l'IA.
Méthodologie
- Source des données : Médias mondiaux, recherches et rapports juridiques
- Taille de l'échantillon : Plus de 10 000 cas analysés
- Approche : Développement collaboratif centré sur l'humain
- Portée : IA, préjudices algorithmiques et de l'automatisation
Catégories clés de préjudices
La taxonomie identifie les catégories de préjudices incluant :
- Discrimination et biais
- Violations de la vie privée
- Impacts économiques
- Préjudices psychologiques
- Préjudices physiques
- Impacts sociétaux
Technologies émergentes couvertes
La taxonomie inclut spécifiquement les risques de :
- Systèmes d'IA générative
- Technologies de reconnaissance des émotions
- Systèmes de prise de décision automatisée
À qui s'adresse cette ressource
- Chercheurs en préjudices IA développant des cadres de classification
- Défenseurs documentant les préjudices de l'IA
- Décideurs politiques comprenant les impacts de l'IA
Mots-clés
préjudices IAtaxonomie des risquesresponsabilité algorithmiquegouvernance IAclassification des préjudicessécurité IA
En bref
Publié
2024
Juridiction
Mondial
Catégorie
Risk taxonomies
Accès
Accès public
Ressources connexes
Construisez votre programme de gouvernance de l'IA
VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.