Une taxonomie collaborative centrée sur l'humain des préjudices de l'IA, algorithmiques et de l'automatisation
arXiv
Ver recurso originalUne taxonomie collaborative centrée sur l'humain des préjudices de l'IA, algorithmiques et de l'automatisation
Resumen
Cette Investigacion développe une taxonomie des préjudices de l'IA en utilisant une approche centrée sur l'humain qui incorpore les perspectives de diverses parties prenantes. Basée sur l'analyse de plus de 10 000 cas réels, la taxonomie fournit une couverture complète des préjudices liés à l'IA.
Méthodologie
- Source des datos : Médias mondiaux, Investigacions et informes juridiques
- Taille de l'échantillon : Plus de 10 000 cas analysés
- Approche : Desarrollo collaboratif centré sur l'humain
- Portée : IA, préjudices algorithmiques et de l'automatisation
Catégories clés de préjudices
La taxonomie identifie les catégories de préjudices incluant :
- Discrimination et sesgo
- Violations de la vie privée
- Impactos économiques
- Préjudices psychologiques
- Préjudices physiques
- Impactos sociétaux
Technologies émergentes couvertes
La taxonomie inclut spécifiquement les riesgos de :
- Systèmes d'IA générative
- Technologies de reconnaissance des émotions
- Systèmes de prise de decision automatisée
A quien va dirigido este recurso
- Investigadors en préjudices IA développant des marcos de classification
- Défenseurs documentant les préjudices de l'IA
- Tomador de decisioness politicas comprenant les impactos de l'IA
Etiquetas
De un vistazo
Publicado
2024
Jurisdicción
Global
Categoría
Risk taxonomies
Acceso
Acceso público
Recursos relacionados
Politica de mise à l'échelle responsable d'Anthropic
Policies and internal governance • Anthropic
Exemple de politica d'utilisation acceptable des Herramientas d'IA générative
Policies and internal governance • Fisher Phillips
Modelo de politica d'utilisation acceptable de l'IA
Policies and internal governance • FRSecure
Construya su programa de gobernanza de IA
VerifyWise le ayuda a implementar frameworks de gobernanza de IA, hacer seguimiento del cumplimiento y gestionar riesgos en sus sistemas de IA.