Une taxonomie collaborative centrée sur l'humain des préjudices de l'IA, algorithmiques et de l'automatisation
arXiv
Ver recurso originalUne taxonomie collaborative centrée sur l'humain des préjudices de l'IA, algorithmiques et de l'automatisation
Resumen
Cet article de Investigacion soutient que les taxonomies de préjudices IA existantes ne parviennent souvent pas à servir toutes les parties prenantes adéquatement. Les auteurs proposent une approche centrée sur l'humain qui considère les perspectives multiples et fournit une couverture plus complète des impactos de l'IA.
Limitaciones des taxonomies existantes
- Focus étroit sur les préoccupations techniques ou réglementaires
- Exclusion des communautés affectées
- Couverture incomplète des types de préjudices
- Manque de perspective interdisciplinaire
Approche centrée sur l'humain
La taxonomie proposée :
- Incorpore les perspectives de diverses parties prenantes
- Considère les expériences vécues des personnes affectées
- Aborde les impactos individuels et sociétaux
- Soutient les profesionals et les tomador de decisioness politicas
A quien va dirigido este recurso
- Éthiciens de l'IA développant des marcos de préjudices
- Défenseurs des droits civiques documentant les impactos de l'IA
- Investigadors étudiant les effets sociétaux de l'IA
Etiquetas
De un vistazo
Publicado
2024
Jurisdicción
Global
Categoría
Risk taxonomies
Acceso
Acceso público
Recursos relacionados
Politica de mise à l'échelle responsable d'Anthropic
Policies and internal governance • Anthropic
Exemple de politica d'utilisation acceptable des Herramientas d'IA générative
Policies and internal governance • Fisher Phillips
Modelo de politica d'utilisation acceptable de l'IA
Policies and internal governance • FRSecure
Construya su programa de gobernanza de IA
VerifyWise le ayuda a implementar frameworks de gobernanza de IA, hacer seguimiento del cumplimiento y gestionar riesgos en sus sistemas de IA.