InvestigaciónActivo
Préjudices sociotechniques des systèmes algorithmiques : Élaboration d'une taxonomie
ACM
Ver recurso originalPréjudices sociotechniques des systèmes algorithmiques : Élaboration d'une taxonomie
Resumen
Cet article de Investigacion présente une revue de la portée et une taxonomie des préjudices sociotechniques causés par les systèmes algorithmiques. L'étude utilise une analyse thématique réflexive de la Investigacion en informatique pour catégoriser différents types de préjudices et fournit un marco pour la réduction des préjudices dans les systèmes algorithmiques.
Contributions clés
- Taxonomie des préjudices : Catégorisation systématique des types de préjudices algorithmiques.
- Marco de réduction : Approches pratiques pour atténuer les préjudices identifiés.
- Base de Investigacion : Analyse fondée sur la littérature informatique existante.
A quien va dirigido este recurso
- Investigadors en IA responsable développant des marcos d'evaluacion des préjudices.
- Equipos de gobernanza catégorisant les riesgos dans leurs systèmes IA.
- Desarrolladors cherchant à comprendre les préjudices potentiels de leurs systèmes.
- Reguladors développant des définitions et catégories de préjudices.
Etiquetas
préjudice algorithmiquetaxonomieréduction des préjudicessystèmes sociotechniquesseguridad IAreporting d'incidentes
De un vistazo
Publicado
2023
Jurisdicción
Global
Categoría
Incident and accountability
Acceso
Acceso público
Construya su programa de gobernanza de IA
VerifyWise le ayuda a implementar frameworks de gobernanza de IA, hacer seguimiento del cumplimiento y gestionar riesgos en sus sistemas de IA.