RechercheActif
Préjudices sociotechniques des systèmes algorithmiques : Élaboration d'une taxonomie
ACM
Voir la ressource originalePréjudices sociotechniques des systèmes algorithmiques : Élaboration d'une taxonomie
Résumé
Cet article de recherche présente une revue de la portée et une taxonomie des préjudices sociotechniques causés par les systèmes algorithmiques. L'étude utilise une analyse thématique réflexive de la recherche en informatique pour catégoriser différents types de préjudices et fournit un cadre pour la réduction des préjudices dans les systèmes algorithmiques.
Contributions clés
- Taxonomie des préjudices : Catégorisation systématique des types de préjudices algorithmiques.
- Cadre de réduction : Approches pratiques pour atténuer les préjudices identifiés.
- Base de recherche : Analyse fondée sur la littérature informatique existante.
À qui s'adresse cette ressource
- Chercheurs en IA responsable développant des cadres d'évaluation des préjudices.
- Équipes de gouvernance catégorisant les risques dans leurs systèmes IA.
- Développeurs cherchant à comprendre les préjudices potentiels de leurs systèmes.
- Régulateurs développant des définitions et catégories de préjudices.
Mots-clés
préjudice algorithmiquetaxonomieréduction des préjudicessystèmes sociotechniquessécurité IAreporting d'incidents
En bref
Publié
2023
Juridiction
Mondial
Catégorie
Incident and accountability
Accès
Accès public
Construisez votre programme de gouvernance de l'IA
VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.