ACM
RechercheActif

Préjudices sociotechniques des systèmes algorithmiques : Élaboration d'une taxonomie

ACM

Voir la ressource originale

Préjudices sociotechniques des systèmes algorithmiques : Élaboration d'une taxonomie

Résumé

Cet article de recherche présente une revue de la portée et une taxonomie des préjudices sociotechniques causés par les systèmes algorithmiques. L'étude utilise une analyse thématique réflexive de la recherche en informatique pour catégoriser différents types de préjudices et fournit un cadre pour la réduction des préjudices dans les systèmes algorithmiques.

Contributions clés

  • Taxonomie des préjudices : Catégorisation systématique des types de préjudices algorithmiques.
  • Cadre de réduction : Approches pratiques pour atténuer les préjudices identifiés.
  • Base de recherche : Analyse fondée sur la littérature informatique existante.

À qui s'adresse cette ressource

  • Chercheurs en IA responsable développant des cadres d'évaluation des préjudices.
  • Équipes de gouvernance catégorisant les risques dans leurs systèmes IA.
  • Développeurs cherchant à comprendre les préjudices potentiels de leurs systèmes.
  • Régulateurs développant des définitions et catégories de préjudices.

Mots-clés

préjudice algorithmiquetaxonomieréduction des préjudicessystèmes sociotechniquessécurité IAreporting d'incidents

En bref

Publié

2023

Juridiction

Mondial

Catégorie

Incident and accountability

Accès

Accès public

Construisez votre programme de gouvernance de l'IA

VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.

Préjudices sociotechniques des systèmes algorithmiques : Élaboration d'une taxonomie | Bibliothèque de la gouvernance de l'IA | VerifyWise