arXiv
RechercheActif

Une taxonomie collaborative centrée sur l'humain des préjudices de l'IA, algorithmiques et de l'automatisation

arXiv

Voir la ressource originale

Une taxonomie collaborative centrée sur l'humain des préjudices de l'IA, algorithmiques et de l'automatisation

Résumé

Cet article de recherche soutient que les taxonomies de préjudices IA existantes ne parviennent souvent pas à servir toutes les parties prenantes adéquatement. Les auteurs proposent une approche centrée sur l'humain qui considère les perspectives multiples et fournit une couverture plus complète des impacts de l'IA.

Limitations des taxonomies existantes

  • Focus étroit sur les préoccupations techniques ou réglementaires
  • Exclusion des communautés affectées
  • Couverture incomplète des types de préjudices
  • Manque de perspective interdisciplinaire

Approche centrée sur l'humain

La taxonomie proposée :

  • Incorpore les perspectives de diverses parties prenantes
  • Considère les expériences vécues des personnes affectées
  • Aborde les impacts individuels et sociétaux
  • Soutient les praticiens et les décideurs politiques

À qui s'adresse cette ressource

  • Éthiciens de l'IA développant des cadres de préjudices
  • Défenseurs des droits civiques documentant les impacts de l'IA
  • Chercheurs étudiant les effets sociétaux de l'IA

Mots-clés

gouvernance IAtaxonomie des risquespréjudice algorithmiqueconception centrée sur l'humainsécurité IAclassification des risques

En bref

Publié

2024

Juridiction

Mondial

Catégorie

Risk taxonomies

Accès

Accès public

Construisez votre programme de gouvernance de l'IA

VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.

Une taxonomie collaborative centrée sur l'humain des préjudices de l'IA, algorithmiques et de l'automatisation | Bibliothèque de la gouvernance de l'IA | VerifyWise