Communaute Open Source
OutilActif

Fairlearn

Communaute Open Source

Voir la ressource originale

Fairlearn

Resume

Fairlearn se distingue comme la boite a outils open source de reference pour les data scientists et les ingenieurs ML qui doivent evaluer et ameliorer l'equite dans leurs modeles. Contrairement aux larges frameworks ethiques de l'IA, ce package Python devient granulaire avec des metriques, algorithmes et visualisations specifiques qui vous aident a identifier ou les biais s'infiltrent dans votre pipeline ML. Construite par une communaute diverse de contributeurs depuis 2020, elle comble le fosse entre la theorie de l'equite et l'implementation pratique, offrant a la fois des outils de diagnostic pour mesurer l'inequite et des algorithmes d'attenuation pour la traiter.

Ce qu'il y a dans la boite a outils

Fairlearn fournit trois composants de base qui fonctionnent ensemble :

  • Metriques d'equite : Fonctions pre-construites pour mesurer differents types d'equite a travers les groupes demographiques, incluant la parite demographique, les chances egalisees et l'egalite des chances. Celles-ci vont au-dela des comparaisons de precision simples pour reveler comment votre modele performe a travers les attributs proteges.
  • Algorithmes d'attenuation : Algorithmes prets a l'emploi qui peuvent reduire l'inequite a travers differentes approches - preprocessing (ajustement des donnees d'entrainement), in-processing (modification de l'algorithme d'apprentissage) et post-processing (ajustement des sorties du modele).
  • Tableau de bord interactif : Un outil de visualisation web qui vous permet d'explorer les metriques d'equite de votre modele a travers differents groupes et contraintes. Vous pouvez comparer plusieurs modeles cote a cote et comprendre les compromis entre precision et equite.

Mettre les mains dans le cambouis

L'installation est simple avec pip install fairlearn, mais le vrai travail commence avec la definition de vos caracteristiques sensibles et contraintes d'equite. La boite a outils brille lorsque vous traitez des problemes de classification ou vous suspectez un impact disparate a travers les groupes demographiques.

Commencez par la classe MetricFrame pour evaluer votre modele existant - elle calcule automatiquement les metriques d'equite a travers vos caracteristiques sensibles specifiees. Si vous decouvrez des problemes, les algorithmes ExponentiatedGradient et GridSearch peuvent vous aider a re-entrainer avec des contraintes d'equite integrees.

Le composant tableau de bord necessite une configuration minimale mais fournit un insight maximal - alimentez-le simplement avec les predictions de votre modele, les etiquettes vraies et les caracteristiques sensibles pour obtenir des visualisations interactives qui rendent les patterns de biais immediatement visibles.

A qui s'adresse cette ressource

  • Data scientists et ingenieurs ML travaillant sur des modeles qui affectent la vie des gens - recrutement, credit, sante, justice penale - ou l'equite n'est pas juste agreable a avoir mais legalement et ethiquement essentielle.
  • Equipes produit qui doivent valider que leurs fonctionnalites alimentees par ML ne discriminent pas les groupes proteges avant la mise en production.
  • Professionnels de la conformite et du risque qui ont besoin de metriques concretes pour demontrer la diligence raisonnable dans les efforts de test et d'attenuation des biais.
  • Chercheurs et etudiants explorant l'equite algorithmique qui veulent une experience pratique avec differentes definitions d'equite et approches d'attenuation.

Points d'attention

Fairlearn vous oblige a faire des choix explicites sur ce que l'equite signifie pour votre cas d'utilisation - la boite a outils ne fait pas ces decisions pour vous. Differentes metriques d'equite peuvent se contredire, et atteindre une equite parfaite a travers toutes les definitions est souvent mathematiquement impossible.

Les algorithmes d'attenuation peuvent reduire la precision globale du modele en echange d'une equite amelioree. Vous devrez decider si ces compromis sont acceptables pour votre application.

La boite a outils suppose que vous avez identifie les attributs sensibles pertinents, mais elle ne vous aidera pas a decouvrir des sources de biais cachees ou des proxies pour les caracteristiques protegees qui pourraient exister dans vos features.

Au-dela des bases

Fairlearn s'integre bien avec scikit-learn et d'autres bibliotheques ML Python, facilitant son incorporation dans les workflows existants. La communaute open source active ajoute regulierement de nouveaux algorithmes et metriques bases sur les dernieres recherches sur l'equite.

Pour les equipes serieuses concernant l'operationnalisation de l'equite, considerez comment Fairlearn s'integre dans votre pipeline MLOps - les metriques et visualisations deviennent les plus precieuses lorsqu'elles sont appliquees de maniere coherente a travers les phases de developpement, validation et surveillance des modeles.

Mots-clés

equite IAapprentissage automatiqueattenuation des biaisopen sourceresponsabilite algorithmiqueboite a outils ethique

En bref

Publié

2020

Juridiction

Mondial

Catégorie

Open source governance projects

Accès

Accès public

Construisez votre programme de gouvernance de l'IA

VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.

Fairlearn | Bibliothèque de la gouvernance de l'IA | VerifyWise