Fairlearn se distingue comme la boite a outils open source de reference pour les data scientists et les ingenieurs ML qui doivent evaluer et ameliorer l'equite dans leurs modeles. Contrairement aux larges frameworks ethiques de l'IA, ce package Python devient granulaire avec des metriques, algorithmes et visualisations specifiques qui vous aident a identifier ou les biais s'infiltrent dans votre pipeline ML. Construite par une communaute diverse de contributeurs depuis 2020, elle comble le fosse entre la theorie de l'equite et l'implementation pratique, offrant a la fois des outils de diagnostic pour mesurer l'inequite et des algorithmes d'attenuation pour la traiter.
Fairlearn fournit trois composants de base qui fonctionnent ensemble :
L'installation est simple avec pip install fairlearn, mais le vrai travail commence avec la definition de vos caracteristiques sensibles et contraintes d'equite. La boite a outils brille lorsque vous traitez des problemes de classification ou vous suspectez un impact disparate a travers les groupes demographiques.
Commencez par la classe MetricFrame pour evaluer votre modele existant - elle calcule automatiquement les metriques d'equite a travers vos caracteristiques sensibles specifiees. Si vous decouvrez des problemes, les algorithmes ExponentiatedGradient et GridSearch peuvent vous aider a re-entrainer avec des contraintes d'equite integrees.
Le composant tableau de bord necessite une configuration minimale mais fournit un insight maximal - alimentez-le simplement avec les predictions de votre modele, les etiquettes vraies et les caracteristiques sensibles pour obtenir des visualisations interactives qui rendent les patterns de biais immediatement visibles.
Fairlearn vous oblige a faire des choix explicites sur ce que l'equite signifie pour votre cas d'utilisation - la boite a outils ne fait pas ces decisions pour vous. Differentes metriques d'equite peuvent se contredire, et atteindre une equite parfaite a travers toutes les definitions est souvent mathematiquement impossible.
Les algorithmes d'attenuation peuvent reduire la precision globale du modele en echange d'une equite amelioree. Vous devrez decider si ces compromis sont acceptables pour votre application.
La boite a outils suppose que vous avez identifie les attributs sensibles pertinents, mais elle ne vous aidera pas a decouvrir des sources de biais cachees ou des proxies pour les caracteristiques protegees qui pourraient exister dans vos features.
Fairlearn s'integre bien avec scikit-learn et d'autres bibliotheques ML Python, facilitant son incorporation dans les workflows existants. La communaute open source active ajoute regulierement de nouveaux algorithmes et metriques bases sur les dernieres recherches sur l'equite.
Pour les equipes serieuses concernant l'operationnalisation de l'equite, considerez comment Fairlearn s'integre dans votre pipeline MLOps - les metriques et visualisations deviennent les plus precieuses lorsqu'elles sont appliquees de maniere coherente a travers les phases de developpement, validation et surveillance des modeles.
Publié
2020
Juridiction
Mondial
Catégorie
Open source governance projects
Accès
Accès public
ISO/IEC 23053:2022 - Cadre pour les systèmes d'IA utilisant l'apprentissage automatique
Standards and certifications • ISO
Cadre pour les systèmes d'intelligence artificielle (IA) utilisant l'apprentissage automatique
Standards and certifications • ISO
Modes de défaillance dans l'apprentissage automatique
Risk taxonomies • Microsoft
VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.