Fairlearn se distingue comme la boite a Herramientas codigo abierto de reference pour les data scientists et les ingenieurs ML qui doivent evaluer et ameliorer l'equite dans leurs modeles. Contrairement aux larges frameworks ethiques de l'IA, ce package Python devient granulaire avec des metriques, algoritmos et visualisations specifiques qui vous aident a identifier ou les sesgo s'infiltrent dans votre pipeline ML. Construite par une communaute diverse de contributeurs depuis 2020, elle comble le fosse entre la theorie de l'equite et l'implementation pratique, offrant a la fois des Herramientas de diagnostic pour mesurer l'inequite et des algoritmos d'attenuation pour la traiter.
Fairlearn fournit trois composants de base qui fonctionnent ensemble :
L'installation est simple avec pip install fairlearn, mais le vrai travail commence avec la definition de vos caracteristiques sensibles et contraintes d'equite. La boite a Herramientas brille lorsque vous traitez des problemes de classification ou vous suspectez un impacto disparate a travers les groupes demographiques.
Commencez par la classe MetricFrame pour evaluer votre modele existant - elle calcule automatiquement les metriques d'equite a travers vos caracteristiques sensibles specifiees. Si vous decouvrez des problemes, les algoritmos ExponentiatedGradient et GridSearch peuvent vous aider a re-entrainer avec des contraintes d'equite integrees.
Le composant tableau de bord necessite une configuration minimale mais fournit un insight maximal - alimentez-le simplement avec les predictions de votre modele, les etiquettes vraies et les caracteristiques sensibles pour obtenir des visualisations interactives qui rendent les patterns de sesgo immediatement visibles.
Fairlearn vous oblige a faire des choix explicites sur ce que l'equite signifie pour votre cas d'utilisation - la boite a Herramientas ne fait pas ces decisions pour vous. Differentes metriques d'equite peuvent se contredire, et atteindre une equite parfaite a travers toutes les definitions est souvent mathematiquement impossible.
Les algoritmos d'attenuation peuvent reduire la precision globale du modele en echange d'une equite amelioree. Vous devrez decider si ces compromis sont acceptables pour votre application.
La boite a Herramientas suppose que vous avez identifie les attributs sensibles pertinents, mais elle ne vous aidera pas a decouvrir des sources de sesgo cachees ou des proxies pour les caracteristiques protegees qui pourraient exister dans vos features.
Fairlearn s'integre bien avec scikit-learn et d'autres bibliotheques ML Python, facilitant son incorporation dans les workflows existants. La communaute codigo abierto active ajoute regulierement de nouveaux algoritmos et metriques bases sur les dernieres Investigacions sur l'equite.
Pour les equipes serieuses concernant l'operationnalisation de l'equite, considerez comment Fairlearn s'integre dans votre pipeline MLOps - les metriques et visualisations deviennent les plus precieuses lorsqu'elles sont appliquees de maniere coherente a travers les phases de developpement, validation et vigilancia des modeles.
Publicado
2020
Jurisdicción
Global
CategorÃa
Open source governance projects
Acceso
Acceso público
ISO/IEC 23053:2022 - Marco para sistemas de IA que utilizan aprendizaje automatico
Standards and certifications • ISO
Marco para sistemas de inteligencia artificial (IA) que utilizan aprendizaje automatico
Standards and certifications • ISO
Modes de défaillance dans l'aprendizaje automatico
Risk taxonomies • Microsoft
VerifyWise le ayuda a implementar frameworks de gobernanza de IA, hacer seguimiento del cumplimiento y gestionar riesgos en sus sistemas de IA.