Open source governance projects
Code and open initiatives.
21 recursos
VerifyWise - Plataforma codigo abierto de gobernanza IA
Plataforma codigo abierto de gobernanza IA pour gerer la conformite IA, les evaluations des riesgos et la Documentacion. Prend en charge les workflows de conformite au Reglement IA de l'UE, ISO 42001 et NIST AI RMF.
AI Fairness 360 (AIF360)
Boite a Herramientas complete pour detecter et attenuer les sesgo dans les modeles d'aprendizaje automatico. Inclut plus de 70 metriques d'equite et 10 algoritmos d'attenuation des sesgo avec support Python et R.
InterpretML - Interpretabilite de l'aprendizaje automatico
Boite a Herramientas codigo abierto pour entrainer des modeles interpretables et expliquer les systemes boite noire. Inclut les Explainable Boosting Machines (EBM) et diverses methodes d'explication comme SHAP et LIME.
MLflow - Gestion du cycle de vie ML
Plataforma codigo abierto pour gerer le cycle de vie ML incluant l'experimentation, la reproductibilite, le deploiement et le registre de modeles. Fournit les fondations pour les workflows de gobernanza ML.
Giskard - Framework de test et qualite ML
Framework codigo abierto pour tester les modeles ML incluant les LLM. Fournit la detection automatisee des vulnerabilites, les tests de sesgo et l'evaluation de la qualite pour les systemes d'IA.
AI Fairness 360
AI Fairness 360 (AIF360) est une boite a Herramientas codigo abierto complete qui fournit des metriques pour detecter les sesgo indesirables dans les jeux de donnees et les modeles d'aprendizaje automatico. Elle inclut des algoritmos de pointe pour attenuer les sesgo identifies, aidant les developpeurs a construire des systemes d'IA plus equitables.
AI Fairness 360
Une boite a Herramientas codigo abierto concue pour aider a detecter et attenuer les sesgo dans les modeles d'aprendizaje automatico a travers divers domaines incluant la Finanzas, la sante et l'education. La plataforma fournit des Herramientas pratiques en Python et R pour traduire la Investigacion sur l'equite en applications du monde reel.
Boite a Herramientas AI Explainability 360
Une boite a Herramientas codigo abierto extensible concue pour aider les utilisateurs a comprendre comment les modeles d'aprendizaje automatico font des predictions. La boite a Herramientas fournit diverses methodes pour expliquer le comportement des modeles IA tout au long du cycle de vie complet des applications IA.
Microsoft Responsible AI Toolbox
Le Microsoft Responsible AI Toolbox est une collection d'Herramientas et de fonctionnalites integres concus pour aider les organizacions a operationnaliser les Principios d'IA responsable en pratique. Il fournit des ressources pratiques et des capacites pour implementer des approches d'IA responsable a travers les workflows de developpement et de deploiement de l'IA.
Herramientas et pratiques d'IA responsable
Collection d'Herramientas et de pratiques d'IA responsable de Microsoft incluant des packages codigo abierto pour evaluer l'equite des systemes IA et attenuer les sesgo. La plataforma fournit des boites a Herramientas pour comprendre les modeles ML glass-box et black-box pour soutenir le developpement d'IA responsable.
Responsible AI Toolbox
Une suite codigo abierto d'Herramientas fournissant des interfaces d'exploration de modeles et de donnees et des bibliotheques pour une meilleure comprehension des systemes d'IA. Elle inclut des widgets de visualisation et un tableau de bord d'IA responsable qui permet aux developpeurs et aux parties prenantes de developper, evaluer et surveiller les systemes d'IA de maniere plus responsable tout en prenant des decisions eclairees basees sur les donnees.
Responsible AI Toolkit
Le Responsible AI Toolkit de TensorFlow est une collection de ressources et d'Herramientas codigo abierto concus pour aider les profesionals de l'aprendizaje automatico a developper des systemes d'IA de maniere responsable. La boite a Herramientas fournit des conseils pratiques et des implementations techniques pour soutenir les pratiques de developpement d'IA responsable au sein de la communaute ML.
IA responsable avec TensorFlow
Collection d'Herramientas d'IA responsable de TensorFlow concue pour aider les developpeurs a integrer l'equite, l'interpretabilite, la confidentialite et la securite dans les systemes d'IA. Les Herramientas fournissent des conseils d'implementation pratiques pour le developpement d'IA responsable au sein de l'ecosysteme TensorFlow.
Tutoriels d'IA responsable
Une collection de tutoriels et d'Herramientas fournis par TensorFlow pour aider les developpeurs a implementer des pratiques d'IA responsable dans le developpement d'aprendizaje automatico. La ressource s'appuie sur les Principios IA de Google introduits en 2018 et fournit des conseils pratiques pour le developpement ethique de l'IA.
Fairlearn
Fairlearn est une boite a Herramientas codigo abierto concue pour aider a evaluer et ameliorer l'equite dans les modeles d'aprendizaje automatico. Elle fournit des metriques, des algoritmos et des visualisations pour identifier et attenuer les sesgo dans les systemes d'IA, construite de maniere collaborative par des contributeurs avec des parcours et expertises divers.
Fairlearn : un package Python pour evaluer et ameliorer l'equite des modeles d'aprendizaje automatico
Fairlearn est un package Python codigo abierto qui permet aux developpeurs d'evaluer et d'attenuer les problemes d'equite dans les systemes d'inteligencia artificial. Il fournit des algoritmos d'attenuation et des metriques pour evaluer l'equite des modeles a travers differents groupes demographiques.
Fairlearn : Evaluer et ameliorer l'equite des systemes d'IA
Fairlearn est une bibliotheque et un projet Python codigo abierto concu pour aider les profesionals a evaluer et ameliorer l'equite des systemes d'inteligencia artificial. L'herramienta fournit des capacites pour evaluer les sorties des modeles a travers differents groupes affectes et implementer des ameliorations d'equite dans les systemes d'IA.
Top 5 des Herramientas codigo abierto de gobernanza des donnees alimentes par l'IA en 2026
Une analyse complete des principaux Herramientas de gobernanza des donnees codigo abierto alimentes par l'IA, presentant des projets comme Egeria sous la Linux Foundation. Le informe couvre la synchronisation automatisee des metadonnees, les capacites de Investigacion contextuelle et le support des zones de gobernanza pour une meilleure visibilite et interoperabilite des donnees.
LLM Transparency Tool (LLM-TT)
Une boite a Herramientas interactive codigo abierto concue pour analyser le fonctionnement interne des modeles de langage bases sur Transformer. L'herramienta fournit des capacites de Transparencia pour aider les investigadors et profesionals a comprendre comment les grands modeles de langage operent en interne, soutenant la gobernanza IA a travers une interpretabilite amelioree des modeles.
Les 6 meilleurs Herramientas d'IA codigo abierto pour 2026
Un guia complet qui evalue et classe les principaux modeles d'IA codigo abierto incluant LLaMA 4, Mixtral et Gemma sur la base de criteres de performance, de vitesse et de licence. Le informe sert de ressource pour selectionner des Herramientas d'IA codigo abierto appropries avec des considerations de Transparencia pour 2026.
Model Transparency : Securite de la chaine d'approvisionnement pour le ML
Un projet codigo abierto axe sur la securite de la chaine d'approvisionnement pour les modeles d'aprendizaje automatico. L'herramienta vise a ameliorer la Transparencia et la confiance dans la distribution et le deploiement des modeles ML a travers des mecanismes de signature et de verification cryptographiques.