Retour à la bibliothèque

Open source governance projects

Code and open initiatives.

21 ressources

Type :
21 ressources trouvée(s)
OutilVerifyWise • 2024

VerifyWise - Plateforme open source de gouvernance IA

Plateforme open source de gouvernance IA pour gerer la conformite IA, les evaluations des risques et la documentation. Prend en charge les workflows de conformite au Reglement IA de l'UE, ISO 42001 et NIST AI RMF.

Plateformes de gouvernance
OutilIBM Research • 2018

AI Fairness 360 (AIF360)

Boite a outils complete pour detecter et attenuer les biais dans les modeles d'apprentissage automatique. Inclut plus de 70 metriques d'equite et 10 algorithmes d'attenuation des biais avec support Python et R.

Outils d'evaluation des risques
OutilMicrosoft Research • 2019

InterpretML - Interpretabilite de l'apprentissage automatique

Boite a outils open source pour entrainer des modeles interpretables et expliquer les systemes boite noire. Inclut les Explainable Boosting Machines (EBM) et diverses methodes d'explication comme SHAP et LIME.

Outils de transparence
OutilDatabricks • 2018

MLflow - Gestion du cycle de vie ML

Plateforme open source pour gerer le cycle de vie ML incluant l'experimentation, la reproductibilite, le deploiement et le registre de modeles. Fournit les fondations pour les workflows de gouvernance ML.

Plateformes de gouvernance
OutilGiskard • 2022

Giskard - Framework de test et qualite ML

Framework open source pour tester les modeles ML incluant les LLM. Fournit la detection automatisee des vulnerabilites, les tests de biais et l'evaluation de la qualite pour les systemes d'IA.

Outils d'evaluation
OutilIBM Research • 2018

AI Fairness 360

AI Fairness 360 (AIF360) est une boite a outils open source complete qui fournit des metriques pour detecter les biais indesirables dans les jeux de donnees et les modeles d'apprentissage automatique. Elle inclut des algorithmes de pointe pour attenuer les biais identifies, aidant les developpeurs a construire des systemes d'IA plus equitables.

Plateformes de gouvernance
OutilIBM/Linux Foundation AI • 2018

AI Fairness 360

Une boite a outils open source concue pour aider a detecter et attenuer les biais dans les modeles d'apprentissage automatique a travers divers domaines incluant la finance, la sante et l'education. La plateforme fournit des outils pratiques en Python et R pour traduire la recherche sur l'equite en applications du monde reel.

Plateformes de gouvernance
OutilIBM • 2024

Boite a outils AI Explainability 360

Une boite a outils open source extensible concue pour aider les utilisateurs a comprendre comment les modeles d'apprentissage automatique font des predictions. La boite a outils fournit diverses methodes pour expliquer le comportement des modeles IA tout au long du cycle de vie complet des applications IA.

Plateformes de gouvernance
OutilMicrosoft • 2024

Microsoft Responsible AI Toolbox

Le Microsoft Responsible AI Toolbox est une collection d'outils et de fonctionnalites integres concus pour aider les organisations a operationnaliser les principes d'IA responsable en pratique. Il fournit des ressources pratiques et des capacites pour implementer des approches d'IA responsable a travers les workflows de developpement et de deploiement de l'IA.

Plateformes de gouvernance
OutilMicrosoft • 2024

Outils et pratiques d'IA responsable

Collection d'outils et de pratiques d'IA responsable de Microsoft incluant des packages open source pour evaluer l'equite des systemes IA et attenuer les biais. La plateforme fournit des boites a outils pour comprendre les modeles ML glass-box et black-box pour soutenir le developpement d'IA responsable.

Plateformes de gouvernance
OutilMicrosoft • 2024

Responsible AI Toolbox

Une suite open source d'outils fournissant des interfaces d'exploration de modeles et de donnees et des bibliotheques pour une meilleure comprehension des systemes d'IA. Elle inclut des widgets de visualisation et un tableau de bord d'IA responsable qui permet aux developpeurs et aux parties prenantes de developper, evaluer et surveiller les systemes d'IA de maniere plus responsable tout en prenant des decisions eclairees basees sur les donnees.

Plateformes de gouvernance
OutilGoogle • 2024

Responsible AI Toolkit

Le Responsible AI Toolkit de TensorFlow est une collection de ressources et d'outils open source concus pour aider les praticiens de l'apprentissage automatique a developper des systemes d'IA de maniere responsable. La boite a outils fournit des conseils pratiques et des implementations techniques pour soutenir les pratiques de developpement d'IA responsable au sein de la communaute ML.

Plateformes de gouvernance
OutilGoogle • 2020

IA responsable avec TensorFlow

Collection d'outils d'IA responsable de TensorFlow concue pour aider les developpeurs a integrer l'equite, l'interpretabilite, la confidentialite et la securite dans les systemes d'IA. Les outils fournissent des conseils d'implementation pratiques pour le developpement d'IA responsable au sein de l'ecosysteme TensorFlow.

Plateformes de gouvernance
OutilGoogle • 2024

Tutoriels d'IA responsable

Une collection de tutoriels et d'outils fournis par TensorFlow pour aider les developpeurs a implementer des pratiques d'IA responsable dans le developpement d'apprentissage automatique. La ressource s'appuie sur les principes IA de Google introduits en 2018 et fournit des conseils pratiques pour le developpement ethique de l'IA.

Plateformes de gouvernance
OutilCommunaute Open Source • 2020

Fairlearn

Fairlearn est une boite a outils open source concue pour aider a evaluer et ameliorer l'equite dans les modeles d'apprentissage automatique. Elle fournit des metriques, des algorithmes et des visualisations pour identifier et attenuer les biais dans les systemes d'IA, construite de maniere collaborative par des contributeurs avec des parcours et expertises divers.

Plateformes de gouvernance
OutilCommunaute Fairlearn • 2020

Fairlearn : un package Python pour evaluer et ameliorer l'equite des modeles d'apprentissage automatique

Fairlearn est un package Python open source qui permet aux developpeurs d'evaluer et d'attenuer les problemes d'equite dans les systemes d'intelligence artificielle. Il fournit des algorithmes d'attenuation et des metriques pour evaluer l'equite des modeles a travers differents groupes demographiques.

Plateformes de gouvernance
OutilarXiv • 2023

Fairlearn : Evaluer et ameliorer l'equite des systemes d'IA

Fairlearn est une bibliotheque et un projet Python open source concu pour aider les praticiens a evaluer et ameliorer l'equite des systemes d'intelligence artificielle. L'outil fournit des capacites pour evaluer les sorties des modeles a travers differents groupes affectes et implementer des ameliorations d'equite dans les systemes d'IA.

Plateformes de gouvernance
RapportOvalEdge • 2024

Top 5 des outils open source de gouvernance des donnees alimentes par l'IA en 2026

Une analyse complete des principaux outils de gouvernance des donnees open source alimentes par l'IA, presentant des projets comme Egeria sous la Linux Foundation. Le rapport couvre la synchronisation automatisee des metadonnees, les capacites de recherche contextuelle et le support des zones de gouvernance pour une meilleure visibilite et interoperabilite des donnees.

Plateformes de gouvernance
OutilMeta AI Research • 2024

LLM Transparency Tool (LLM-TT)

Une boite a outils interactive open source concue pour analyser le fonctionnement interne des modeles de langage bases sur Transformer. L'outil fournit des capacites de transparence pour aider les chercheurs et praticiens a comprendre comment les grands modeles de langage operent en interne, soutenant la gouvernance IA a travers une interpretabilite amelioree des modeles.

Outils de transparence
RapportCake.ai • 2024

Les 6 meilleurs outils d'IA open source pour 2026

Un guide complet qui evalue et classe les principaux modeles d'IA open source incluant LLaMA 4, Mixtral et Gemma sur la base de criteres de performance, de vitesse et de licence. Le rapport sert de ressource pour selectionner des outils d'IA open source appropries avec des considerations de transparence pour 2026.

Outils de transparence
OutilSigstore • 2024

Model Transparency : Securite de la chaine d'approvisionnement pour le ML

Un projet open source axe sur la securite de la chaine d'approvisionnement pour les modeles d'apprentissage automatique. L'outil vise a ameliorer la transparence et la confiance dans la distribution et le deploiement des modeles ML a travers des mecanismes de signature et de verification cryptographiques.

Outils de transparence
Open source governance projects | Bibliothèque de la gouvernance de l'IA | VerifyWise