Code and open initiatives.
21 ressources
Plateforme open source de gouvernance IA pour gerer la conformite IA, les evaluations des risques et la documentation. Prend en charge les workflows de conformite au Reglement IA de l'UE, ISO 42001 et NIST AI RMF.
Boite a outils complete pour detecter et attenuer les biais dans les modeles d'apprentissage automatique. Inclut plus de 70 metriques d'equite et 10 algorithmes d'attenuation des biais avec support Python et R.
Boite a outils open source pour entrainer des modeles interpretables et expliquer les systemes boite noire. Inclut les Explainable Boosting Machines (EBM) et diverses methodes d'explication comme SHAP et LIME.
Plateforme open source pour gerer le cycle de vie ML incluant l'experimentation, la reproductibilite, le deploiement et le registre de modeles. Fournit les fondations pour les workflows de gouvernance ML.
Framework open source pour tester les modeles ML incluant les LLM. Fournit la detection automatisee des vulnerabilites, les tests de biais et l'evaluation de la qualite pour les systemes d'IA.
AI Fairness 360 (AIF360) est une boite a outils open source complete qui fournit des metriques pour detecter les biais indesirables dans les jeux de donnees et les modeles d'apprentissage automatique. Elle inclut des algorithmes de pointe pour attenuer les biais identifies, aidant les developpeurs a construire des systemes d'IA plus equitables.
Une boite a outils open source concue pour aider a detecter et attenuer les biais dans les modeles d'apprentissage automatique a travers divers domaines incluant la finance, la sante et l'education. La plateforme fournit des outils pratiques en Python et R pour traduire la recherche sur l'equite en applications du monde reel.
Une boite a outils open source extensible concue pour aider les utilisateurs a comprendre comment les modeles d'apprentissage automatique font des predictions. La boite a outils fournit diverses methodes pour expliquer le comportement des modeles IA tout au long du cycle de vie complet des applications IA.
Le Microsoft Responsible AI Toolbox est une collection d'outils et de fonctionnalites integres concus pour aider les organisations a operationnaliser les principes d'IA responsable en pratique. Il fournit des ressources pratiques et des capacites pour implementer des approches d'IA responsable a travers les workflows de developpement et de deploiement de l'IA.
Collection d'outils et de pratiques d'IA responsable de Microsoft incluant des packages open source pour evaluer l'equite des systemes IA et attenuer les biais. La plateforme fournit des boites a outils pour comprendre les modeles ML glass-box et black-box pour soutenir le developpement d'IA responsable.
Une suite open source d'outils fournissant des interfaces d'exploration de modeles et de donnees et des bibliotheques pour une meilleure comprehension des systemes d'IA. Elle inclut des widgets de visualisation et un tableau de bord d'IA responsable qui permet aux developpeurs et aux parties prenantes de developper, evaluer et surveiller les systemes d'IA de maniere plus responsable tout en prenant des decisions eclairees basees sur les donnees.
Le Responsible AI Toolkit de TensorFlow est une collection de ressources et d'outils open source concus pour aider les praticiens de l'apprentissage automatique a developper des systemes d'IA de maniere responsable. La boite a outils fournit des conseils pratiques et des implementations techniques pour soutenir les pratiques de developpement d'IA responsable au sein de la communaute ML.
Collection d'outils d'IA responsable de TensorFlow concue pour aider les developpeurs a integrer l'equite, l'interpretabilite, la confidentialite et la securite dans les systemes d'IA. Les outils fournissent des conseils d'implementation pratiques pour le developpement d'IA responsable au sein de l'ecosysteme TensorFlow.
Une collection de tutoriels et d'outils fournis par TensorFlow pour aider les developpeurs a implementer des pratiques d'IA responsable dans le developpement d'apprentissage automatique. La ressource s'appuie sur les principes IA de Google introduits en 2018 et fournit des conseils pratiques pour le developpement ethique de l'IA.
Fairlearn est une boite a outils open source concue pour aider a evaluer et ameliorer l'equite dans les modeles d'apprentissage automatique. Elle fournit des metriques, des algorithmes et des visualisations pour identifier et attenuer les biais dans les systemes d'IA, construite de maniere collaborative par des contributeurs avec des parcours et expertises divers.
Fairlearn est un package Python open source qui permet aux developpeurs d'evaluer et d'attenuer les problemes d'equite dans les systemes d'intelligence artificielle. Il fournit des algorithmes d'attenuation et des metriques pour evaluer l'equite des modeles a travers differents groupes demographiques.
Fairlearn est une bibliotheque et un projet Python open source concu pour aider les praticiens a evaluer et ameliorer l'equite des systemes d'intelligence artificielle. L'outil fournit des capacites pour evaluer les sorties des modeles a travers differents groupes affectes et implementer des ameliorations d'equite dans les systemes d'IA.
Une analyse complete des principaux outils de gouvernance des donnees open source alimentes par l'IA, presentant des projets comme Egeria sous la Linux Foundation. Le rapport couvre la synchronisation automatisee des metadonnees, les capacites de recherche contextuelle et le support des zones de gouvernance pour une meilleure visibilite et interoperabilite des donnees.
Une boite a outils interactive open source concue pour analyser le fonctionnement interne des modeles de langage bases sur Transformer. L'outil fournit des capacites de transparence pour aider les chercheurs et praticiens a comprendre comment les grands modeles de langage operent en interne, soutenant la gouvernance IA a travers une interpretabilite amelioree des modeles.
Un guide complet qui evalue et classe les principaux modeles d'IA open source incluant LLaMA 4, Mixtral et Gemma sur la base de criteres de performance, de vitesse et de licence. Le rapport sert de ressource pour selectionner des outils d'IA open source appropries avec des considerations de transparence pour 2026.
Un projet open source axe sur la securite de la chaine d'approvisionnement pour les modeles d'apprentissage automatique. L'outil vise a ameliorer la transparence et la confiance dans la distribution et le deploiement des modeles ML a travers des mecanismes de signature et de verification cryptographiques.