Code and open initiatives.
21 recursos
Plataforma codigo abierto de gobernanza IA pour gerer la conformite IA, les evaluations des riesgos et la Documentacion. Prend en charge les workflows de conformite au Reglement IA de l'UE, ISO 42001 et NIST AI RMF.
Boite a Herramientas complete pour detecter et attenuer les sesgo dans les modeles d'aprendizaje automatico. Inclut plus de 70 metriques d'equite et 10 algoritmos d'attenuation des sesgo avec support Python et R.
Boite a Herramientas codigo abierto pour entrainer des modeles interpretables et expliquer les systemes boite noire. Inclut les Explainable Boosting Machines (EBM) et diverses methodes d'explication comme SHAP et LIME.
Plataforma codigo abierto pour gerer le cycle de vie ML incluant l'experimentation, la reproductibilite, le deploiement et le registre de modeles. Fournit les fondations pour les workflows de gobernanza ML.
Framework codigo abierto pour tester les modeles ML incluant les LLM. Fournit la detection automatisee des vulnerabilites, les tests de sesgo et l'evaluation de la qualite pour les systemes d'IA.
AI Fairness 360 (AIF360) est une boite a Herramientas codigo abierto complete qui fournit des metriques pour detecter les sesgo indesirables dans les jeux de donnees et les modeles d'aprendizaje automatico. Elle inclut des algoritmos de pointe pour attenuer les sesgo identifies, aidant les developpeurs a construire des systemes d'IA plus equitables.
Une boite a Herramientas codigo abierto concue pour aider a detecter et attenuer les sesgo dans les modeles d'aprendizaje automatico a travers divers domaines incluant la Finanzas, la sante et l'education. La plataforma fournit des Herramientas pratiques en Python et R pour traduire la Investigacion sur l'equite en applications du monde reel.
Une boite a Herramientas codigo abierto extensible concue pour aider les utilisateurs a comprendre comment les modeles d'aprendizaje automatico font des predictions. La boite a Herramientas fournit diverses methodes pour expliquer le comportement des modeles IA tout au long du cycle de vie complet des applications IA.
Le Microsoft Responsible AI Toolbox est une collection d'Herramientas et de fonctionnalites integres concus pour aider les organizacions a operationnaliser les Principios d'IA responsable en pratique. Il fournit des ressources pratiques et des capacites pour implementer des approches d'IA responsable a travers les workflows de developpement et de deploiement de l'IA.
Collection d'Herramientas et de pratiques d'IA responsable de Microsoft incluant des packages codigo abierto pour evaluer l'equite des systemes IA et attenuer les sesgo. La plataforma fournit des boites a Herramientas pour comprendre les modeles ML glass-box et black-box pour soutenir le developpement d'IA responsable.
Une suite codigo abierto d'Herramientas fournissant des interfaces d'exploration de modeles et de donnees et des bibliotheques pour une meilleure comprehension des systemes d'IA. Elle inclut des widgets de visualisation et un tableau de bord d'IA responsable qui permet aux developpeurs et aux parties prenantes de developper, evaluer et surveiller les systemes d'IA de maniere plus responsable tout en prenant des decisions eclairees basees sur les donnees.
Le Responsible AI Toolkit de TensorFlow est une collection de ressources et d'Herramientas codigo abierto concus pour aider les profesionals de l'aprendizaje automatico a developper des systemes d'IA de maniere responsable. La boite a Herramientas fournit des conseils pratiques et des implementations techniques pour soutenir les pratiques de developpement d'IA responsable au sein de la communaute ML.
Collection d'Herramientas d'IA responsable de TensorFlow concue pour aider les developpeurs a integrer l'equite, l'interpretabilite, la confidentialite et la securite dans les systemes d'IA. Les Herramientas fournissent des conseils d'implementation pratiques pour le developpement d'IA responsable au sein de l'ecosysteme TensorFlow.
Une collection de tutoriels et d'Herramientas fournis par TensorFlow pour aider les developpeurs a implementer des pratiques d'IA responsable dans le developpement d'aprendizaje automatico. La ressource s'appuie sur les Principios IA de Google introduits en 2018 et fournit des conseils pratiques pour le developpement ethique de l'IA.
Fairlearn est une boite a Herramientas codigo abierto concue pour aider a evaluer et ameliorer l'equite dans les modeles d'aprendizaje automatico. Elle fournit des metriques, des algoritmos et des visualisations pour identifier et attenuer les sesgo dans les systemes d'IA, construite de maniere collaborative par des contributeurs avec des parcours et expertises divers.
Fairlearn est un package Python codigo abierto qui permet aux developpeurs d'evaluer et d'attenuer les problemes d'equite dans les systemes d'inteligencia artificial. Il fournit des algoritmos d'attenuation et des metriques pour evaluer l'equite des modeles a travers differents groupes demographiques.
Fairlearn est une bibliotheque et un projet Python codigo abierto concu pour aider les profesionals a evaluer et ameliorer l'equite des systemes d'inteligencia artificial. L'herramienta fournit des capacites pour evaluer les sorties des modeles a travers differents groupes affectes et implementer des ameliorations d'equite dans les systemes d'IA.
Une analyse complete des principaux Herramientas de gobernanza des donnees codigo abierto alimentes par l'IA, presentant des projets comme Egeria sous la Linux Foundation. Le informe couvre la synchronisation automatisee des metadonnees, les capacites de Investigacion contextuelle et le support des zones de gobernanza pour une meilleure visibilite et interoperabilite des donnees.
Une boite a Herramientas interactive codigo abierto concue pour analyser le fonctionnement interne des modeles de langage bases sur Transformer. L'herramienta fournit des capacites de Transparencia pour aider les investigadors et profesionals a comprendre comment les grands modeles de langage operent en interne, soutenant la gobernanza IA a travers une interpretabilite amelioree des modeles.
Un guia complet qui evalue et classe les principaux modeles d'IA codigo abierto incluant LLaMA 4, Mixtral et Gemma sur la base de criteres de performance, de vitesse et de licence. Le informe sert de ressource pour selectionner des Herramientas d'IA codigo abierto appropries avec des considerations de Transparencia pour 2026.
Un projet codigo abierto axe sur la securite de la chaine d'approvisionnement pour les modeles d'aprendizaje automatico. L'herramienta vise a ameliorer la Transparencia et la confiance dans la distribution et le deploiement des modeles ML a travers des mecanismes de signature et de verification cryptographiques.