Volver a la biblioteca

Open source governance projects

Code and open initiatives.

21 recursos

Tipo:
21 recursos encontrados
HerramientaVerifyWise • 2024

VerifyWise - Plataforma codigo abierto de gobernanza IA

Plataforma codigo abierto de gobernanza IA pour gerer la conformite IA, les evaluations des riesgos et la Documentacion. Prend en charge les workflows de conformite au Reglement IA de l'UE, ISO 42001 et NIST AI RMF.

Plataformas de gobernanza
HerramientaIBM Research • 2018

AI Fairness 360 (AIF360)

Boite a Herramientas complete pour detecter et attenuer les sesgo dans les modeles d'aprendizaje automatico. Inclut plus de 70 metriques d'equite et 10 algoritmos d'attenuation des sesgo avec support Python et R.

Herramientas d'evaluation des riesgos
HerramientaMicrosoft Research • 2019

InterpretML - Interpretabilite de l'aprendizaje automatico

Boite a Herramientas codigo abierto pour entrainer des modeles interpretables et expliquer les systemes boite noire. Inclut les Explainable Boosting Machines (EBM) et diverses methodes d'explication comme SHAP et LIME.

Herramientas de Transparencia
HerramientaDatabricks • 2018

MLflow - Gestion du cycle de vie ML

Plataforma codigo abierto pour gerer le cycle de vie ML incluant l'experimentation, la reproductibilite, le deploiement et le registre de modeles. Fournit les fondations pour les workflows de gobernanza ML.

Plataformas de gobernanza
HerramientaGiskard • 2022

Giskard - Framework de test et qualite ML

Framework codigo abierto pour tester les modeles ML incluant les LLM. Fournit la detection automatisee des vulnerabilites, les tests de sesgo et l'evaluation de la qualite pour les systemes d'IA.

Herramientas d'evaluation
HerramientaIBM Research • 2018

AI Fairness 360

AI Fairness 360 (AIF360) est une boite a Herramientas codigo abierto complete qui fournit des metriques pour detecter les sesgo indesirables dans les jeux de donnees et les modeles d'aprendizaje automatico. Elle inclut des algoritmos de pointe pour attenuer les sesgo identifies, aidant les developpeurs a construire des systemes d'IA plus equitables.

Plataformas de gobernanza
HerramientaIBM/Linux Foundation AI • 2018

AI Fairness 360

Une boite a Herramientas codigo abierto concue pour aider a detecter et attenuer les sesgo dans les modeles d'aprendizaje automatico a travers divers domaines incluant la Finanzas, la sante et l'education. La plataforma fournit des Herramientas pratiques en Python et R pour traduire la Investigacion sur l'equite en applications du monde reel.

Plataformas de gobernanza
HerramientaIBM • 2024

Boite a Herramientas AI Explainability 360

Une boite a Herramientas codigo abierto extensible concue pour aider les utilisateurs a comprendre comment les modeles d'aprendizaje automatico font des predictions. La boite a Herramientas fournit diverses methodes pour expliquer le comportement des modeles IA tout au long du cycle de vie complet des applications IA.

Plataformas de gobernanza
HerramientaMicrosoft • 2024

Microsoft Responsible AI Toolbox

Le Microsoft Responsible AI Toolbox est une collection d'Herramientas et de fonctionnalites integres concus pour aider les organizacions a operationnaliser les Principios d'IA responsable en pratique. Il fournit des ressources pratiques et des capacites pour implementer des approches d'IA responsable a travers les workflows de developpement et de deploiement de l'IA.

Plataformas de gobernanza
HerramientaMicrosoft • 2024

Herramientas et pratiques d'IA responsable

Collection d'Herramientas et de pratiques d'IA responsable de Microsoft incluant des packages codigo abierto pour evaluer l'equite des systemes IA et attenuer les sesgo. La plataforma fournit des boites a Herramientas pour comprendre les modeles ML glass-box et black-box pour soutenir le developpement d'IA responsable.

Plataformas de gobernanza
HerramientaMicrosoft • 2024

Responsible AI Toolbox

Une suite codigo abierto d'Herramientas fournissant des interfaces d'exploration de modeles et de donnees et des bibliotheques pour une meilleure comprehension des systemes d'IA. Elle inclut des widgets de visualisation et un tableau de bord d'IA responsable qui permet aux developpeurs et aux parties prenantes de developper, evaluer et surveiller les systemes d'IA de maniere plus responsable tout en prenant des decisions eclairees basees sur les donnees.

Plataformas de gobernanza
HerramientaGoogle • 2024

Responsible AI Toolkit

Le Responsible AI Toolkit de TensorFlow est une collection de ressources et d'Herramientas codigo abierto concus pour aider les profesionals de l'aprendizaje automatico a developper des systemes d'IA de maniere responsable. La boite a Herramientas fournit des conseils pratiques et des implementations techniques pour soutenir les pratiques de developpement d'IA responsable au sein de la communaute ML.

Plataformas de gobernanza
HerramientaGoogle • 2020

IA responsable avec TensorFlow

Collection d'Herramientas d'IA responsable de TensorFlow concue pour aider les developpeurs a integrer l'equite, l'interpretabilite, la confidentialite et la securite dans les systemes d'IA. Les Herramientas fournissent des conseils d'implementation pratiques pour le developpement d'IA responsable au sein de l'ecosysteme TensorFlow.

Plataformas de gobernanza
HerramientaGoogle • 2024

Tutoriels d'IA responsable

Une collection de tutoriels et d'Herramientas fournis par TensorFlow pour aider les developpeurs a implementer des pratiques d'IA responsable dans le developpement d'aprendizaje automatico. La ressource s'appuie sur les Principios IA de Google introduits en 2018 et fournit des conseils pratiques pour le developpement ethique de l'IA.

Plataformas de gobernanza
HerramientaCommunaute Open Source • 2020

Fairlearn

Fairlearn est une boite a Herramientas codigo abierto concue pour aider a evaluer et ameliorer l'equite dans les modeles d'aprendizaje automatico. Elle fournit des metriques, des algoritmos et des visualisations pour identifier et attenuer les sesgo dans les systemes d'IA, construite de maniere collaborative par des contributeurs avec des parcours et expertises divers.

Plataformas de gobernanza
HerramientaCommunaute Fairlearn • 2020

Fairlearn : un package Python pour evaluer et ameliorer l'equite des modeles d'aprendizaje automatico

Fairlearn est un package Python codigo abierto qui permet aux developpeurs d'evaluer et d'attenuer les problemes d'equite dans les systemes d'inteligencia artificial. Il fournit des algoritmos d'attenuation et des metriques pour evaluer l'equite des modeles a travers differents groupes demographiques.

Plataformas de gobernanza
HerramientaarXiv • 2023

Fairlearn : Evaluer et ameliorer l'equite des systemes d'IA

Fairlearn est une bibliotheque et un projet Python codigo abierto concu pour aider les profesionals a evaluer et ameliorer l'equite des systemes d'inteligencia artificial. L'herramienta fournit des capacites pour evaluer les sorties des modeles a travers differents groupes affectes et implementer des ameliorations d'equite dans les systemes d'IA.

Plataformas de gobernanza
InformeOvalEdge • 2024

Top 5 des Herramientas codigo abierto de gobernanza des donnees alimentes par l'IA en 2026

Une analyse complete des principaux Herramientas de gobernanza des donnees codigo abierto alimentes par l'IA, presentant des projets comme Egeria sous la Linux Foundation. Le informe couvre la synchronisation automatisee des metadonnees, les capacites de Investigacion contextuelle et le support des zones de gobernanza pour une meilleure visibilite et interoperabilite des donnees.

Plataformas de gobernanza
HerramientaMeta AI Research • 2024

LLM Transparency Tool (LLM-TT)

Une boite a Herramientas interactive codigo abierto concue pour analyser le fonctionnement interne des modeles de langage bases sur Transformer. L'herramienta fournit des capacites de Transparencia pour aider les investigadors et profesionals a comprendre comment les grands modeles de langage operent en interne, soutenant la gobernanza IA a travers une interpretabilite amelioree des modeles.

Herramientas de Transparencia
InformeCake.ai • 2024

Les 6 meilleurs Herramientas d'IA codigo abierto pour 2026

Un guia complet qui evalue et classe les principaux modeles d'IA codigo abierto incluant LLaMA 4, Mixtral et Gemma sur la base de criteres de performance, de vitesse et de licence. Le informe sert de ressource pour selectionner des Herramientas d'IA codigo abierto appropries avec des considerations de Transparencia pour 2026.

Herramientas de Transparencia
HerramientaSigstore • 2024

Model Transparency : Securite de la chaine d'approvisionnement pour le ML

Un projet codigo abierto axe sur la securite de la chaine d'approvisionnement pour les modeles d'aprendizaje automatico. L'herramienta vise a ameliorer la Transparencia et la confiance dans la distribution et le deploiement des modeles ML a travers des mecanismes de signature et de verification cryptographiques.

Herramientas de Transparencia
Open source governance projects | Biblioteca de Gobernanza de IA | VerifyWise