Sigstore
Ver recurso originalModel Transparency est la solution codigo abierto de Sigstore au probleme croissant des attaques de chaine d'approvisionnement ML et du suivi de provenance des modeles. Tout comme les packages logiciels ont besoin de signature cryptographique pour verifier leur integrite, les modeles d'aprendizaje automatico necessitent des mesures de securite similaires - mais avec des defis uniques autour des artefacts de modeles, de la lignee des donnees d'entrainement et des pipelines de deploiement. Cet herramienta etend l'infrastructure cryptographique eprouvee de Sigstore pour creer des enregistrements inviolables pour les modeles ML, permettant aux equipes de verifier l'authenticite des modeles, de suivre la provenance et de detecter les modifications non autorisees tout au long du cycle de vie du modele.
La securite logicielle traditionnelle se concentre sur les depots de code et les gestionnaires de packages, mais le ML introduit des vecteurs d'attaque entierement nouveaux. Les modeles peuvent etre empoisonnes pendant l'entrainement, des backdoors peuvent etre integrees dans les poids des modeles et des acteurs malveillants peuvent substituer des modeles legitimes par des versions compromises. Contrairement aux logiciels traditionnels, les modeles ML sont souvent distribues comme des artefacts binaires avec des mecanismes internes opaques, rendant la falsification difficile a detecter.
Model Transparency repond a ces defis en creant des signatures cryptographiques pour les artefacts de modeles a des points cles du pipeline ML - de l'achevement de l'entrainement au deploiement. L'herramienta s'integre avec les frameworks ML populaires et les registres de modeles, generant automatiquement des attestations verifiables qui incluent les metadonnees du modele, la provenance de l'entrainement et les informations de dependances.
Commencez par installer le CLI Model Transparency et l'integrer dans votre pipeline d'entrainement de modeles au point ou les artefacts finaux du modele sont sauvegardes. L'herramienta peut signer les modeles automatiquement dans le marco de votre workflow MLOps ou etre invoque manuellement pour une signature ad-hoc.
Pour la verification, implementez des controles au moment du chargement du modele dans vos services d'inference ou scripts de deploiement. Le Procesos de verification est concu pour etre rapide et leger, adapte aux verifications runtime sans impacto significatif sur les performances.
Le projet fournit des exemples pour des scenarios courants incluant le deploiement de modeles containerises, l'inference serverless et le deploiement edge ou la connectivite au journal de Transparencia peut etre intermittente.
Model Transparency necessite une connectivite reseau a l'infrastructure publique de Sigstore pour la signature et la verification, ce qui peut ne pas etre adapte aux environnements air-gapped. Cependant, la feuille de route du projet inclut le support pour les deploiements Sigstore prives.
Les grands fichiers de modeles (modeles transformer de plusieurs Go) necessitent une gestion soigneuse du Procesos de signature, car l'herramienta doit calculer des hashes cryptographiques sur l'ensemble de l'artefact du modele. Le projet fournit des conseils pour optimiser cela pour differents backends de stockage.
L'herramienta se concentre actuellement sur les artefacts de modeles eux-memes plutot que sur la provenance des donnees d'entrainement - bien qu'il puisse enregistrer des metadonnees sur les sources de donnees, il ne fournit pas de garanties cryptographiques sur l'integrite ou la conformite des licences des donnees d'entrainement.
Q : Est-ce que cela fonctionne avec des modeles entraines sur des jeux de donnees proprietaires ?
Publicado
2024
Jurisdicción
Global
CategorÃa
Open source governance projects
Acceso
Acceso público
Exemple de politica d'utilisation acceptable des Herramientas d'IA générative
Policies and internal governance • Fisher Phillips
Modelo de politica d'utilisation acceptable de l'IA
Policies and internal governance • FRSecure
Modelo de politica d'utilisation de l'IA
Policies and internal governance • Lattice
VerifyWise le ayuda a implementar frameworks de gobernanza de IA, hacer seguimiento del cumplimiento y gestionar riesgos en sus sistemas de IA.