Sigstore
HerramientaActivo

Model Transparency : Securite de la chaine d'approvisionnement pour le ML

Sigstore

Ver recurso original

Model Transparency : Securite de la chaine d'approvisionnement pour le ML

Resume

Model Transparency est la solution codigo abierto de Sigstore au probleme croissant des attaques de chaine d'approvisionnement ML et du suivi de provenance des modeles. Tout comme les packages logiciels ont besoin de signature cryptographique pour verifier leur integrite, les modeles d'aprendizaje automatico necessitent des mesures de securite similaires - mais avec des defis uniques autour des artefacts de modeles, de la lignee des donnees d'entrainement et des pipelines de deploiement. Cet herramienta etend l'infrastructure cryptographique eprouvee de Sigstore pour creer des enregistrements inviolables pour les modeles ML, permettant aux equipes de verifier l'authenticite des modeles, de suivre la provenance et de detecter les modifications non autorisees tout au long du cycle de vie du modele.

Le probleme de securite de la chaine d'approvisionnement ML

La securite logicielle traditionnelle se concentre sur les depots de code et les gestionnaires de packages, mais le ML introduit des vecteurs d'attaque entierement nouveaux. Les modeles peuvent etre empoisonnes pendant l'entrainement, des backdoors peuvent etre integrees dans les poids des modeles et des acteurs malveillants peuvent substituer des modeles legitimes par des versions compromises. Contrairement aux logiciels traditionnels, les modeles ML sont souvent distribues comme des artefacts binaires avec des mecanismes internes opaques, rendant la falsification difficile a detecter.

Model Transparency repond a ces defis en creant des signatures cryptographiques pour les artefacts de modeles a des points cles du pipeline ML - de l'achevement de l'entrainement au deploiement. L'herramienta s'integre avec les frameworks ML populaires et les registres de modeles, generant automatiquement des attestations verifiables qui incluent les metadonnees du modele, la provenance de l'entrainement et les informations de dependances.

Fonctionnalites et capacites principales

  • Signature cryptographique de modeles : Exploite la signature basee sur les certificats de Sigstore pour creer des sceaux inviolables pour les fichiers de modeles, assurant que toute modification non autorisee est detectable.
  • Suivi de provenance : Capture et lie cryptographiquement automatiquement les metadonnees sur les sources de donnees d'entrainement, les versions de framework, les configurations materielles et les procedures d'entrainement aux artefacts de modeles.
  • Conception axee sur l'integration : Fonctionne avec les toolchains ML existantes incluant MLflow, Weights & Biases, Hugging Face Hub et les principales plataformas cloud ML sans necessiter de refonte des workflows.
  • Journal de Transparencia : Toutes les signatures de modeles sont enregistrees dans un journal de Transparencia public et immuable (similaire a Certificate Transparency pour le PKI web), permettant une visibilite a l'echelle de l'ecosysteme dans la provenance des modeles.
  • API de verification : Fournit des API simples et des Herramientas CLI pour que les consommateurs en aval verifient l'authenticite des modeles avant le chargement ou le deploiement, avec des resultats clairs reussite/echec.

A qui s'adresse cette ressource

  • Ingenieurs de plataforma ML construisant des registres de modeles internes et des pipelines de deploiement qui ont besoin d'implementer des controles de securite autour de la distribution des modeles et de prevenir la substitution non autorisee de modeles.
  • Equipes de securite dans les organizacions utilisant des modeles tiers ou operant dans des industries reglementees ou la provenance et la verification d'integrite des modeles sont des exigences de conformite.
  • Projets ML codigo abierto qui distribuent des modeles pre-entraines et veulent fournir aux utilisateurs des garanties cryptographiques sur l'authenticite des modeles et la provenance du build.
  • Equipes MLOps implementant le CI/CD pour l'aprendizaje automatico qui ont besoin d'integrer des points de controle de securite dans les workflows automatises d'entrainement et de deploiement.
  • Equipes de red team IA et investigadors etudiant les attaques de chaine d'approvisionnement ML qui ont besoin d'Herramientas pour demontrer les vulnerabilites et valider les controles de securite.

Demarrer avec l'implementation

Commencez par installer le CLI Model Transparency et l'integrer dans votre pipeline d'entrainement de modeles au point ou les artefacts finaux du modele sont sauvegardes. L'herramienta peut signer les modeles automatiquement dans le marco de votre workflow MLOps ou etre invoque manuellement pour une signature ad-hoc.

Pour la verification, implementez des controles au moment du chargement du modele dans vos services d'inference ou scripts de deploiement. Le Procesos de verification est concu pour etre rapide et leger, adapte aux verifications runtime sans impacto significatif sur les performances.

Le projet fournit des exemples pour des scenarios courants incluant le deploiement de modeles containerises, l'inference serverless et le deploiement edge ou la connectivite au journal de Transparencia peut etre intermittente.

Considerations techniques et Limitaciones

Model Transparency necessite une connectivite reseau a l'infrastructure publique de Sigstore pour la signature et la verification, ce qui peut ne pas etre adapte aux environnements air-gapped. Cependant, la feuille de route du projet inclut le support pour les deploiements Sigstore prives.

Les grands fichiers de modeles (modeles transformer de plusieurs Go) necessitent une gestion soigneuse du Procesos de signature, car l'herramienta doit calculer des hashes cryptographiques sur l'ensemble de l'artefact du modele. Le projet fournit des conseils pour optimiser cela pour differents backends de stockage.

L'herramienta se concentre actuellement sur les artefacts de modeles eux-memes plutot que sur la provenance des donnees d'entrainement - bien qu'il puisse enregistrer des metadonnees sur les sources de donnees, il ne fournit pas de garanties cryptographiques sur l'integrite ou la conformite des licences des donnees d'entrainement.

FAQ

Q : Est-ce que cela fonctionne avec des modeles entraines sur des jeux de donnees proprietaires ?

  • Q : Que se passe-t-il si l'infrastructure Sigstore est indisponible ?
  • Q : Est-ce que cela peut detecter les backdoors ou l'empoisonnement de modeles ?

Etiquetas

securite chaine d'approvisionnementTransparencia MLprovenance des modelescodigo abiertoherramientalage securitegobernanza IA

De un vistazo

Publicado

2024

Jurisdicción

Global

Categoría

Open source governance projects

Acceso

Acceso público

Construya su programa de gobernanza de IA

VerifyWise le ayuda a implementar frameworks de gobernanza de IA, hacer seguimiento del cumplimiento y gestionar riesgos en sus sistemas de IA.

Model Transparency : Securite de la chaine d'approvisionnement pour le ML | Biblioteca de Gobernanza de IA | VerifyWise