Practical how-to material.
18 ressources
Guide d'implémentation complet pour le cadre de gestion des risques de l'IA du NIST. Inclut des correspondances avec d'autres cadres, des actions suggérées et des exemples pratiques d'implémentation pour chaque composant du cadre.
Guide pour implémenter les exigences du système de management de l'IA ISO 42001. Couvre l'analyse des écarts, les exigences de documentation, l'implémentation des contrôles et la préparation aux audits de certification.
Patterns architecturaux pour implémenter la gouvernance ML tout au long du cycle de vie des modèles. Couvre l'entraînement continu, les pipelines de déploiement, la surveillance des modèles et les vérifications de conformité automatisées.
Guide pour implémenter la surveillance de l'IA responsable dans les systèmes de production. Couvre la surveillance de l'équité, le suivi des performances des modèles, la détection de dérive des données et les tableaux de bord d'explicabilité.
Un guide complet fournissant les meilleures pratiques pour l'implémentation de la gouvernance de l'IA. La ressource couvre les exigences de capacité organisationnelle et les critères de sélection des cadres, avec un accent sur les principes de transparence, d'équité et de responsabilité.
Cette ressource examine les cadres de gouvernance de l'IA existants et fournit des conseils sur leur implémentation pour aider les organisations à construire des systèmes IA conformes. Elle se concentre sur l'évitement des risques de conformité et le renforcement de l'équité.
Une boîte à outils conçue pour aider les développeurs à identifier de manière proactive les risques potentiels dans les applications IA et à implémenter des approches au niveau système pour construire des systèmes d'IA générative sûrs et responsables.
La boîte à outils complète de TensorFlow pour intégrer les pratiques d'IA responsable dans les workflows de machine learning. Fournit des outils et ressources pour aider les développeurs à implémenter les principes d'IA éthique tout au long du processus de développement ML.
La collection d'outils d'IA responsable de Microsoft incluant le tableau de bord d'IA responsable pour évaluer et améliorer l'équité, la précision et l'explicabilité des modèles. La plateforme fournit des packages open source pour évaluer l'équité des systèmes IA et atténuer les biais observés.
Le cadre complet du NIST pour gérer les risques de l'IA avec des playbooks et ressources d'implémentation accompagnants. Lancé aux côtés du centre de ressources d'IA de confiance et responsable en mars 2023 pour faciliter l'implémentation pratique des pratiques de gestion des risques de l'IA.
Les conseils d'IBM sur la conduite d'évaluations des risques et d'audits tout au long du cycle de vie de l'IA. La ressource couvre l'identification des risques potentiels et vulnérabilités dans les systèmes IA et l'implémentation de stratégies d'atténuation appropriées.
Le cadre volontaire du NIST pour gérer les risques associés aux systèmes IA tout au long de leur cycle de vie. Le cadre est conçu pour être flexible, respectueux des droits et applicable à travers les secteurs et cas d'usage pour promouvoir le développement et le déploiement d'une IA de confiance et responsable.
Une liste de contrôle complète de gouvernance de l'IA qui combine les considérations de cybersécurité et de gouvernance pour 2025. La ressource fournit un cadre pratique pour construire la confiance, optimiser les dépenses et assurer l'alignement avec les exigences de gouvernance de l'IA incluant les meilleures pratiques LLM.
Une liste de contrôle complète étape par étape conçue pour les leaders technologiques afin d'implémenter les pratiques de gouvernance de l'IA en 2025. Le guide se concentre sur la gestion des risques liés à l'IA, l'assurance de la transparence et l'alignement des systèmes IA avec les normes mondiales et les exigences réglementaires.
Une liste de contrôle complète fournissant les étapes clés pour implémenter un cadre de gouvernance de l'IA dans les organisations américaines. La ressource aborde les considérations de gestion des risques tout au long du cycle de vie de l'IA incluant la conception, le développement, l'utilisation et le déploiement des systèmes IA.
Une ressource vivante maintenue par le CAIO et l'équipe de sécurité de l'IA de la GSA qui suit les projets IA de l'idéation à l'implémentation. Elle sert d'inventaire pour surveiller la conformité, évaluer les performances et identifier les opportunités de réplication ou d'amélioration à travers les initiatives IA gouvernementales.
Un guide complet expliquant les exigences de conformité IA et fournissant des cadres pour aligner les systèmes IA avec les normes juridiques et éthiques. La ressource couvre les meilleures pratiques et méthodologies éprouvées pour implémenter une gouvernance IA conforme à travers les organisations.
Un guide complet pour construire et implémenter des modèles d'intelligence artificielle conformes. La ressource se concentre sur la compréhension des paysages réglementaires pertinents incluant le RGPD, HIPAA et le règlement européen sur l'IA pour assurer que les systèmes IA répondent aux exigences de conformité à travers différentes industries.