Artifacts required or recommended for explainability and oversight.
16 ressources
L'article fondateur introduisant les cartes de modèle comme cadre pour documenter les modèles d'apprentissage automatique. Les cartes de modèle fournissent une documentation standardisée couvrant les utilisations prévues, les métriques de performance entre groupes, les considérations éthiques et les limitations.
Le guide et les modèles de Hugging Face pour créer des cartes de modèle. Il fournit des conseils pratiques sur la documentation des détails du modèle, des utilisations prévues, des biais et limitations, des données d'entraînement et des résultats d'évaluation dans un format standardisé.
Un cadre pour documenter les jeux de données utilisés en apprentissage automatique. Les fiches techniques répondent aux questions sur la motivation, la composition, le processus de collecte, le prétraitement, les utilisations, la distribution et la maintenance pour faciliter une utilisation responsable des données.
La carte système d'OpenAI pour GPT-4 documente les capacités, limitations et évaluations de sécurité du modèle. Elle sert d'exemple de documentation complète de système IA couvrant l'évaluation des risques, les mesures d'atténuation de sécurité et les considérations de déploiement.
Les cartes de modèle sont des modèles structurés qui fournissent des aperçus standardisés de la conception et de l'évaluation des modèles IA. Elles servent d'artefacts de documentation clés soutenant les pratiques d'IA responsable en promouvant la transparence et la responsabilité dans le développement de modèles.
Un modèle standardisé pour créer des cartes de modèle qui documentent les caractéristiques de performance et le contexte d'utilisation prévu des modèles d'apprentissage automatique et d'IA. Le modèle répond au manque de procédures de documentation standardisées pour communiquer la performance du modèle et d'autres informations pertinentes aux parties prenantes.
Un modèle pour créer des fiches techniques pour les jeux de données, conçu pour améliorer la transparence et la responsabilité dans les systèmes IA en fournissant une documentation structurée des caractéristiques des jeux de données. Le modèle aide les praticiens à documenter systématiquement la création, la composition, les processus de collecte et les utilisations recommandées des jeux de données.
Un modèle LaTeX pour créer des fiches techniques pour les jeux de données, basé sur l'article académique « Datasheets for Datasets ». Le modèle aide à documenter la motivation, la composition, le processus de collecte et les utilisations recommandées des jeux de données pour améliorer la transparence et la responsabilité dans les systèmes IA.
Red Hat introduit les cartes système IA comme cadre pour documenter de manière transparente les déploiements IA au-delà des seuls modèles eux-mêmes. L'approche couvre les diagrammes d'architecture, les modèles constitutifs, les sources de données d'entraînement, les benchmarks d'évaluation et les correctifs de sécurité pour permettre l'inspection par la communauté et améliorer la gouvernance des systèmes IA.
Un article éducatif expliquant les aspects clés des cartes de modèle IA, qui sont des documents fournissant de la transparence sur la création, le déploiement et les caractéristiques des modèles IA. La ressource discute des différentes approches adoptées par des entreprises comme Google et IBM pour mettre en œuvre les pratiques de documentation de modèles.
Document de guide pour les organisations du secteur public britannique sur la mise en œuvre de la Norme d'enregistrement de la transparence algorithmique. Fournit un modèle standardisé pour documenter les informations clés sur les outils algorithmiques utilisés par les organismes gouvernementaux pour améliorer la transparence et la responsabilité.
Un guide pratique pour mettre en œuvre les exigences de transparence du Digital Services Act de l'UE, avec un accent sur la transparence algorithmique et les processus de modération de contenu. La ressource comprend des modèles gratuits pour aider les fournisseurs de services numériques à créer les rapports de transparence et les déclarations de motifs requis.
Le rapport de transparence algorithmique de Wolt documentant les algorithmes utilisés dans leurs opérations de plateforme de livraison. Le rapport suit les modèles de transparence gouvernementaux et fournit une divulgation structurée des systèmes algorithmiques en usage, similaire à l'approche du registre d'algorithmes de la ville d'Amsterdam.
Cette ressource décrit les cadres de divulgation des systèmes IA, incluant à la fois le reporting confidentiel aux autorités gouvernementales et les mécanismes de transparence destinés au public. Elle discute du concept d'« étiquettes nutritionnelles » IA comme formats de divulgation standardisés et accessibles qui présentent des informations clés sur les modèles IA sous une forme comparable.
Un modèle fourni par l'Université de Princeton pour divulguer l'utilisation d'outils IA dans la création de documents. Le modèle inclut un langage standard indiquant que l'assistance IA a été utilisée et que le contenu a été revu et édité par un humain.
Ce rapport examine les exigences de divulgation IA au niveau des États pour les publicités et communications politiques à travers plusieurs États américains. Il couvre les lois adoptées en Californie, Floride, Hawaï, Idaho, Indiana, Michigan, New York, Nevada, Dakota du Nord, Oregon, Utah, Washington et Wisconsin qui imposent la divulgation du contenu généré par IA incluant les deepfakes dans des contextes politiques.