Volver a la biblioteca

Assessment and evaluation

How AI systems are assessed or tested.

21 recursos

Tipo:
21 recursos encontrados
PlantillaCommission européenne • 2024

Modelo d'evaluacion d'impacto sur les droits fondamentaux du règlement européen sur l'IA

Modelo et conseils pour réaliser des Evaluaciones de impactoo sur les droits fondamentaux comme l'exige le règlement européen sur l'IA pour les systèmes d'IA à haut riesgo. Il aide les organizacions à évaluer les impactos potentiels sur les droits fondamentaux et à documenter les mesures d'atténuation.

Modelos d'evaluacion d'impactoEU
HerramientaGouvernement du Canada • 2019

Herramienta d'evaluacion d'impacto algorithmique du Canada

L'herramienta d'evaluacion d'impacto algorithmique du Canada aide les ministères fédéraux à évaluer et atténuer les riesgos associés aux systèmes de decision automatisés. Il attribue un niveau d'impacto (I-IV) basé sur les effets potentiels du système sur les individus et la société.

Méthodologies d'evaluacion des riesgosCA
HerramientaEleutherAI • 2023

LM Evaluation Harness d'EleutherAI

Un framework unifié pour évaluer les modelos de langage sur des centaines de tâches. Le LM Evaluation Harness fournit des capacités de benchmarking standardisées pour évaluer les capacités, la seguridad et les propriétés d'alignement des modelos.

Guias d'evaluacion de modelos
EstándarISO/IEC • 2014

ISO/IEC 25000 - Exigences et evaluacion de la qualité logicielle

La série ISO/IEC 25000 (SQuaRE) fournit un marco pour les exigences et l'evaluacion de la qualité des produits logiciels. Elle établit des modelos de qualité, des métriques et des Procesos d'evaluacion applicables aux systèmes d'IA en tant que produits logiciels.

Méthodologies de benchmarking
PlantillaFairNow • 2024

Guia d'evaluacion d'impacto de l'inteligencia artificial

Un modelo pratique pour évaluer systématiquement les systèmes d'IA du concept initial au despliegue réel. Le guia couvre l'evaluacion des riesgos, bénéfices et impactos et sert de manuel opérationnel pour les organizacions implémentant des systèmes d'IA.

Modelos d'evaluacion d'impacto
PlantillaInternational Association of Privacy Professionals • 2024

Modelo d'analyse d'impacto relative Ă  la protection des datos (AIPD)

Ce modelo fournit une liste structurée de questions relatives aux problèmes de protection des datos que les organizacions devraient considérer avant de mener une analyse d'impacto relative à la protection des datos. Il sert de guia pratique pour identifier et évaluer les riesgos de confidencialidad dans les activités de traitement des datos.

Modelos d'evaluacion d'impacto
PlantillaMicrosoft • 2022

Modelo d'evaluacion d'impacto de l'IA responsable

Le modelo de Microsoft pour mener des Evaluaciones de impactoo d'IA responsable afin d'évaluer les systèmes d'IA par informe aux objectifs et Principios d'IA responsable. Le modelo fournit des conseils structurés pour évaluer quels objectifs d'IA responsable s'appliquent à des systèmes d'IA spécifiques et évaluer leurs impactos potentiels.

Modelos d'evaluacion d'impacto
HerramientaGouvernement du Canada • 2024

Evaluacion d'impacto algorithmique

Un herramienta de questionnaire d'evaluacion des riesgos obligatoire qui soutient la Directive sur la prise de decision automatisée du Conseil du Trésor du Canada. L'herramienta détermine le niveau d'impacto des systèmes de decision automatisés à travers l'evaluacion des riesgos et les mesures d'atténuation.

Modelos d'evaluacion d'impactoCA
InformeMontreal AI Ethics Institute • 2024

La gobernanza de l'IA sur le terrain : Le Procesos et l'algoritmo d'evaluacion d'impacto algorithmique du Canada ont évolué

Ce informe examine le Procesos d'evaluacion d'impacto algorithmique (AIA) du Canada à travers des entretiens avec les membres de l'equipo de supervision du Conseil du Trésor et un avocat canadien en immigration. Il fournit des insights sur le fonctionnement pratique du marco AIA et ses impactos réels sur la prise de decision algorithmique gouvernementale, particulièrement dans les cas d'immigration.

Modelos d'evaluacion d'impactoCA
FrameworkNIST • 2023

Marco de gestion de riesgos de l'IA

Le marco de gestion de riesgos de l'IA du NIST est un marco volontaire conçu pour aider les organizacions à intégrer des considérations de fiabilité dans les produits, services et systèmes d'IA. Il fournit des conseils pour la conception, le desarrollo, l'utilisation et l'evaluacion des technologies d'IA avec un focus sur la gestion de riesgos et les pratiques d'IA responsable.

Méthodologies d'evaluacion des riesgosUS
GuíaUniversity of California AI Council • 2024

Guia du Procesos d'evaluacion des riesgos de l'IA

Un guia complet d'evaluacion des riesgos développé par le UC AI Council pour aider à évaluer les systèmes d'IA et leurs riesgos potentiels dans les contextes universitaires. Le guia fournit des méthodologies structurées pour évaluer l'entraînement des modelos d'IA, les riesgos de sesgo, les Procesos de desarrollo et les procédures de validation pour les despliegues d'IA institutionnels.

Méthodologies d'evaluacion des riesgosUS
GuíaBloomberg Law • 2024

Mener une evaluacion des riesgos de l'IA

Un guia pratique pour mener des evaluacions des riesgos de l'IA qui couvre l'identification et l'evaluacion de la probabilité de préjudice des systèmes d'IA. La ressource fournit des méthodologies pour implémenter des mesures d'atténuation et documenter les Procesos d'evaluacion des riesgos pour la cumplimiento de gobernanza.

Méthodologies d'evaluacion des riesgosUS
FrameworkInstitute of Internal Auditors • 2024

Marco d'auditoria de l'inteligencia artificial

Un marco complet développé par l'Institut des Auditoriaors Internes pour auditoriaer les systèmes et Implementacions d'inteligencia artificial. Le marco fournit des conseils et méthodologies pour que les auditoriaors internes évaluent les riesgos, controls et structures de gobernanza liés à l'IA au sein des organizacions.

Méthodologies d'auditoria
PlantillaComité européen de la protection des données • 2024

Liste de control d'auditoria IA pour l'auditoria de l'IA

Une liste de control d'auditoria complète développée par le Comité européen de la protection des datos pour évaluer les algoritmos d'IA basés sur l'aprendizaje automatico. Le document couvre le cycle de vie complet de l'IA incluant l'entraînement des algoritmos, le pré-traitement et les étapes d'Implementacion opérationnelle du point de vue du traitement des datos.

Méthodologies d'auditoriaEU
PlantillaLumenalta • 2025

Liste de control d'auditoria IA (Mise Ă  jour 2025)

Une liste de control et un marco complets pour auditoriaer les systèmes d'IA, se concentrant sur les procédures d'evaluacion technique et les exigences de cumplimiento. La ressource met l'accent sur la construction de pipelines de tests automatisés pour la vigilancia continue des performances des systèmes d'IA et de la qualité des datos dans les environnements CI/CD.

Méthodologies d'auditoria
GuíaShelf.io • 2024

Métriques d'equidad dans l'IA — Votre guia étape par étape vers des systèmes équitables

Un guia étape par étape qui explique comment utiliser les métriques d'equidad pour détecter et quantifier les sesgo dans les modelos d'IA. La ressource aide les profesionals à identifier où les systèmes d'IA peuvent causer un traitement disparate contre certains groupes et fournit des méthodes pour construire des systèmes d'IA plus équitables.

Méthodologies d'evaluacion des riesgos
GuíaGoogle Cloud • 2024

Introduction Ă  l'evaluacion des modelos pour l'equidad

Cette ressource fournit des conseils sur l'evaluacion des modelos d'aprendizaje automatico pour l'equidad et les sesgo en utilisant la plataforma Vertex AI de Google Cloud. Elle explique comment les modelos injustes peuvent causer des préjudices systémiques aux groupes sous-représentés et offre des métriques d'evaluacion spécifiques pour détecter les sesgo pendant les Procesos de collecte de datos et d'evaluacion post-entraînement.

Méthodologies d'evaluacion des riesgos
InvestigaciónPMC • 2024

Une revue de portée et analyse des lacunes probantes de l'equidad de l'IA clinique

Cet article de Investigacion présente une revue de portée analysant les techniques d'equidad dans les applications d'IA clinique et identifie les lacunes probantes dans les méthodologies actuelles. L'étude examine les approches d'equidad de groupe, les métriques d'equidad des résultats et diverses méthodes d'atténuation des sesgo utilisées dans les systèmes d'IA de Salud.

Méthodologies d'evaluacion des riesgos
GuíaGoogle Cloud • 2024

Evaluacion de modelos dans Vertex AI

Documentacion technique pour évaluer les modelos d'IA en utilisant la plataforma Vertex AI de Google Cloud. Couvre les méthodes pour exécuter des tâches d'inférence par lots et préparer des datos de vérité terrain pour l'evaluacion des modelos en utilisant les approches AutoML et d'entraînement personnalisé.

Guias d'evaluacion de modelos
FrameworkAllen Institute for AI • 2024

Marcos d'evaluacion OLMES

OLMES est un marco standardisé pour des evaluacions reproductibles de modelos de langage qui est ouvert, pratique et entièrement documenté. Il peut être appliqué aux classements et bases de code d'evaluacion existants pour assurer une evaluacion cohérente et fiable des modelos d'IA.

Guias d'evaluacion de modelos
HerramientaConfident AI • 2024

DeepEval : Le marco d'evaluacion des LLM

DeepEval est un marco codigo abierto conçu pour évaluer et tester les systèmes de grands modelos de langage. Il fournit une interface simple à utiliser similaire à Pytest mais spécialisée pour les tests unitaires des sorties et performances des LLM.

Guias d'evaluacion de modelos
Assessment and evaluation | Biblioteca de Gobernanza de IA | VerifyWise