Cumplimiento del EU AI Act simplificado
El EU AI Act está en vigor. Convertimos el texto legal en un plan claro con responsables, plazos y evidencias. Comience con un análisis de brechas rápido y luego rastree todo en un solo lugar.
Niveles de riesgo explicados
El EU AI Act utiliza un enfoque basado en riesgos con cuatro categorías principales
Riesgo inaceptable
Completamente prohibido
Puntuación social, reconocimiento de emociones en el trabajo/escuelas, categorización biométrica, biometría en tiempo real en espacios públicos, técnicas subliminales
prohibidoAlto riesgo
Controles estrictos requeridos
Selección de CV, evaluación crediticia, aplicación de la ley, dispositivos médicos, infraestructura crítica, evaluación educativa, herramientas de contratación
reguladoRiesgo limitado
Transparencia requerida
Chatbots, deepfakes, sistemas de reconocimiento de emociones, categorización biométrica (no prohibida), contenido generado por IA
divulgaciónRiesgo mínimo
Pocas o ninguna obligación
Filtros de spam, videojuegos, gestión de inventario, videojuegos con IA, sistemas de recomendación simples
mínimoCómo VerifyWise apoya el cumplimiento del EU AI Act
Funciones concretas que abordan requisitos regulatorios específicos
Inventario de sistemas de IA con clasificación de riesgos
Registre cada sistema de IA en su organización con metadatos estructurados. Cada entrada captura propósito, fuentes de datos, contexto de despliegue y partes interesadas. La plataforma aplica criterios del Anexo III para determinar si los sistemas califican como alto riesgo, riesgo limitado o riesgo mínimo, y genera una justificación de clasificación para auditorías.
Aborda: Artículo 6 Clasificación, Artículo 9 Gestión de riesgos, Artículo 49 Registro
Generación de documentación técnica
Cree el paquete de documentación requerido según el Artículo 11. La plataforma estructura información sobre arquitectura del sistema, procedencia de datos de entrenamiento, métricas de rendimiento y limitaciones conocidas en documentos formateados que cumplen con las expectativas regulatorias. Las plantillas cubren perspectivas tanto de proveedor como de operador.
Aborda: Artículo 11 Documentación técnica, Anexo IV Requisitos
Configuración de flujos de trabajo de supervisión humana
Defina quién revisa las salidas de IA, bajo qué condiciones y con qué autoridad para anular. La plataforma permite configurar disparadores de supervisión, asignar revisores por rol o experiencia, y capturar decisiones de revisión con marcas de tiempo. Los patrones de supervisión se convierten en registros auditables que demuestran cumplimiento del Artículo 14.
Aborda: Artículo 14 Supervisión humana, Artículo 26 Obligaciones del operador
Registro operacional y retención
Capture eventos del sistema, interacciones de usuarios y salidas de decisiones con marcas de tiempo automáticas. Los registros se retienen según políticas configurables que por defecto cumplen el mínimo de seis meses para operadores. Las funciones de búsqueda y exportación apoyan investigaciones de incidentes y solicitudes de autoridades.
Aborda: Artículo 12 Registros, Artículo 26(5) Retención de registros
Seguimiento y reporte de incidentes
Registre incidentes relacionados con IA con clasificación de severidad y asigne responsables de investigación. La plataforma rastrea el progreso de remediación y genera informes de incidentes adecuados para reportes a autoridades. Los incidentes graves pueden escalarse a las autoridades dentro del plazo requerido con documentación adjunta.
Aborda: Artículo 62 Reporte de incidentes graves, Artículo 73 Sanciones
Evaluación de impacto en derechos fundamentales
Los operadores de IA de alto riesgo en ciertos sectores deben evaluar impactos en derechos fundamentales antes del despliegue. La plataforma proporciona plantillas de evaluación estructurada para riesgo de discriminación, implicaciones de privacidad, acceso a servicios y garantías de debido proceso. Las evaluaciones completadas generan registros fechados como evidencia de cumplimiento.
Aborda: Artículo 27 Evaluación de impacto en derechos fundamentales
Todas las actividades de cumplimiento se rastrean con marcas de tiempo, responsables asignados y flujos de trabajo de aprobación. Esta pista de auditoría demuestra gobernanza sistemática en lugar de documentación creada después del hecho.
Cobertura completa de requisitos del EU AI Act
VerifyWise proporciona herramientas dedicadas para cada requisito regulatorio en 15 categorías de cumplimiento
Requisitos del EU AI Act
Requisitos con herramientas dedicadas
Cobertura de todas las categorías
Gestión y evaluación de riesgos
Gobernanza de datos
Documentación técnica
Registros y logging
Transparencia e información al usuario
Supervisión humana
Precisión, robustez y ciberseguridad
Sistema de gestión de calidad
Evaluación de conformidad
Registro y marcado CE
Vigilancia post-comercialización
Reporte de incidentes
Obligaciones del operador
Evaluación de impacto en derechos fundamentales
Competencia en IA y formación
Funciones que distinguen a VerifyWise
Flujo de trabajo de marcado CE
Proceso guiado de evaluación de conformidad de 7 pasos con generación de documentos
Gateway LLM
Monitoreo en tiempo real y aplicación de políticas para uso de modelos GPAI
Registro de formación
Seguimiento de requisitos de competencia en IA y credenciales de cualificación de empleados
Gestión de incidentes
Flujos de trabajo estructurados para seguimiento de incidentes graves y reporte a autoridades
¿No está seguro si está afectado?
Realice nuestra evaluación gratuita de preparación para el EU AI Act para determinar su clasificación de riesgo y obligaciones de cumplimiento en minutos.
Evaluación rápida
Obtenga resultados al instante
Conozca su rol y obligaciones
Diferentes actores en la cadena de valor de IA tienen diferentes responsabilidades bajo el EU AI Act
Proveedores
Organizaciones que desarrollan o modifican sustancialmente sistemas de IA
- Implementar sistema de gestión de riesgos durante todo el ciclo de vida
- Asegurar la calidad y gobernanza de los datos de entrenamiento
- Crear y mantener documentación técnica
- Desarrollar capacidades de registro adecuadas
- Garantizar transparencia e informar a los operadores
- Implementar medidas de supervisión humana
- Asegurar precisión, robustez y ciberseguridad
- Establecer sistema de gestión de calidad
- Realizar evaluación de conformidad y aplicar marcado CE
- Registrar sistema en base de datos de la UE
- Reportar incidentes graves a las autoridades
Operadores
Organizaciones que utilizan sistemas de IA bajo su responsabilidad
- Asignar personal para supervisión humana
- Conservar registros al menos 6 meses
- Realizar evaluación de impacto en derechos fundamentales
- Monitorear operación y rendimiento del sistema
- Reportar incidentes graves a proveedores y autoridades
- Usar el sistema de IA según las instrucciones
- Asegurar datos de entrada relevantes para el propósito previsto
- Informar al proveedor sobre riesgos identificados
- Suspender uso si el sistema presenta riesgo
- Cooperar con autoridades en investigaciones
Distribuidores/Importadores
Organizaciones que ponen sistemas de IA en el mercado de la UE
- Verificar que el proveedor realizó evaluación de conformidad
- Asegurar marcado CE y documentación
- Verificar registro en base de datos de la UE
- Almacenar y mantener documentación requerida
- Asegurar condiciones de almacenamiento y transporte para mantener conformidad
- Proporcionar información necesaria a las autoridades
- Cesar distribución si el sistema de IA no es conforme
- Informar al proveedor y autoridades sobre no conformidad
- Cooperar con autoridades en medidas correctivas
Tabla comparativa de obligaciones
Referencia rápida de qué obligaciones aplican a cada rol
| Obligación | Proveedor | Operador | Distribuidor |
|---|---|---|---|
Sistema de gestión de riesgos Evaluación y mitigación de riesgos del ciclo de vida | |||
Documentación técnica Especificaciones del sistema, datos de entrenamiento, métricas de rendimiento | Almacenar | ||
Supervisión humana Prevenir o minimizar riesgos | Diseñar | Implementar | |
Logging y registros Mínimo 6 meses de retención para operadores | Habilitar | Mantener | |
Evaluación de conformidad Autoevaluación u organismo notificado | Verificar | ||
Marcado CE Requerido antes de poner en mercado | Aplicar | Verificar | |
Registro en base de datos UE Sistemas de IA de alto riesgo | Registrar | Verificar | |
Evaluación de impacto en derechos fundamentales Requerido para operadores en ciertos sectores | |||
Reporte de incidentes Incidentes graves a autoridades | Si tiene conocimiento | ||
Vigilancia post-comercialización Monitoreo continuo del rendimiento del sistema | Monitorear uso |
Nota: Muchas organizaciones pueden tener múltiples roles. Por ejemplo, si desarrolla y opera un sistema de IA, debe cumplir tanto las obligaciones de proveedor como de operador.
6 pasos hacia el cumplimiento para diciembre de 2027
Una hoja de ruta práctica para lograr el cumplimiento del EU AI Act
Inventario de sistemas de IA
Catalogar todos los sistemas de IA en su organización
- Identificar todos los sistemas y herramientas de IA en uso
- Documentar proveedores de IA y servicios de terceros
- Mapear sistemas de IA a procesos de negocio
- Identificar propietarios y partes interesadas de sistemas de IA
- Crear registro central de IA
Clasificación de riesgos
Asignar niveles de riesgo a cada sistema de IA
- Evaluar cada sistema contra categorías del Anexo III
- Verificar si el sistema cae en casos de uso prohibidos
- Clasificar como alto riesgo, riesgo limitado o riesgo mínimo
- Documentar justificación de clasificación
- Identificar su rol (proveedor, operador, distribuidor)
Análisis de brechas
Identificar brechas de cumplimiento y requisitos
- Comparar estado actual con requisitos del EU AI Act
- Identificar documentación y procesos faltantes
- Evaluar brechas técnicas de cumplimiento
- Evaluar mecanismos de gobernanza y supervisión
- Priorizar acciones de remediación
Documentación y gobernanza
Construir documentación y controles requeridos
- Crear documentación técnica para sistemas de alto riesgo
- Implementar sistemas de gestión de riesgos
- Establecer procedimientos de gobernanza de datos
- Documentar mecanismos de supervisión humana
- Crear sistema de gestión de calidad
- Preparar evaluaciones de impacto en derechos fundamentales
Pruebas y validación
Realizar evaluaciones de conformidad
- Realizar pruebas y validación internas
- Ejecutar evaluaciones de sesgo y equidad
- Probar precisión, robustez y ciberseguridad
- Involucrar organismo notificado si es necesario
- Obtener marcado CE para sistemas aplicables
- Registrar sistemas de alto riesgo en base de datos de la UE
Monitoreo e informes
Mantener cumplimiento y monitorear sistemas
- Implementar sistemas de monitoreo continuo
- Mantener registros y pistas de auditoría
- Monitorear deriva de rendimiento e incidentes
- Reportar incidentes graves dentro del plazo
- Realizar revisiones y actualizaciones periódicas
- Mantenerse informado sobre guías regulatorias
Nota: Los organismos notificados ya están reservando citas. Comience su viaje de cumplimiento ahora para cumplir con los plazos de diciembre de 2027 (Anexo III) y agosto de 2028 (Anexo I).
Iniciar viaje de cumplimientoFechas clave que debe conocer
Se acercan plazos críticos de cumplimiento
Prácticas prohibidas
Las prácticas de IA prohibidas se vuelven ilegales
- Puntuación social
- Categorización biométrica
- Reconocimiento de emociones en el trabajo/escuelas
Transparencia GPAI
Reglas de transparencia para IA de propósito general
- Códigos de conducta
- Documentación de modelos
- Evaluaciones de riesgo sistémico
Artículo 50(2) marca de agua
Obligaciones de divulgación de contenido sintético aplicables
- Etiquetado UI de contenido generado por IA
- Metadatos legibles por máquina
- Capacidad de detección
Anexo III alto riesgo
Los sistemas autónomos de alto riesgo deben cumplir
- Sistemas de gestión de riesgos
- Gobernanza de datos
- Documentación técnica
Anexo I alto riesgo integrado
La IA en productos regulados debe cumplir
- Dispositivos médicos, maquinaria, juguetes, ascensores
- Vigilancia post-comercialización
- Evaluaciones de conformidad
Sistemas de IA de alto riesgo (Anexo III)
Ocho categorías de sistemas de IA clasificados como alto riesgo bajo el EU AI Act
Identificación biométrica
Ejemplos
Reconocimiento facial, sistemas de huellas dactilares, escaneo de iris
Requisito clave
Especialmente estricto para fines de aplicación de la ley
Infraestructura crítica
Ejemplos
Gestión del tráfico, suministro de agua/gas/electricidad
Requisito clave
Debe demostrar resiliencia y mecanismos de seguridad
Educación y formación profesional
Ejemplos
Evaluación de estudiantes, calificación de exámenes, decisiones de admisión
Requisito clave
Requiere pruebas de sesgo y transparencia hacia estudiantes
Empleo y RRHH
Ejemplos
Selección de CV, herramientas de entrevista, decisiones de promoción, monitoreo
Requisito clave
Debe proteger derechos de trabajadores y proporcionar explicaciones
Servicios esenciales
Ejemplos
Evaluación crediticia, evaluación de riesgo de seguros, reclamaciones de beneficios
Requisito clave
Requiere revisión humana en decisiones negativas
Aplicación de la ley
Ejemplos
Evaluación de riesgos, análisis de polígrafo, predicción del crimen
Requisito clave
Salvaguardas adicionales para derechos fundamentales
Migración y control fronterizo
Ejemplos
Solicitudes de visa, decisiones de asilo, evaluación de riesgo de deportación
Requisito clave
Fuerte supervisión humana y mecanismos de apelación
Justicia y democracia
Ejemplos
Investigación de casos judiciales, apoyo a decisiones judiciales
Requisito clave
Debe preservar la independencia judicial
Sanciones y aplicación
El EU AI Act tiene una estructura de multas de tres niveles con sanciones significativas
Nivel 1 - IA prohibida
35M€ o 7% de facturación global
(lo que sea mayor)
Violaciones incluyen:
- Sistemas de puntuación social
- IA manipulativa
- Biometría en tiempo real en espacios públicos
- Scraping facial no dirigido
Nivel 2 - Violaciones de alto riesgo
15M€ o 3% de facturación global
(lo que sea mayor)
Violaciones incluyen:
- Sistemas de IA de alto riesgo no conformes
- Violaciones de obligaciones de sistemas de IA
- No realizar evaluaciones de impacto requeridas
Nivel 3 - Violaciones de información
7,5M€ o 1,5% de facturación global
(lo que sea mayor)
Violaciones incluyen:
- Proporcionar información falsa
- No proporcionar información a autoridades
- Documentación incompleta
Requisitos de IA de propósito general (GPAI)
Las obligaciones para proveedores de GPAI entraron en vigor el 2 de agosto de 2025
¿Qué califica como IA de propósito general?
La IA de propósito general se refiere a modelos entrenados con datos amplios que pueden realizar una variedad de tareas sin haber sido diseñados para un propósito específico. Estos modelos fundacionales impulsan muchas aplicaciones downstream, desde chatbots hasta asistentes de código y generadores de imágenes. El EU AI Act crea obligaciones específicas para organizaciones que desarrollan estos modelos y para aquellas que construyen aplicaciones con ellos.
Modelos de lenguaje grande
GPT-4, Claude, Gemini, Llama, Mistral
Generación de imágenes
Midjourney, DALL-E, Stable Diffusion
Modelos multimodales
GPT-4o, Gemini Pro Vision, Claude 3.5
Generación de código
GitHub Copilot, Amazon CodeWhisperer
¿Es usted proveedor de GPAI o integrador downstream?
Usted desarrolló o entrenó el modelo fundacional
- Se aplican obligaciones completas de transparencia GPAI
- Debe proporcionar documentación para usuarios downstream
- Responsable del cumplimiento de derechos de autor en entrenamiento
- Requisitos de riesgo sistémico si supera el umbral
Ejemplos: OpenAI, Anthropic, Google DeepMind, Meta AI
Usted desarrolla aplicaciones usando modelos GPAI vía API o integración
- Debe obtener documentación del proveedor GPAI
- Responsable del cumplimiento de su aplicación específica
- Los casos de uso de alto riesgo activan obligaciones de alto riesgo
- No puede trasladar responsabilidad al proveedor del modelo fundacional
Ejemplos: Empresas usando API de GPT-4, API de Claude o modelos ajustados
Niveles de obligación GPAI
Modelos GPAI generales
Todos los modelos de IA de propósito general
- Proporcionar documentación técnica
- Entregar información y documentación a proveedores downstream
- Implementar política de derechos de autor y publicar resumen de datos de entrenamiento
- Asegurar eficiencia energética cuando sea posible
Modelos GPAI con riesgo sistémico
>10²⁵ FLOPs o designado por la Comisión
- Realizar evaluación de modelo y evaluación de riesgo sistémico
- Realizar pruebas adversariales
- Rastrear, documentar y reportar incidentes graves
- Asegurar protección de ciberseguridad adecuada
- Implementar medidas de mitigación de riesgos
- Reportar anualmente a la Oficina de IA
Entendiendo el umbral de riesgo sistémico
Los modelos entrenados con más de 10²⁵ operaciones de punto flotante (FLOPs) se clasifican automáticamente como de riesgo sistémico. La Comisión Europea también puede designar modelos basándose en sus capacidades, alcance o potencial de daño grave, independientemente del cómputo de entrenamiento. Los modelos actuales que probablemente alcancen este umbral incluyen GPT-4 y sucesores, Claude 3 Opus y versiones posteriores, Gemini Ultra y las variantes más grandes de Llama de Meta.
La clasificación de riesgo sistémico desencadena obligaciones adicionales: evaluaciones completas de modelos, red teaming adversarial, seguimiento y reporte de incidentes, ciberseguridad mejorada e informes anuales a la Oficina de IA de la UE.
Disposiciones para GPAI de código abierto
Obligaciones reducidas aplican si
- Pesos del modelo están públicamente disponibles
- Metodología de entrenamiento está documentada abiertamente
- Publicado bajo licencia de código abierto calificante
- Parámetros y arquitectura están publicados
Obligaciones completas aún aplican si
- El modelo tiene riesgo sistémico (>10²⁵ FLOPs)
- Usted modifica y despliega comercialmente
- Usado en aplicaciones de alto riesgo bajo Anexo III
- El modelo está integrado en productos regulados
Si está construyendo sobre modelos GPAI
La mayoría de las organizaciones que usan IA son integradores downstream, no proveedores de modelos fundacionales. Si accede a GPT-4, Claude o modelos similares vía APIs para construir sus propias aplicaciones, estas obligaciones aplican a usted.
La Oficina de IA de la UE
La Oficina de IA de la UE dentro de la Comisión Europea proporciona supervisión centralizada para modelos GPAI. Emite orientación, desarrolla códigos de conducta, evalúa modelos de riesgo sistémico y coordina con autoridades nacionales. Los proveedores de GPAI con modelos de riesgo sistémico deben reportar directamente a la Oficina de IA. La Oficina también sirve como recurso para integradores downstream que buscan claridad sobre sus obligaciones.
Repositorio completo de políticas de gobernanza de IA
Acceda a 37 plantillas de políticas de gobernanza de IA listas para usar, alineadas con los requisitos del EU AI Act, ISO 42001 y NIST AI RMF
Gobernanza central
- • Política de gobernanza de IA
- • Política de gestión de riesgos de IA
- • Principios de IA responsable
- • Carta ética de IA
- • Aprobación y lanzamiento de modelos
- • Aseguramiento de calidad de IA
- + 6 políticas más
Datos y seguridad
- • Política de uso de datos de IA
- • Minimización de datos para IA
- • Adquisición de datos de entrenamiento
- • Manejo de datos sensibles
- • Seguridad y hardening de prompts
- • Respuesta a incidentes de IA
- + 2 políticas más
Legal y cumplimiento
- • Política de riesgo de proveedores de IA
- • Cumplimiento regulatorio
- • Preparación para marcado CE
- • Registro de sistemas de alto riesgo
- • Documentación y trazabilidad
- • Responsabilidad y roles de IA
- + 7 políticas más
Preguntas frecuentes
Preguntas comunes sobre el cumplimiento del EU AI Act
¿Listo para el cumplimiento?
Comience su viaje de cumplimiento del EU AI Act hoy con nuestras herramientas completas de evaluación y seguimiento.