El EU AI Act está en vigor. Convertimos el texto legal en un plan claro con responsables, plazos y evidencias. Comience con un análisis de brechas rápido y luego rastree todo en un solo lugar.
El EU AI Act utiliza un enfoque basado en riesgos con cuatro categorías principales
Completamente prohibido
Puntuación social, reconocimiento de emociones en el trabajo/escuelas, categorización biométrica, biometría en tiempo real en espacios públicos, técnicas subliminales
prohibidoControles estrictos requeridos
Selección de CV, evaluación crediticia, aplicación de la ley, dispositivos médicos, infraestructura crítica, evaluación educativa, herramientas de contratación
reguladoTransparencia requerida
Chatbots, deepfakes, sistemas de reconocimiento de emociones, categorización biométrica (no prohibida), contenido generado por IA
divulgaciónPocas o ninguna obligación
Filtros de spam, videojuegos, gestión de inventario, videojuegos con IA, sistemas de recomendación simples
mínimoFunciones concretas que abordan requisitos regulatorios específicos
Registre cada sistema de IA en su organización con metadatos estructurados. Cada entrada captura propósito, fuentes de datos, contexto de despliegue y partes interesadas. La plataforma aplica criterios del Anexo III para determinar si los sistemas califican como alto riesgo, riesgo limitado o riesgo mínimo, y genera una justificación de clasificación para auditorías.
Aborda: Artículo 6 Clasificación, Artículo 9 Gestión de riesgos, Artículo 49 Registro
Cree el paquete de documentación requerido según el Artículo 11. La plataforma estructura información sobre arquitectura del sistema, procedencia de datos de entrenamiento, métricas de rendimiento y limitaciones conocidas en documentos formateados que cumplen con las expectativas regulatorias. Las plantillas cubren perspectivas tanto de proveedor como de operador.
Aborda: Artículo 11 Documentación técnica, Anexo IV Requisitos
Defina quién revisa las salidas de IA, bajo qué condiciones y con qué autoridad para anular. La plataforma permite configurar disparadores de supervisión, asignar revisores por rol o experiencia, y capturar decisiones de revisión con marcas de tiempo. Los patrones de supervisión se convierten en registros auditables que demuestran cumplimiento del Artículo 14.
Aborda: Artículo 14 Supervisión humana, Artículo 26 Obligaciones del operador
Capture eventos del sistema, interacciones de usuarios y salidas de decisiones con marcas de tiempo automáticas. Los registros se retienen según políticas configurables que por defecto cumplen el mínimo de seis meses para operadores. Las funciones de búsqueda y exportación apoyan investigaciones de incidentes y solicitudes de autoridades.
Aborda: Artículo 12 Registros, Artículo 26(5) Retención de registros
Registre incidentes relacionados con IA con clasificación de severidad y asigne responsables de investigación. La plataforma rastrea el progreso de remediación y genera informes de incidentes adecuados para reportes a autoridades. Los incidentes graves pueden escalarse a las autoridades dentro del plazo requerido con documentación adjunta.
Aborda: Artículo 62 Reporte de incidentes graves, Artículo 73 Sanciones
Los operadores de IA de alto riesgo en ciertos sectores deben evaluar impactos en derechos fundamentales antes del despliegue. La plataforma proporciona plantillas de evaluación estructurada para riesgo de discriminación, implicaciones de privacidad, acceso a servicios y garantías de debido proceso. Las evaluaciones completadas generan registros fechados como evidencia de cumplimiento.
Aborda: Artículo 27 Evaluación de impacto en derechos fundamentales
Todas las actividades de cumplimiento se rastrean con marcas de tiempo, responsables asignados y flujos de trabajo de aprobación. Esta pista de auditoría demuestra gobernanza sistemática en lugar de documentación creada después del hecho.
VerifyWise proporciona herramientas dedicadas para cada requisito regulatorio en 15 categorías de cumplimiento
Requisitos del EU AI Act
Requisitos con herramientas dedicadas
Cobertura de todas las categorías
Proceso guiado de evaluación de conformidad de 7 pasos con generación de documentos
Monitoreo en tiempo real y aplicación de políticas para uso de modelos GPAI
Seguimiento de requisitos de competencia en IA y credenciales de cualificación de empleados
Flujos de trabajo estructurados para seguimiento de incidentes graves y reporte a autoridades
Realice nuestra evaluación gratuita de preparación para el EU AI Act para determinar su clasificación de riesgo y obligaciones de cumplimiento en minutos.
Evaluación rápida
Obtenga resultados al instante
Diferentes actores en la cadena de valor de IA tienen diferentes responsabilidades bajo el EU AI Act
Organizaciones que desarrollan o modifican sustancialmente sistemas de IA
Organizaciones que utilizan sistemas de IA bajo su responsabilidad
Organizaciones que ponen sistemas de IA en el mercado de la UE
Referencia rápida de qué obligaciones aplican a cada rol
| Obligación | Proveedor | Operador | Distribuidor |
|---|---|---|---|
Sistema de gestión de riesgos Evaluación y mitigación de riesgos del ciclo de vida | |||
Documentación técnica Especificaciones del sistema, datos de entrenamiento, métricas de rendimiento | Almacenar | ||
Supervisión humana Prevenir o minimizar riesgos | Diseñar | Implementar | |
Logging y registros Mínimo 6 meses de retención para operadores | Habilitar | Mantener | |
Evaluación de conformidad Autoevaluación u organismo notificado | Verificar | ||
Marcado CE Requerido antes de poner en mercado | Aplicar | Verificar | |
Registro en base de datos UE Sistemas de IA de alto riesgo | Registrar | Verificar | |
Evaluación de impacto en derechos fundamentales Requerido para operadores en ciertos sectores | |||
Reporte de incidentes Incidentes graves a autoridades | Si tiene conocimiento | ||
Vigilancia post-comercialización Monitoreo continuo del rendimiento del sistema | Monitorear uso |
Nota: Muchas organizaciones pueden tener múltiples roles. Por ejemplo, si desarrolla y opera un sistema de IA, debe cumplir tanto las obligaciones de proveedor como de operador.
Una hoja de ruta práctica para lograr el cumplimiento del EU AI Act
Catalogar todos los sistemas de IA en su organización
Asignar niveles de riesgo a cada sistema de IA
Identificar brechas de cumplimiento y requisitos
Construir documentación y controles requeridos
Realizar evaluaciones de conformidad
Mantener cumplimiento y monitorear sistemas
Nota: Los organismos notificados ya están reservando citas hasta Q2 2026. Comience su viaje de cumplimiento ahora para cumplir con la fecha límite de agosto de 2026.
Iniciar viaje de cumplimientoSe acercan plazos críticos de cumplimiento
Las prácticas de IA prohibidas se vuelven ilegales
Reglas de transparencia para IA de propósito general
Entran en vigor las reglas de clasificación
Todos los requisitos de alto riesgo activos
Ocho categorías de sistemas de IA clasificados como alto riesgo bajo el EU AI Act
Ejemplos
Reconocimiento facial, sistemas de huellas dactilares, escaneo de iris
Requisito clave
Especialmente estricto para fines de aplicación de la ley
Ejemplos
Gestión del tráfico, suministro de agua/gas/electricidad
Requisito clave
Debe demostrar resiliencia y mecanismos de seguridad
Ejemplos
Evaluación de estudiantes, calificación de exámenes, decisiones de admisión
Requisito clave
Requiere pruebas de sesgo y transparencia hacia estudiantes
Ejemplos
Selección de CV, herramientas de entrevista, decisiones de promoción, monitoreo
Requisito clave
Debe proteger derechos de trabajadores y proporcionar explicaciones
Ejemplos
Evaluación crediticia, evaluación de riesgo de seguros, reclamaciones de beneficios
Requisito clave
Requiere revisión humana en decisiones negativas
Ejemplos
Evaluación de riesgos, análisis de polígrafo, predicción del crimen
Requisito clave
Salvaguardas adicionales para derechos fundamentales
Ejemplos
Solicitudes de visa, decisiones de asilo, evaluación de riesgo de deportación
Requisito clave
Fuerte supervisión humana y mecanismos de apelación
Ejemplos
Investigación de casos judiciales, apoyo a decisiones judiciales
Requisito clave
Debe preservar la independencia judicial
El EU AI Act tiene una estructura de multas de tres niveles con sanciones significativas
35M€ o 7% de facturación global
(lo que sea mayor)
Violaciones incluyen:
15M€ o 3% de facturación global
(lo que sea mayor)
Violaciones incluyen:
7,5M€ o 1,5% de facturación global
(lo que sea mayor)
Violaciones incluyen:
Las obligaciones para proveedores de GPAI entraron en vigor el 2 de agosto de 2025
La IA de propósito general se refiere a modelos entrenados con datos amplios que pueden realizar una variedad de tareas sin haber sido diseñados para un propósito específico. Estos modelos fundacionales impulsan muchas aplicaciones downstream, desde chatbots hasta asistentes de código y generadores de imágenes. El EU AI Act crea obligaciones específicas para organizaciones que desarrollan estos modelos y para aquellas que construyen aplicaciones con ellos.
Modelos de lenguaje grande
GPT-4, Claude, Gemini, Llama, Mistral
Generación de imágenes
Midjourney, DALL-E, Stable Diffusion
Modelos multimodales
GPT-4o, Gemini Pro Vision, Claude 3.5
Generación de código
GitHub Copilot, Amazon CodeWhisperer
Usted desarrolló o entrenó el modelo fundacional
Ejemplos: OpenAI, Anthropic, Google DeepMind, Meta AI
Usted desarrolla aplicaciones usando modelos GPAI vía API o integración
Ejemplos: Empresas usando API de GPT-4, API de Claude o modelos ajustados
Todos los modelos de IA de propósito general
>10²⁵ FLOPs o designado por la Comisión
Los modelos entrenados con más de 10²⁵ operaciones de punto flotante (FLOPs) se clasifican automáticamente como de riesgo sistémico. La Comisión Europea también puede designar modelos basándose en sus capacidades, alcance o potencial de daño grave, independientemente del cómputo de entrenamiento. Los modelos actuales que probablemente alcancen este umbral incluyen GPT-4 y sucesores, Claude 3 Opus y versiones posteriores, Gemini Ultra y las variantes más grandes de Llama de Meta.
La clasificación de riesgo sistémico desencadena obligaciones adicionales: evaluaciones completas de modelos, red teaming adversarial, seguimiento y reporte de incidentes, ciberseguridad mejorada e informes anuales a la Oficina de IA de la UE.
La mayoría de las organizaciones que usan IA son integradores downstream, no proveedores de modelos fundacionales. Si accede a GPT-4, Claude o modelos similares vía APIs para construir sus propias aplicaciones, estas obligaciones aplican a usted.
La Oficina de IA de la UE dentro de la Comisión Europea proporciona supervisión centralizada para modelos GPAI. Emite orientación, desarrolla códigos de conducta, evalúa modelos de riesgo sistémico y coordina con autoridades nacionales. Los proveedores de GPAI con modelos de riesgo sistémico deben reportar directamente a la Oficina de IA. La Oficina también sirve como recurso para integradores downstream que buscan claridad sobre sus obligaciones.
Acceda a 37 plantillas de políticas de gobernanza de IA listas para usar, alineadas con los requisitos del EU AI Act, ISO 42001 y NIST AI RMF
Preguntas comunes sobre el cumplimiento del EU AI Act
Comience su viaje de cumplimiento del EU AI Act hoy con nuestras herramientas completas de evaluación y seguimiento.