La Comisión Europea publica directrices oficiales sobre GPAI que aclaran las obligaciones de los proveedores, los requisitos de transparencia y las vías de cumplimiento antes de la aplicación en agosto de 2025.
El 18 de julio, la Comisión Europea dio otro paso hacia la operacionalización de la EU AI Act al publicar las directrices oficiales para proveedores de modelos de inteligencia artificial de propósito general (GPAI). Estas directrices llegan dos semanas antes de que las obligaciones de la Ley de IA comiencen a aplicarse el 2 de agosto de 2025, y ofrecen la claridad largamente esperada para desarrolladores, investigadores y empresas que construyen tecnologías fundamentales de IA.
Estas directrices señalan el compromiso de la UE con la soberanía tecnológica, la claridad regulatoria y la innovación responsable. Al traducir el lenguaje legal de alto nivel en instrucciones prácticas, la Comisión facilita que tanto las comunidades de código abierto como los desarrolladores comerciales cumplan con confianza.
El documento define los modelos GPAI como aquellos:
También:
Estos modelos de alto impacto, los tipos que podrían impulsar agentes autónomos o aplicaciones importantes para consumidores, deben someterse a evaluaciones de riesgos, implementar estrategias de mitigación de riesgos y demostrar alineación con los valores de la UE como la dignidad humana, la supervisión democrática y la seguridad por diseño.
Este es un momento significativo para la posición de Europa en la gobernanza global de la IA.
Al publicar estas directrices detalladas, la Comisión está:
Para startups, el mundo académico y los contribuyentes de código abierto, el mensaje es claro: la transparencia y la documentación son su moneda de cumplimiento. Para las empresas de IA más grandes, particularmente aquellas que construyen modelos generativos multimodales o a gran escala, esta es una llamada de atención para integrar la gobernanza y la gestión de riesgos más profundamente en su ciclo de vida de desarrollo.
Las directrices también refuerzan que los modelos de código abierto no están automáticamente exentos. Si un modelo se publica bajo una licencia libre y abierta, los proveedores aún necesitan asegurar que se cumplan las condiciones de transparencia, como publicar documentación, revelar las fuentes de datos de entrenamiento (cuando sea factible) e informar a los usuarios sobre las limitaciones conocidas.
Este movimiento complementa el AI Pact en curso, un marco voluntario donde las empresas pueden demostrar cumplimiento temprano con la Ley de IA antes de que sea plenamente aplicable. Con estas directrices ahora públicas, las empresas que participan en el AI Pact tienen una base sólida sobre la cual construir.
VerifyWise desarrolla software de gobernanza de IA con código disponible (source-available) utilizado por organizaciones para gestionar riesgos, cumplimiento y supervisión en sus carteras de IA. Nuestro equipo editorial se basa en experiencia práctica implementando flujos de trabajo de gobernanza para industrias reguladas y equipos de IA en rápido crecimiento.
Más información sobre VerifyWise →Comience hoy su viaje de gobernanza de IA con VerifyWise.
Mar 11, 2026
AI GovernanceFeb 13, 2026
AI GovernanceFeb 13, 2026