Volver a plantillas de polĂ­ticas
PolĂ­tica 06 de 15

Politica de gestion de riesgos de IA

Define como se identifican, evaluan, puntuan, mitigan, monitorean y escalan los riesgos de IA en toda la organizacion.

1. Proposito

Esta politica establece un marco sistematico para gestionar los riesgos asociados con los sistemas de IA a lo largo de su ciclo de vida. Confirma que las iniciativas de IA se alinean con el apetito de riesgo de la organizacion y cumplen con los requisitos regulatorios, incluyendo el Reglamento Europeo de IA, ISO/IEC 42001 y el Marco de gestion de riesgos de IA del NIST.

2. Alcance

Esta politica se aplica a:

  • Todos los sistemas de IA y aprendizaje automatico en desarrollo, pruebas o produccion.
  • Todos los servicios de IA de terceros y soluciones de proveedores.
  • Todas las aplicaciones de IA generativa y modelos de lenguaje extenso.
  • Todos los sistemas de automatizacion y apoyo a la decision basados en IA.
  • Todo el personal involucrado en el diseno, desarrollo, despliegue o supervision de IA.

3. Taxonomia de riesgos

Los riesgos de IA se categorizan en seis dimensiones. Cada riesgo identificado debe etiquetarse con su dimension principal:

DimensionDescripcionEjemplos
TecnicaRiesgos del comportamiento y rendimiento del modeloAlucinaciones, degradacion del rendimiento, ataques adversarios, envenenamiento de datos, deriva del modelo
OperativaRiesgos del despliegue y las operacionesFallos de integracion, monitoreo inadecuado, errores de despliegue, planificacion de capacidad
EticaRiesgos del impacto social e individualSesgo y discriminacion, violaciones de equidad, falta de transparencia, dano social no intencionado
CumplimientoRiesgos de obligaciones regulatorias y legalesIncumplimiento regulatorio, violaciones de privacidad, documentacion inadecuada, plazos de notificacion incumplidos
SeguridadRiesgos de actividad adversaria y no autorizadaInyeccion de prompts, robo de modelos, exfiltracion de datos, compromiso de la cadena de suministro, acceso no autorizado
ReputacionalRiesgos de la percepcion de las partes interesadasErosion de la confianza publica, cobertura mediatica negativa, reaccion de los clientes, preocupaciones de los socios

4. Clasificacion de riesgo

Todos los sistemas de IA deben clasificarse segun los niveles de riesgo del Reglamento Europeo de IA antes del desarrollo o la adquisicion:

Nivel de riesgoCriteriosRequisitos de gobernanza
InaceptableProhibido conforme al Art. 5 del Reglamento Europeo de IA (puntuacion social, manipulacion subliminal, explotacion de vulnerabilidades, identificacion biometrica en tiempo real en espacios publicos sin autorizacion)Prohibido. No debe desarrollarse ni desplegarse.
AltoCategorias del Anexo III del Reglamento Europeo de IA: biometria, infraestructura critica, educacion, empleo, servicios esenciales, aplicacion de la ley, migracion, justicia. Tambien: sistemas que afecten la salud, seguridad o derechos fundamentales.Evaluacion completa de riesgos, evaluacion de conformidad, EIDF, monitoreo poscomercializacion, plan de respuesta a incidentes, marcado CE.
LimitadoSistemas con obligaciones de transparencia: chatbots, deepfakes, reconocimiento de emociones, categorizacion biometrica.Divulgaciones de transparencia, notificacion al usuario.
MinimoAplicaciones de bajo impacto con riesgo insignificante.Registro en el inventario de IA, documentacion basica.

5. Proceso de evaluacion de riesgos

Las evaluaciones de riesgos siguen un proceso de cinco fases alineado con el NIST AI RMF:

Fase 1: Identificacion del sistema (MAP)

  • Documentar el proposito del sistema de IA, los usuarios previstos y el contexto operativo.
  • Clasificar el sistema segun la seccion 4.
  • Identificar las partes interesadas que podrian verse afectadas por el sistema.
  • Registrar el sistema en el inventario de IA.

Fase 2: Identificacion de riesgos (MAP)

  • Identificar riesgos en las seis dimensiones utilizando la taxonomia de la seccion 3.
  • Utilizar cuestionarios de identificacion de riesgos, modelado de amenazas y revision de expertos.
  • Considerar los riesgos en cada etapa del ciclo de vida (diseno, datos, entrenamiento, despliegue, operacion, retiro).
  • Documentar cada riesgo en el registro de riesgos con descripcion, dimension y partes interesadas afectadas.

Fase 3: Evaluacion y puntuacion de riesgos (MEASURE)

Cada riesgo se puntua utilizando una matriz de probabilidad-impacto de 5x5:

PuntuacionProbabilidadImpacto
1Rara (menos del 5% de probabilidad)Insignificante (sin efecto medible)
2Improbable (5-20%)Menor (efecto limitado y recuperable)
3Posible (20-50%)Moderado (efecto notable, manejable)
4Probable (50-80%)Mayor (dano significativo, dificil de recuperar)
5Casi seguro (mas del 80%)Grave (dano catastrofico, accion regulatoria, violacion de derechos fundamentales)

Puntuacion de riesgo = Probabilidad x Impacto (rango 1-25)

Rango de puntuacionNivel de riesgoAccion requerida
1-4BajoAceptar con documentacion. Monitorear como parte de revisiones rutinarias.
5-9MedioMitigar. Implementar controles y dar seguimiento a la correccion. Aprobacion del titular del modelo.
10-15AltoMitigar con urgencia. Revision del Responsable de gobernanza de IA. No puede desplegarse sin un plan de mitigacion aprobado.
16-25CriticoEscalar al Comite de gobernanza de IA. El sistema no puede proceder sin aprobacion del Comite y mitigaciones verificadas.

Fase 4: Planificacion de la mitigacion (MANAGE)

Para cada riesgo puntuado como Medio o superior, seleccionar una estrategia de tratamiento:

EstrategiaCuando utilizarlaEjemplo
EvitarEl riesgo es inaceptable y ninguna mitigacion puede reducirlo suficientementeNo desplegar el sistema en este contexto
MitigarEl riesgo puede reducirse a niveles aceptables mediante controlesAnadir pruebas de sesgo, implementar barreras de proteccion, anadir revision humana
TransferirEl riesgo puede compartirse con un terceroSeguros, asignacion contractual de responsabilidad con el proveedor
AceptarEl riesgo residual esta dentro del apetito despues de la mitigacionDocumentar la aceptacion con justificacion y fecha de revision

Cada mitigacion debe tener un responsable, un plazo y una puntuacion de riesgo residual definida tras la implementacion.

Fase 5: Monitoreo continuo (MANAGE)

  • Monitorear los indicadores de riesgo en produccion (metricas de rendimiento, alertas de deriva, informes de incidentes).
  • Revisar los sistemas de alto riesgo trimestralmente, los de riesgo medio semestralmente y los de bajo riesgo anualmente.
  • Reevaluar cuando se produzcan cambios significativos (actualizacion del modelo, cambio de datos, cambio de contexto, cambio regulatorio).
  • Dar seguimiento a las tendencias de riesgo en la cartera para identificar problemas sistemicos.

6. Desencadenantes de evaluacion

Las evaluaciones de riesgos se requieren en los siguientes momentos:

  • Inicial: Durante la recepcion del proyecto, antes de que comience el desarrollo.
  • Previa al despliegue: Despues del desarrollo y las pruebas, antes del lanzamiento a produccion.
  • Desencadenada por cambio: Cuando se produzcan cambios significativos en el modelo, los datos o el contexto.
  • Desencadenada por incidente: Despues de cualquier incidente o casi-incidente relacionado con IA.
  • Periodica: Trimestralmente para alto riesgo, semestralmente para medio, anualmente para bajo.

7. Registro de riesgos

Todos los riesgos identificados se registran en el registro de riesgos de IA con los siguientes campos:

  • ID del riesgo y descripcion.
  • Dimension del riesgo (de la taxonomia).
  • Sistema de IA asociado y titular del modelo.
  • Puntuacion de probabilidad, puntuacion de impacto y puntuacion de riesgo.
  • Estrategia de tratamiento y mitigaciones especificas.
  • Responsable de la mitigacion y plazo.
  • Puntuacion de riesgo residual despues de la mitigacion.
  • Estado (abierto, en tratamiento, aceptado, cerrado).
  • Fecha de ultima revision y fecha de proxima revision.

8. Riesgo de IA de terceros

Los sistemas de IA de terceros conllevan riesgos adicionales que deben evaluarse:

Las evaluaciones de riesgo de terceros deben completarse antes de la activacion del proveedor y actualizarse anualmente o cuando el proveedor realice cambios significativos.

  • Postura de seguridad y certificaciones del proveedor (SOC 2, ISO 27001).
  • Practicas de gobernanza y transparencia de datos de entrenamiento.
  • Frecuencia de actualizacion del modelo y proceso de notificacion de cambios.
  • Residencia de datos e inventario de subencargados.
  • SLA de notificacion de incidentes y vias de escalamiento.
  • Derecho de auditoria y asignacion contractual de responsabilidad.
  • Riesgo de dependencia del proveedor y portabilidad de datos.

9. Escalamiento

  • Riesgos criticos (16-25): Escalar inmediatamente al Comite de gobernanza de IA. El despliegue del sistema se bloquea pendiente de la decision del Comite.
  • Riesgos altos (10-15): Escalar al Responsable de gobernanza de IA dentro de las 48 horas. El despliegue requiere un plan de mitigacion aprobado.
  • Mitigaciones vencidas: Si una mitigacion supera su plazo sin completarse, escalar al Responsable de gobernanza de IA.
  • Riesgos sistemicos: Si multiples sistemas comparten el mismo patron de riesgo, escalar al Comite para una respuesta a nivel de cartera.

10. Roles y responsabilidades

RolResponsabilidades de gestion de riesgos
Titular del modeloRealiza las evaluaciones de riesgos, mantiene las entradas del registro de riesgos, implementa las mitigaciones, monitorea el riesgo residual.
Responsable de gobernanza de IARevisa las evaluaciones, da seguimiento a la postura de riesgo de la cartera, escala al Comite, coordina la elaboracion de informes de riesgo.
Comite de gobernanza de IAEstablece el apetito de riesgo, aprueba la aceptacion de riesgos criticos, resuelve escalamientos, revisa el informe trimestral de riesgos.
SeguridadEvalua los riesgos de la dimension de seguridad, realiza modelado de amenazas, revisa la postura de seguridad de los proveedores.
Juridico / CumplimientoEvalua los riesgos de la dimension de cumplimiento, asesora sobre obligaciones regulatorias, revisa los contratos con terceros.

11. Alineacion regulatoria

  • Reglamento Europeo de IA: Articulo 9 (sistema de gestion de riesgos para IA de alto riesgo), Articulo 5 (practicas prohibidas), Articulos 6/Anexo III (clasificacion de alto riesgo).
  • ISO/IEC 42001: Clausula 6.1 (acciones para abordar riesgos y oportunidades), Anexo B (fuentes de riesgo de IA).
  • NIST AI RMF: MAP (contexto e identificacion de riesgos), MEASURE (analisis de riesgos), MANAGE (respuesta y monitoreo de riesgos).
  • ISO 31000: Principios y proceso de gestion de riesgos.

12. Revision

Esta politica se revisa anualmente. El registro de riesgos se revisa trimestralmente por el Responsable de gobernanza de IA y se presenta al Comite de gobernanza de IA. Los cambios significativos en la metodologia de riesgos requieren la aprobacion del Comite.

Control documental

CampoValor
Titular de la politica[Responsable de gobernanza de IA]
Aprobado por[Comite de gobernanza de IA]
Fecha de vigencia[Fecha]
Proxima fecha de revision[Fecha + 12 meses]
Version1.0
ClasificacionInterna

ÂżListo para implementar esta polĂ­tica?

Use VerifyWise para personalizar esta plantilla de polĂ­tica, desplegarla y hacer seguimiento del cumplimiento.

Politica de gestion de riesgos de IA | Plantillas de gobernanza de IA de VerifyWise