Volver a plantillas de polĂ­ticas
PolĂ­tica 07 de 15

Politica de manejo de datos sensibles en IA

Define como se clasifican, protegen y controlan los datos sensibles cuando se utilizan en sistemas de IA.

1. Proposito

Esta politica establece los controles para el manejo de datos sensibles en los sistemas de IA de [Nombre de la organizacion]. Define los niveles de clasificacion de datos, especifica las medidas de seguridad requeridas para cada nivel y confirma que la informacion sensible esta protegida a lo largo del ciclo de vida de la IA — desde la ingesta de datos de entrenamiento hasta la inferencia y los resultados del modelo.

2. Alcance

Esta politica se aplica a:

  • Todos los datos clasificados como Confidenciales o Restringidos que se utilicen o generen por sistemas de IA.
  • Toda la informacion de identificacion personal (PII) procesada por sistemas de IA.
  • Todos los datos de categoria especial (salud, biometricos, financieros, etc.) en contextos de IA.
  • Todos los entornos: desarrollo, pruebas, preproduccion y produccion.
  • Todos los empleados, contratistas y proveedores de terceros que manejen datos sensibles de IA.

3. Niveles de clasificacion de datos

NivelDefinicionEjemplos en el contexto de IA
PublicoInformacion destinada a divulgacion publica. Sin restricciones de acceso.Fichas de modelos publicadas, documentacion publica, pruebas de referencia anonimizadas.
InternoInformacion de uso interno. Bajo riesgo si se divulga pero no destinada al publico.Metricas de entrenamiento no sensibles, registros de experimentos internos, notas de arquitectura del modelo.
ConfidencialInformacion sensible comercial o personal. La divulgacion podria causar dano.Datos de clientes utilizados para entrenamiento, PII en entradas de inferencia, pesos de modelos propietarios, predicciones comercialmente sensibles.
RestringidoInformacion altamente sensible. La divulgacion podria causar dano grave o incumplimiento regulatorio.Registros medicos, datos biometricos, datos de cuentas financieras, entradas de puntuacion crediticia, datos cubiertos por privilegio legal.

Todos los conjuntos de datos utilizados en sistemas de IA deben clasificarse antes de su uso. La clasificacion la realiza el Titular de datos y es revisada por el Delegado de proteccion de datos para conjuntos de datos que contengan datos personales.

4. Requisitos de proteccion por clasificacion

ControlPublicoInternoConfidencialRestringido
Cifrado en reposoOpcionalRecomendadoObligatorio (AES-256)Obligatorio (AES-256)
Cifrado en transitoRecomendadoObligatorio (TLS 1.2+)Obligatorio (TLS 1.2+)Obligatorio (TLS 1.3)
Control de accesoAbiertoBasado en rolesBasado en roles + aprobacionPersonas designadas + MFA
Registro de auditoriaOpcionalRecomendadoObligatorioObligatorio + alertas en tiempo real
Enmascaramiento/anonimizacion de datosNo requeridoNo requeridoObligatorio para no produccionObligatorio para todos los entornos
Revision de retencionAnualAnualTrimestralMensual
Monitoreo DLPNo requeridoRecomendadoObligatorioObligatorio

5. Manejo de PII en sistemas de IA

Texto de marcador de posiciĂłn. Complete con el lenguaje de su organizaciĂłn para 5. Manejo de PII en sistemas de IA.

5.1 Descubrimiento

Antes de que los datos ingresen a cualquier pipeline de IA, deben escanearse en busca de PII utilizando herramientas de descubrimiento automatizadas. Las categorias de PII incluyen, entre otras: nombres, direcciones de correo electronico, numeros de telefono, numeros de identificacion nacional, numeros de cuentas financieras, registros medicos, identificadores biometricos y datos de ubicacion.

5.2 Minimizacion

Los sistemas de IA deben utilizar la cantidad minima de PII necesaria. Tecnicas para reducir la exposicion de PII:

  • Enmascaramiento: Reemplazar PII con marcadores funcionales (p. ej., [CORREO], [NOMBRE]) que preserven la estructura de los datos sin exponer los valores reales.
  • Supresion: Eliminar permanentemente los campos de PII que no sean necesarios para la tarea de IA.
  • Tokenizacion: Reemplazar PII con tokens reversibles almacenados en una boveda segura, accesible solo por sistemas autorizados.
  • Anonimizacion: Transformar los datos de forma irreversible para que las personas no puedan ser reidentificadas. Preferida para datos de entrenamiento cuando no se requiere la identificacion personal.
  • Datos sinteticos: Generar datos artificiales que preserven las propiedades estadisticas sin contener PII real. Preferidos para entornos de desarrollo y pruebas.

5.3 Barreras de proteccion de IA

Deben configurarse barreras de proteccion en tiempo de ejecucion para escanear las entradas y salidas de IA en busca de fugas de PII. Acciones de las barreras:

  • Bloquear: Rechazar la solicitud si se detecta PII en la entrada o salida.
  • Enmascarar: Reemplazar la PII detectada con marcadores antes de reenviar.
  • Alertar: Registrar la deteccion y notificar al equipo de seguridad sin bloquear.

6. Seguridad del modelo y de los resultados de IA

  • Los pesos de modelos propietarios se clasifican como Confidenciales y deben cifrarse en reposo y controlarse el acceso.
  • Los resultados del modelo que contengan datos Confidenciales o Restringidos deben manejarse al mismo nivel de clasificacion que los datos de entrada.
  • El contenido generado por IA no debe almacenarse en sistemas con clasificacion inferior a la de los datos de origen.
  • Los ataques de extraccion e inversion de modelos deben considerarse en el modelo de amenazas para modelos de alto valor.

7. Entornos de desarrollo y pruebas

  • Los datos de produccion clasificados como Confidenciales o Restringidos no deben utilizarse en desarrollo o pruebas sin anonimizacion, enmascaramiento o uso de datos sinteticos.
  • Los entornos de desarrollo deben tener controles de acceso equivalentes al nivel de clasificacion de los datos que manejan.
  • Los conjuntos de datos de prueba deben documentarse con su nivel de clasificacion y cualquier transformacion aplicada.

8. Manejo de datos por terceros

  • Los proveedores de IA de terceros que manejen datos Confidenciales o Restringidos deben demostrar controles de seguridad equivalentes.
  • Los Acuerdos de tratamiento de datos deben especificar los requisitos de manejo por clasificacion.
  • Los proveedores no deben utilizar datos sensibles para el entrenamiento de sus propios modelos.
  • Las restricciones de residencia de datos y subencargados deben aplicarse contractualmente.

9. Respuesta a incidentes de datos sensibles

Si se exponen datos sensibles a traves de un sistema de IA (fuga por prompt, memorizacion del modelo, acceso no autorizado):

  • El incidente debe reportarse inmediatamente al equipo de seguridad y al Delegado de proteccion de datos.
  • El sistema de IA debe suspenderse pendiente de investigacion si la exposicion esta en curso.
  • El articulo 33 del RGPD requiere la notificacion a la autoridad de control dentro de las 72 horas para violaciones de datos personales.
  • Las personas afectadas deben ser notificadas si la violacion probablemente resulte en un alto riesgo para sus derechos (RGPD Articulo 34).
  • El analisis de causa raiz y la correccion deben completarse y documentarse.

10. Roles y responsabilidades

RolResponsabilidades
Titular de datosClasifica los datos, aprueba el acceso, revisa la retencion, asegura que se mantenga la clasificacion.
Titular del modeloAsegura que el sistema de IA maneje los datos al nivel de clasificacion correspondiente o superior, configura las barreras de proteccion.
SeguridadImplementa cifrado, DLP, controles de acceso y monitorea el acceso no autorizado.
Delegado de proteccion de datosRevisa la clasificacion de datos personales, asesora sobre anonimizacion, gestiona las notificaciones de violaciones.
Todos los empleadosManejan los datos segun su clasificacion, reportan sospechas de exposicion de datos.

11. Alineacion regulatoria

  • RGPD: Articulos 5 (principios), 25 (privacidad desde el diseno), 32 (seguridad del tratamiento), 33-34 (notificacion de violaciones).
  • Reglamento Europeo de IA: Articulo 10 (gobernanza de datos), Articulo 15 (exactitud y robustez).
  • ISO/IEC 27001: Controles del Anexo A para control de acceso, criptografia y seguridad de las operaciones.
  • ISO/IEC 42001: Anexo B (B.7 — datos para sistemas de IA).

12. Revision

Esta politica se revisa anualmente o antes si se desencadena por violaciones de datos, nuevos requisitos de clasificacion de datos, cambios regulatorios o cambios en las actividades de tratamiento de datos de IA.

Control documental

CampoValor
Titular de la politica[CISO / Delegado de proteccion de datos]
Aprobado por[Comite de gobernanza de IA]
Fecha de vigencia[Fecha]
Proxima fecha de revision[Fecha + 12 meses]
Version1.0
ClasificacionInterna

ÂżListo para implementar esta polĂ­tica?

Use VerifyWise para personalizar esta plantilla de polĂ­tica, desplegarla y hacer seguimiento del cumplimiento.

Politica de manejo de datos sensibles en IA | Plantillas de gobernanza de IA de VerifyWise