Volver a plantillas de políticas
Política 09 de 15

Politica de transparencia y notificacion al usuario de IA

Especifica cuando y como se informa a los usuarios y personas afectadas sobre la participacion de la IA en los productos, servicios y procesos de la organizacion.

1. Proposito

Esta politica define las obligaciones de transparencia y notificacion para los sistemas de IA de [Nombre de la organizacion]. Especifica cuando se debe informar a los usuarios de que la IA esta involucrada, que informacion debe proporcionarse, como se entregan las divulgaciones y quien es responsable de mantenerlas. La transparencia es tanto un requisito regulatorio como una obligacion de confianza.

2. Alcance

Esta politica se aplica a:

  • Todos los sistemas de IA que interactuen con o produzcan resultados para personas (clientes, empleados, socios, publico).
  • Todos los sistemas de IA que generen o manipulen contenido (texto, imagenes, audio, video).
  • Todos los sistemas de IA que tomen o influyan en decisiones sobre personas.
  • Tanto sistemas de IA internos como orientados al exterior.

3. Obligaciones de transparencia

Texto de marcador de posición. Complete con el lenguaje de su organización para 3. Obligaciones de transparencia.

3.1 Divulgacion de interaccion con IA

Cuando una persona interactua con un sistema de IA (chatbot, asistente virtual, soporte automatizado), debe ser informada de que esta interactuando con IA, no con un humano. Esto aplica a menos que sea evidente por las circunstancias (Reglamento Europeo de IA Articulo 50(1)).

La divulgacion debe ser:

  • Proporcionada antes o al inicio de la interaccion.
  • Clara y en lenguaje sencillo.
  • Accesible (no oculta en los terminos de servicio).

3.2 Marcado de contenido sintetico

El contenido generado por IA (texto, imagenes, audio, video) debe marcarse como generado o manipulado artificialmente cuando pueda confundirse razonablemente con contenido producido por humanos o contenido real (Reglamento Europeo de IA Articulo 50(2)).

  • Los metadatos legibles por maquina deben incrustarse en la salida cuando sea tecnicamente viable.
  • Las etiquetas legibles por humanos deben aplicarse cuando el contenido se publique o distribuya externamente.
  • El contenido utilizado con fines de satira, parodia o expresion artistica puede estar exento si es claramente identificable como tal.

3.3 Sistemas de reconocimiento de emociones y biometria

Si la organizacion despliega sistemas de reconocimiento de emociones o categorizacion biometrica, las personas expuestas a estos sistemas deben ser informadas de su operacion (Reglamento Europeo de IA Articulo 50(3)).

3.4 Divulgacion de deepfakes

El contenido de imagen, audio o video generado o manipulado por IA que constituya un deepfake debe divulgarse como generado o manipulado artificialmente antes o en el momento de su distribucion (Reglamento Europeo de IA Articulo 50(4)).

4. Transparencia del implementador para sistemas de alto riesgo

Para sistemas de IA de alto riesgo (Reglamento Europeo de IA Articulo 13), los implementadores deben proporcionar informacion sobre:

  • El proposito previsto y la naturaleza del sistema de IA.
  • El nivel de exactitud, incluidas las limitaciones conocidas.
  • Las circunstancias que pueden afectar el rendimiento.
  • Las medidas de supervision humana implementadas.
  • La vida util esperada y los requisitos de mantenimiento.

5. Transparencia de la toma de decisiones automatizada

Cuando los sistemas de IA tomen o influyan significativamente en decisiones sobre personas (RGPD Articulos 13, 14 y 22):

  • Las personas deben ser informadas de que se esta realizando un tratamiento automatizado.
  • La logica empleada debe explicarse en terminos comprensibles para la persona.
  • La importancia y las posibles consecuencias del tratamiento deben comunicarse.
  • Las personas deben ser informadas de su derecho a solicitar una revision humana de la decision.
  • Debe proporcionarse informacion de contacto para ejercer estos derechos.

6. Como se entregan las divulgaciones

CanalMetodo de divulgacion
Chatbot o asistente virtualMensaje de apertura antes de que comience la conversacion (p. ej., "Esta conversando con un asistente de IA").
Correo electronico o comunicacion escritaNota al pie o encabezado indicando la participacion de IA en la redaccion.
Aplicacion web o movilEtiqueta en contexto junto al contenido o recomendaciones generadas por IA.
Interaccion de vozAnuncio de audio al inicio de la llamada o interaccion.
Medios generados (imagenes, video)Marca de agua, etiqueta de metadatos o etiqueta acompanante.
Notificacion de decisionCarta o notificacion que explique la participacion de la IA y como solicitar una revision.

7. Transparencia interna

Para los sistemas de IA de uso interno (orientados a empleados):

  • Los empleados deben ser informados cuando se utilice IA en procesos de RRHH (evaluaciones de desempeno, programacion, seleccion).
  • El monitoreo de empleados mediante IA debe divulgarse conforme a la legislacion laboral local.
  • Las herramientas internas de IA deben indicar claramente cuando el resultado es generado por IA frente a producido por humanos.

8. Documentacion

Para cada sistema de IA, el Titular del modelo debe documentar:

Esta documentacion se mantiene en el inventario de IA y esta disponible para auditoria.

  • Que obligaciones de transparencia aplican (segun el tipo de sistema y la clasificacion de riesgo).
  • Como se cumple cada obligacion (metodo de divulgacion, texto, ubicacion).
  • Cuando se implementaron las divulgaciones y cuando se revisaron por ultima vez.
  • Cualquier exencion reclamada y su justificacion.

9. Roles y responsabilidades

RolResponsabilidades de transparencia
Titular del modeloIdentifica las obligaciones aplicables, implementa las divulgaciones, mantiene la documentacion.
Producto/UXDisena las interfaces de divulgacion que sean claras, accesibles y no disruptivas.
JuridicoAsesora sobre requisitos regulatorios, revisa el texto de las divulgaciones, evalua las exenciones.
Responsable de gobernanza de IAAudita el cumplimiento de transparencia en toda la cartera, da seguimiento a los cambios regulatorios.

10. Alineacion regulatoria

  • Reglamento Europeo de IA: Articulo 50 (transparencia para proveedores e implementadores), Articulo 13 (informacion del implementador para sistemas de alto riesgo).
  • RGPD: Articulos 13-14 (obligaciones de informacion), Articulo 22 (toma de decisiones automatizada).
  • ISO/IEC 42001: Clausula 4.2 (partes interesadas), Anexo C (consideraciones de transparencia).
  • NIST AI RMF: Funcion GOVERN (GV-4: transparencia organizacional).

11. Revision

Esta politica se revisa anualmente o cuando se desencadene por nuevos requisitos de transparencia (p. ej., finalizacion del Codigo de practicas del Reglamento Europeo de IA), nuevos tipos de sistemas de IA o hallazgos de auditoria.

Control documental

CampoValor
Titular de la politica[Responsable de gobernanza de IA]
Aprobado por[Comite de gobernanza de IA]
Fecha de vigencia[Fecha]
Proxima fecha de revision[Fecha + 12 meses]
Version1.0
ClasificacionInterna

¿Listo para implementar esta política?

Use VerifyWise para personalizar esta plantilla de política, desplegarla y hacer seguimiento del cumplimiento.

Politica de transparencia y notificacion al usuario de IA | Plantillas de gobernanza de IA de VerifyWise