Volver a plantillas de políticas
Política 15 de 15

Principios de IA responsable

Codifica el compromiso de la organizacion con el desarrollo, despliegue y operacion de sistemas de IA que sean equitativos, transparentes, responsables y seguros.

1. Proposito

Este documento establece los principios fundamentales que guian todas las actividades de IA en [Nombre de la organizacion]. Estos principios establecen el estandar etico minimo para como construimos, adquirimos y operamos la IA. Cada politica, procedimiento y decision de gobernanza de IA en la organizacion debe ser coherente con estos principios.

Publicamos estos principios como una declaracion de responsabilidad publica. Reflejan nuestros valores y nuestro compromiso con las comunidades, clientes y empleados afectados por nuestros sistemas de IA.

2. Alcance

Estos principios se aplican a:

  • Todos los sistemas de IA independientemente de la clasificacion de riesgo (alto, medio o bajo).
  • Todos los empleados, contratistas y socios involucrados en actividades de IA.
  • Todas las etapas del ciclo de vida de la IA, desde la ideacion hasta el retiro.
  • Tanto sistemas desarrollados internamente como IA de terceros adquirida o integrada.

3. Nuestros principios

Texto de marcador de posición. Complete con el lenguaje de su organización para 3. Nuestros principios.

3.1 Equidad y no discriminacion

Los sistemas de IA no deben producir resultados que discriminen injustamente a personas o grupos en funcion de caracteristicas protegidas como raza, genero, edad, discapacidad, religion o situacion socioeconomica.

Nos comprometemos a:

  • Probar sesgos antes del despliegue utilizando metodos estadisticos apropiados y conjuntos de datos de evaluacion representativos.
  • Utilizar datos de entrenamiento que sean representativos, equilibrados y revisados en busca de sesgos historicos que el modelo podria amplificar.
  • Documentar las limitaciones conocidas, los impactos dispares potenciales y los grupos demograficos evaluados.
  • Proporcionar mecanismos para que las personas impugnen las decisiones impulsadas por IA que les afecten, conforme al articulo 22 del RGPD (derecho a no ser objeto de decisiones basadas unicamente en el tratamiento automatizado).
  • Reevaluar la equidad periodicamente despues del despliegue, no solo en el lanzamiento.

3.2 Transparencia y explicabilidad

Las personas que interactuan con o son afectadas por nuestros sistemas de IA tienen derecho a comprender como funcionan dichos sistemas y que papel desempena la IA en las decisiones que les conciernen.

Nos comprometemos a:

  • Divulgar cuando se utiliza IA en las interacciones con personas, segun lo exige el articulo 50 del Reglamento Europeo de IA.
  • Proporcionar explicaciones de las decisiones impulsadas por IA a un nivel apropiado para la audiencia y la importancia de la situacion.
  • Mantener fichas de modelos, fichas de datos y documentacion de sistemas que describan capacidades, limitaciones y modos de fallo conocidos.
  • Poner los registros de gobernanza a disposicion para auditorias internas y externas.
  • Comunicar claramente el nivel de confianza y las limitaciones de los resultados de IA a los usuarios finales.

3.3 Responsabilidad y supervision humana

La IA no exime a las personas de responsabilidad. Todo sistema de IA debe tener un titular designado, y los humanos deben mantener un control significativo sobre las decisiones que afecten materialmente a las personas o a la organizacion.

Nos comprometemos a:

  • Asignar un titular del modelo a cada sistema de IA que rinda cuentas por su comportamiento a lo largo de su ciclo de vida.
  • Requerir revision humana para las decisiones de alto riesgo antes de que surtan efecto, segun lo exige el articulo 14 del Reglamento Europeo de IA.
  • Mantener la capacidad de anular, corregir o desactivar los sistemas de IA en cualquier momento.
  • Establecer vias claras de escalamiento cuando los sistemas de IA se comporten de forma inesperada.
  • Registrar las decisiones de gobernanza con su justificacion para que puedan reconstruirse posteriormente.

3.4 Privacidad y proteccion de datos

Los sistemas de IA deben respetar la privacidad de las personas y cumplir con las leyes de proteccion de datos aplicables. Los datos utilizados para entrenar, ajustar u operar la IA deben recopilarse, procesarse y almacenarse de forma licita.

Nos comprometemos a:

  • Recopilar solo los datos necesarios para la finalidad declarada (minimizacion de datos).
  • Obtener el consentimiento apropiado o establecer una base legal antes de procesar datos personales.
  • Documentar la procedencia, el licenciamiento y el periodo de retencion de todos los datos de entrenamiento y evaluacion.
  • Aplicar cifrado, controles de acceso y anonimizacion cuando sea apropiado.
  • Realizar evaluaciones de impacto en la proteccion de datos para los sistemas de IA que procesen datos personales a gran escala.
  • Respetar los derechos de las personas a acceder, rectificar y suprimir sus datos segun sean utilizados por los sistemas de IA.

3.5 Seguridad, proteccion y robustez

Los sistemas de IA deben ser fiables en condiciones normales y resilientes ante condiciones adversarias o inesperadas. La seguridad debe considerarse a lo largo del ciclo de vida de la IA, no anadirse despues del despliegue.

Nos comprometemos a:

  • Probar entradas adversarias, inyeccion de prompts y modos de fallo antes del despliegue.
  • Proteger la cadena de suministro de IA: modelos, bibliotecas, pipelines de datos e infraestructura.
  • Monitorear la degradacion del rendimiento, la deriva y los fallos de seguridad en produccion.
  • Mantener planes de respuesta a incidentes que cubran escenarios de fallo especificos de IA.
  • Disenar mecanismos de respaldo para que los procesos esenciales puedan continuar cuando los sistemas de IA fallen.

3.6 Calidad y gobernanza de datos

La calidad de los resultados de IA depende de la calidad de los datos que los alimentan. Una gobernanza deficiente de los datos crea riesgos acumulativos en equidad, privacidad y seguridad.

Nos comprometemos a:

  • Establecer estandares de calidad de datos para todos los datos de entrenamiento, validacion y produccion de IA.
  • Documentar el linaje de datos para que el origen, las transformaciones y las dependencias de cada conjunto de datos sean rastreables.
  • Evaluar los conjuntos de datos en busca de sesgos, representatividad y cumplimiento regulatorio antes de su uso.
  • Asignar titulares de datos que rindan cuentas por la calidad y el cumplimiento de sus conjuntos de datos.

3.7 Sostenibilidad

El impacto ambiental de la IA debe considerarse en las decisiones de diseno y operacion. La eficiencia es parte de la responsabilidad.

Nos comprometemos a:

  • Evaluar el costo computacional y el impacto de carbono del entrenamiento y la inferencia.
  • Preferir arquitecturas eficientes, almacenamiento en cache y ajuste fino en lugar de reentrenamiento redundante.
  • Rastrear e informar el consumo de recursos relacionado con IA.

4. Aplicacion de estos principios

Texto de marcador de posición. Complete con el lenguaje de su organización para 4. Aplicacion de estos principios.

4.1 En las decisiones de gobernanza

El Comite de gobernanza de IA utiliza estos principios como base para aprobar o rechazar casos de uso de IA, establecer umbrales de riesgo y resolver escalamientos.

4.2 En el desarrollo y las pruebas

Los equipos de ingenieria y ciencia de datos hacen referencia a estos principios durante las revisiones de diseno, la seleccion de datos, la validacion de modelos y las pruebas. El diseno de algoritmos debe incluir pruebas de sesgo, metricas de equidad y evaluacion adversaria como protocolo estandar, no como adiciones opcionales.

4.3 En la adquisicion

Los proveedores de IA de terceros se evaluan segun estos principios. Las evaluaciones de riesgo de proveedores incluyen preguntas sobre pruebas de equidad, capacidades de transparencia, practicas de manejo de datos y preparacion para respuesta a incidentes.

4.4 En el monitoreo

El monitoreo posdespliegue evalua si los sistemas desplegados continuan operando de acuerdo con estos principios. La deriva en las metricas de equidad, los cambios de sesgo y los incidentes de seguridad desencadenan una reevaluacion y posible suspension.

5. Aprendizaje continuo

La tecnologia de IA, la regulacion y las expectativas sociales evolucionan rapidamente. Nos comprometemos a:

  • Monitorear los riesgos emergentes, los cambios regulatorios y las mejores practicas del sector.
  • Actualizar estos principios cuando se identifiquen nuevos riesgos u obligaciones.
  • Compartir las lecciones aprendidas de incidentes, casi-incidentes y hallazgos de auditoria en toda la organizacion.
  • Invertir en formacion continua para que todos los empleados comprendan su rol en la IA responsable.

6. Alineacion regulatoria

Estos principios estan alineados con:

  • Reglamento Europeo de IA: Transparencia (Art. 13), supervision humana (Art. 14), exactitud/robustez (Art. 15), no discriminacion (Art. 10), notificacion al usuario (Art. 50).
  • RGPD: Toma de decisiones automatizada (Art. 22), proteccion de datos desde el diseno (Art. 25), evaluaciones de impacto en la proteccion de datos (Art. 35).
  • ISO/IEC 42001: Compromiso del liderazgo (Clausula 5), tratamiento de riesgos (Clausula 8), partes interesadas (Clausula 4.2).
  • NIST AI RMF: Funciones Govern (GV), Map (MP), Measure (MS), Manage (MG).
  • Principios de IA de la OCDE: Crecimiento inclusivo, valores centrados en el ser humano, transparencia, robustez, responsabilidad.

7. Excepciones

Estos principios no admiten excepciones. Si un sistema de IA no puede operarse de acuerdo con estos principios, no debe desplegarse. Cuando exista tension entre principios (p. ej., transparencia vs. seguridad), el Comite de gobernanza de IA determina el equilibrio apropiado para ese contexto especifico, y la justificacion se documenta.

8. Revision

Estos principios se revisan anualmente o cuando se desencadene por cambios significativos en los requisitos regulatorios, la estrategia organizacional o las lecciones aprendidas de incidentes de IA. Las actualizaciones requieren la aprobacion del Comite de gobernanza de IA.

Control documental

CampoValor
Titular de la politica[Responsable de gobernanza de IA]
Aprobado por[Comite de gobernanza de IA / Junta directiva]
Fecha de vigencia[Fecha]
Proxima fecha de revision[Fecha + 12 meses]
Version1.0
ClasificacionInterna

¿Listo para implementar esta política?

Use VerifyWise para personalizar esta plantilla de política, desplegarla y hacer seguimiento del cumplimiento.

Principios de IA responsable | Plantillas de gobernanza de IA de VerifyWise