Sus empleados ya est谩n usando IA. La pregunta es si usted lo sabe.
Un desarrollador pega c贸digo fuente propietario en ChatGPT. Un analista de marketing sube datos de clientes a una herramienta de generaci贸n de im谩genes. Un miembro del equipo de finanzas enruta consultas sensibles a trav茅s de un endpoint LLM no aprobado. Ninguna de estas interacciones aparece en ning煤n registro de software aprobado.
Esto es shadow AI: el uso de herramientas de IA dentro de una organizaci贸n sin aprobaci贸n de TI, seguridad o cumplimiento. No aparece en los inventarios de software sino en los registros de red. Y la brecha entre la adopci贸n y la gobernanza sigue ampli谩ndose. Para cuando una organizaci贸n descubre una herramienta no aprobada, es posible que los datos sensibles ya se hayan enviado a un proveedor con pol铆ticas de retenci贸n y entrenamiento desconocidas.
Las consecuencias son concretas. Los datos enviados a proveedores de IA pueden ser retenidos, usados para entrenamiento o expuestos a trav茅s de brechas de seguridad. Esto crea exposici贸n de cumplimiento bajo el GDPR, HIPAA, SOC 2 y reglas sectoriales espec铆ficas que requieren controles de procesamiento de datos. Las relaciones con proveedores no se rastrean: sin acuerdos de procesamiento de datos, sin evaluaciones de seguridad, sin protecciones contractuales.
Y cuando un regulador pregunta qu茅 herramientas de IA usa la organizaci贸n, qui茅n las usa y qu茅 datos procesan, la mayor铆a de las organizaciones no pueden responder.
Por qu茅 las herramientas de seguridad tradicionales se quedan cortas
Los firewalls pueden bloquear dominios pero no pueden categorizar el tr谩fico como relacionado con IA ni evaluar el perfil de riesgo de un proveedor de IA. Los sistemas DLP detectan patrones en datos salientes pero no mantienen un registro de herramientas de IA. Las plataformas SIEM recopilan los registros sin procesar que contienen evidencia del uso de IA pero carecen de la l贸gica de detecci贸n para encontrarlo y clasificarlo.
Lo que se necesita es un sistema que ingiera datos de registro existentes, identifique el uso de herramientas de IA, punt煤e el riesgo y proporcione un camino desde la detecci贸n hasta la gobernanza.
C贸mo funciona la detecci贸n de Shadow AI de VerifyWise
La detecci贸n de Shadow AI en VerifyWise es pasiva. Sin agentes en endpoints, sin extensiones de navegador. Ingiere datos de registro que las organizaciones ya recopilan de su infraestructura de seguridad.
Ingesta de registros
Est谩n disponibles dos m茅todos de ingesta. Una API REST acepta eventos en formato JSON y funciona con sistemas SIEM, pipelines de registros personalizados y herramientas de orquestaci贸n. Un receptor syslog en el puerto TCP 5514 acepta mensajes syslog est谩ndar de proxies web, firewalls y dispositivos de red.
An谩lisis y normalizaci贸n
Los registros sin procesar llegan en diferentes formatos dependiendo de la fuente. Cuatro analizadores integrados manejan las fuentes empresariales m谩s comunes: Zscaler Internet Access, Netskope Cloud Security, proxy Squid y un analizador gen茅rico de clave-valor para sistemas que producen pares estructurados de clave=valor. Cada analizador extrae marca de tiempo, IP de origen, nombre de usuario, dominio de destino, ruta URL, m茅todo HTTP, bytes transferidos y acci贸n tomada, luego los normaliza en un esquema de eventos com煤n.
Identificaci贸n de herramientas de IA
Los eventos normalizados se comparan con un registro curado de m谩s de 50 herramientas y servicios de IA organizados por categor铆a: chatbots LLM (ChatGPT, Claude, Gemini, Perplexity), asistentes de codificaci贸n (GitHub Copilot, Cursor, Tabnine), generadores de im谩genes (Midjourney, DALL-E, Stable Diffusion), herramientas de escritura (Notion AI, Jasper, Grammarly) y plataformas de IA low-code (v0.dev, Bolt, Replit). Cada entrada del registro incluye el nombre de la herramienta, proveedor, dominios asociados, clasificaci贸n de riesgo predeterminada y metadatos de categor铆a.
La detecci贸n va m谩s all谩 de la coincidencia de dominios. Los patrones regex aplicados a las rutas URI extraen identificadores de modelos espec铆ficos del tr谩fico de API. Cuando una solicitud llega al endpoint de AWS Bedrock con una ruta que contiene anthropic.claude-3-opus, o cuando el tr谩fico a Azure OpenAI referencia gpt-4-turbo en la ruta de despliegue, el sistema captura el modelo espec铆fico que se est谩 invocando. Esta extracci贸n a nivel de modelo cubre AWS Bedrock, Azure OpenAI, Google Vertex AI y endpoints de API directos de los principales proveedores.

Enriquecimiento de eventos
Cada evento detectado se enriquece con contexto organizacional. El nombre de usuario se correlaciona con departamento, t铆tulo del puesto y gerente directo a partir de los datos del SIEM. Esto importa para la puntuaci贸n de riesgos: un analista de finanzas accediendo a una herramienta de IA no aprobada conlleva un riesgo diferente al de un desarrollador usando la misma herramienta.
Puntuaci贸n de riesgos: cuatro factores ponderados
Cada herramienta de IA detectada obtiene una puntuaci贸n de riesgo compuesta de 0 a 100, calculada a partir de cuatro factores ponderados.
Estado de aprobaci贸n (40%) es el factor m谩s importante. Una herramienta no aprobada sin registro de gobernanza recibe la penalizaci贸n m谩xima. Una herramienta formalmente revisada y aprobada recibe el m铆nimo. Las herramientas en revisi贸n activa quedan en el medio.
Cumplimiento de la pol铆tica de datos (25%) eval煤a la postura de seguridad del proveedor de IA. 驴El proveedor tiene SOC 2 Tipo II? 驴El servicio cumple con el GDPR con un acuerdo de procesamiento de datos publicado? 驴El proveedor cifra los datos en reposo y en tr谩nsito? 驴Usa datos de clientes para el entrenamiento del modelo? Los proveedores con pol铆ticas de entrenamiento opt-out o sin pol铆tica de retenci贸n publicada obtienen un riesgo m谩s alto.
Sensibilidad del departamento (20%) pondera m谩s alto el uso desde Finanzas, Legal, RRHH y funciones Ejecutivas que desde Marketing, Ventas o Ingenier铆a. Estos departamentos manejan datos regulados (registros financieros, privilegio legal, PII de empleados, planes estrat茅gicos) donde la exposici贸n a una herramienta de IA no evaluada tiene consecuencias desproporcionadas.
Volumen de uso (15%) normaliza los recuentos de eventos sin procesar contra los promedios organizacionales para encontrar valores at铆picos. Una herramienta que genera 10x el volumen promedio de tr谩fico es de riesgo elevado independientemente del estado de aprobaci贸n, porque un alto volumen implica una integraci贸n m谩s profunda en el flujo de trabajo y una mayor exposici贸n de datos.
Las puntuaciones de riesgo no son est谩ticas. Se recalculan a medida que llegan nuevos eventos, cambian los patrones de uso y el estado de la herramienta progresa a trav茅s de la gobernanza.
Alertas a trav茅s de un motor de reglas configurable
El sistema de alertas tiene seis tipos de disparadores configurables:
- Nueva herramienta de IA detectada - se activa cuando el sistema ve una herramienta que nunca ha encontrado en el tr谩fico de la organizaci贸n
- Umbral de uso excedido - se activa cuando el recuento de eventos de una herramienta supera un l铆mite configurable dentro de un per铆odo de tiempo
- Acceso de departamento sensible - se activa cuando usuarios de departamentos de alta sensibilidad acceden a una herramienta o categor铆a de herramientas
- Intentos de acceso bloqueados - se activa cuando los registros muestran que un proxy o firewall bloque贸 el acceso a una herramienta de IA, indicando intenci贸n incluso cuando se deneg贸 el acceso
- Puntuaci贸n de riesgo excedida - se activa cuando la puntuaci贸n de riesgo compuesta de una herramienta cruza un l铆mite configurable
- Nuevo usuario detectado - se activa cuando un usuario previamente no visto comienza a acceder a una herramienta de IA conocida
Cada regla puede disparar una o m谩s acciones: enviar notificaciones de alerta, crear tareas de gobernanza con propietarios y plazos, iniciar una revisi贸n de gobernanza o crear entradas de riesgo. Los per铆odos de enfriamiento previenen la fatiga de alertas al suprimir notificaciones repetidas durante un intervalo configurable. Las listas de destinatarios se configuran por regla, de modo que una alerta de nueva herramienta llega al equipo de seguridad mientras una alerta de departamento sensible va al oficial de cumplimiento.
De la detecci贸n a la gobernanza en cuatro pasos
La mayor铆a de las organizaciones que abordan la shadow AI se detienen en la detecci贸n. Identifican qu茅 herramientas est谩n en uso, producen un informe y dejan el resto a procesos manuales para decidir qu茅 sucede despu茅s. VerifyWise cierra esa brecha con un asistente de gobernanza que convierte una herramienta detectada en un activo gestionado y rastreable.
-
Paso 1: Agregar al inventario de modelos. La herramienta detectada se agrega al inventario de modelos de la organizaci贸n. Los campos se rellenan previamente con datos de detecci贸n: nombre de la herramienta, proveedor, dominio principal, categor铆a, puntuaci贸n de riesgo inicial. El propietario de gobernanza revisa y complementa esta informaci贸n.
-
Paso 2: Asignar propiedad de gobernanza. Se asigna un propietario, un revisor y una fecha l铆mite. El propietario impulsa la evaluaci贸n; el revisor proporciona supervisi贸n secundaria; la fecha l铆mite crea responsabilidad.
-
Paso 3: Evaluaci贸n de riesgos. Una evaluaci贸n estructurada captura la clasificaci贸n de sensibilidad de datos (qu茅 tipos de datos est谩n expuestos), recuento de usuarios (cu谩ntas personas lo usan) y exposici贸n departamental (qu茅 funciones est谩n afectadas). Esto alimenta el registro de riesgos de VerifyWise.
-
Paso 4: Iniciar el ciclo de vida del modelo (opcional). La herramienta puede inscribirse en un proceso de ciclo de vida completo, activando la revisi贸n de seguridad del proveedor, revisi贸n legal de los t茅rminos de servicio y negociaci贸n del acuerdo de procesamiento de datos.
A medida que una herramienta avanza a trav茅s de la gobernanza, su estado progresa: Detectada (sin acci贸n tomada), En revisi贸n (gobernanza iniciada), luego uno de cuatro estados finales: Aprobada (sancionada), Restringida (permitida con condiciones), Bloqueada (prohibida) o Descartada (irrelevante o falso positivo).
Esto produce una cadena auditable desde "herramienta desconocida en tr谩fico de red" a trav茅s de "revisi贸n de gobernanza con propietario asignado" hasta "activo de IA formalmente gobernado con decisi贸n de aprobaci贸n documentada". Esa cadena es lo que los reguladores y auditores buscan.
Anal铆tica e informes

El panel de informaci贸n se abre con cuatro tarjetas KPI: aplicaciones de IA 煤nicas descubiertas, total de usuarios de IA en todas las herramientas, la herramienta de mayor riesgo actualmente detectada y el departamento m谩s activo por volumen de eventos. Estas proporcionan una instant谩nea de nivel ejecutivo antes de cualquier profundizaci贸n.
Cuatro tipos de gr谩ficos proporcionan vistas m谩s profundas. Un gr谩fico de barras de herramientas por volumen de eventos clasifica las herramientas detectadas por tr谩fico total, mostrando qu茅 herramientas tienen la mayor superficie de exposici贸n de datos. Un gr谩fico de barras de herramientas por usuarios 煤nicos clasifica por recuento de usuarios distintos, revelando qu茅 herramientas tienen la adopci贸n m谩s amplia. Un gr谩fico circular de usuarios por departamento muestra d贸nde se concentra el uso de IA. Un gr谩fico de l铆neas de an谩lisis de tendencias rastrea el total de eventos, usuarios 煤nicos y nuevos descubrimientos de herramientas en rangos configurables de 30 d铆as a un a帽o.

Los datos de actividad de usuarios est谩n disponibles en dos niveles. A nivel individual: recuentos de eventos de cada usuario, herramientas accedidas, puntuaciones de riesgo y departamento. A nivel departamental: uso agregado, principales herramientas y exposici贸n m谩xima al riesgo, adecuado para informes a jefes de departamento y comit茅s de cumplimiento.
Retenci贸n de datos
Un modelo de retenci贸n de tres niveles equilibra la profundidad con el almacenamiento:
- Eventos sin procesar se conservan durante 30 d铆as con detalle completo para investigaci贸n forense y profundizaci贸n
- Res煤menes diarios se conservan durante un a帽o, proporcionando res煤menes agregados para an谩lisis de tendencias e informes trimestrales
- Res煤menes mensuales se conservan permanentemente para comparaciones interanuales y consultas regulatorias que abarcan m煤ltiples a帽os
Todos los datos son buscables, clasificables y filtrables. Las exportaciones est谩n disponibles para flujos de trabajo de cumplimiento que requieran extracci贸n de datos para auditores o presentaciones regulatorias.
Lo que la detecci贸n de Shadow AI puede y no puede hacer
Es importante ser claro sobre el alcance. La detecci贸n de Shadow AI opera sobre metadatos de red. Esto es lo que cubre y d贸nde tiene limitaciones.
Lo que hace:
- Descubre el uso de herramientas de IA en la nube y SaaS a partir de registros de red sin agentes en endpoints ni extensiones de navegador
- Identifica m谩s de 50 herramientas de IA en cinco categor铆as y extrae nombres de modelos espec铆ficos del tr谩fico de API en AWS Bedrock, Azure OpenAI, Google Vertex AI y endpoints directos de proveedores
- Punt煤a el riesgo en una escala de 0 a 100 usando cuatro factores ponderados: estado de aprobaci贸n, postura de cumplimiento del proveedor, volumen de uso y sensibilidad del departamento
- Alerta a los equipos a trav茅s de 6 tipos de disparadores con 4 tipos de acciones (notificaciones, tareas, revisiones de gobernanza, entradas de riesgo)
- Convierte herramientas detectadas en activos gobernados a trav茅s de un asistente de cuatro pasos que crea entradas en el inventario de modelos, asigna propietarios e inicia evaluaciones de riesgos
- Analiza 4 formatos de registro de forma nativa (Zscaler, Netskope, Squid, clave-valor gen茅rico)
Lo que no hace:
- Inspeccionar contenido HTTPS cifrado. Opera sobre metadatos: dominios, rutas URL, marcas de tiempo, identificadores de usuario. Extraer esto del tr谩fico cifrado requiere un proxy de intercepci贸n TLS o gateway de API aguas arriba
- Detectar modelos de IA alojados localmente (Ollama, instancias locales de Llama, servidores de inferencia privados). Estos no generan tr谩fico de red externo
- Capturar prompts, respuestas o conversaciones reales. Trabaja solo con metadatos de acceso: qui茅n accedi贸 a qu茅, cu谩ndo, desde qu茅 departamento, con qu茅 frecuencia
- Bloquear tr谩fico. Es solo consultivo. Bloquear el acceso requiere configuraci贸n en la capa de proxy, firewall o DNS
- Ejecutar detecci贸n de anomal铆as de comportamiento. Las alertas son basadas en reglas con umbrales expl铆citos, no an谩lisis de patrones impulsado por ML
Primeros pasos
La detecci贸n de Shadow AI es un m贸dulo dentro de la plataforma de gobernanza de IA VerifyWise, junto con inventario de modelos, gesti贸n de riesgos, seguimiento de marcos de cumplimiento y evaluaciones de LLM. Si su organizaci贸n ya est谩 recopilando registros de proxy web o firewall, tiene los datos que necesita. La pregunta es si los est谩 usando para encontrar herramientas de IA antes de que se conviertan en incidentes de cumplimiento.
Explore nuestra funci贸n de Detecci贸n de Shadow AI para ver c贸mo el descubrimiento pasivo basado en registros, la puntuaci贸n de riesgos y los flujos de trabajo de gobernanza se unen en una sola plataforma.
Reserve una demostraci贸n para ver c贸mo funciona la detecci贸n de Shadow AI con su infraestructura de registros existente, o explore la plataforma VerifyWise completa para ver c贸mo la detecci贸n se conecta con la gobernanza.