03.05.2026

8 Min. de lectura

Siete de cada diez empleados en empresas alemanas utilizan herramientas de IA que su departamento de TI nunca ha aprobado. Los secretos empresariales terminan en conjuntos de entrenamiento externos, las cuestiones de responsabilidad quedan sin resolver y el EU AI Act convierte, a partir de agosto de 2026, una falta de gobernanza en un riesgo de cumplimiento con sanciones de hasta 35 millones de euros. Tres medidas generan visibilidad inmediata, sin gran proyecto ni presupuesto adicional.

Lo más importante en resumen

  • El 78 % de los empleados usan herramientas de IA no aprobadas – solo el 14 % de las empresas tiene la responsabilidad de gobernanza claramente definida
  • EU AI Act vinculante a partir de agosto de 2026: sanciones de hasta 35 Mio. EUR o el 7 % de la facturación anual mundial
  • Tres medidas inmediatas: inventario de IA, modelo “policy‑light”, ritmo de revisión trimestral
  • El enablement supera a las prohibiciones: quien involucra a los empleados genera visibilidad en lugar de conductas de ocultación

¿Qué es Shadow AI? Shadow AI se refiere al uso de herramientas de IA por parte de los empleados sin el conocimiento o la autorización del departamento de TI – análogo a Shadow IT, pero con riesgos de datos y responsabilidad mucho mayores, ya que muchos sistemas pueden reutilizar los contenidos introducidos para entrenar modelos.

El problema ya tiene una magnitud clara

El Logicalis CIO Report 2024 ofrece una cifra aleccionadora: el 62 % de los CIO encuestados admiten que ya están haciendo concesiones en la gobernanza de IA. No porque no vean el problema, sino porque la operativa diaria avanza más rápido que cualquier iniciativa de gobernanza. Mientras tanto, los empleados han tomado su propia decisión: no esperan.

ChatGPT, Claude, Gemini, Perplexity, variantes de Copilot del App Store – la lista de herramientas no aprobadas que circulan a diario en las empresas crece más rápido de lo que cualquier herramienta de inventario puede registrar. Los datos de mercado actuales muestran: el 78 % de los trabajadores del conocimiento utilizan al menos una herramienta de IA que su departamento de TI nunca ha visto.

El verdadero peligro no reside en la herramienta en sí, sino en lo que los empleados introducen: extractos de contratos, datos de clientes, análisis internos, documentos estratégicos. Si un empleado carga un borrador de contrato en una IA de consumo para que lo resuma, ese contenido podría acabar en el conjunto de entrenamiento del próximo modelo o en servidores fuera de la UE.

78%

de los empleados usan herramientas de IA no aprobadas

14%

tienen la responsabilidad de gobernanza claramente definida

35 Mio.

EUR de multa máxima bajo el EU AI Act

Por qué agosto de 2026 es un corte duro

El EU AI Act establece a partir de agosto de 2026 obligaciones vinculantes. Los sistemas de IA que caen en áreas de alto riesgo – decisiones de recursos humanos, evaluación crediticia, infraestructura crítica – están sujetos a estrictos requisitos de documentación y auditoría. Quien no tenga un inventario de su uso de IA para entonces no podrá demostrar qué sistemas pertenecen a qué categoría de riesgo.

Las sanciones no son una cifra teórica: hasta 35 millones de euros o el 7 % de la facturación anual mundial. Para una empresa con 500 millones de euros de facturación eso serían 35 millones de euros. Las autoridades de supervisión se centrarán inicialmente en las empresas que hayan llamado la atención por incidentes. Quien disponga de un inventario verificable y una política documentada no será el objetivo más evidente.

Al mismo tiempo vale: el Act no sanciona el uso de IA, sino el uso descontrolado de IA. Ese es el punto clave para una estrategia de gobernanza pragmática. La visibilidad precede a la regulación, no al revés.

Tres medidas que actúan de inmediato

1

Inventario de IA (semana 1‑2)

Una encuesta estructurada a 20‑30 empleados de diferentes departamentos captura, según la experiencia, el 80 % de las herramientas utilizadas. No se necesita ninguna herramienta de descubrimiento. El anonimato aumenta la sinceridad y muestra qué herramientas realmente aportan valor. Resultado: una lista clara con nombre de la herramienta, proveedor, tipo de datos y frecuencia estimada de uso. Esa es la base para cualquier paso posterior.

2

Modelo Policy‑Light (semana 3‑4)

No hay una directiva de 40 páginas. Una hoja DIN‑A4 con tres categorías: verde (aprobado sin restricciones), amarillo (utilizable con condiciones de protección de datos) y rojo (no utilizable con datos de la empresa). La semáforo puede desarrollarse en dos semanas por TI, Legal y un representante del negocio. Los empleados obtienen una orientación clara – sin prohibiciones que sólo fomenten conductas ocultas.

3

Ritmo de revisión trimestral (a partir del mes 2)

La gobernanza de IA no es un proyecto que se cierra. Nuevas herramientas aparecen más rápido de lo que pueden actualizarse las directrices. Una revisión de 90 minutos por trimestre – TI, protección de datos y un responsable de área del negocio – basta para mantener la lista de semáforos actualizada. La frecuencia de uso de una nueva herramienta decide si pasa a la lista de priorización.

Prohibiciones vs. habilitación: lo que muestra la práctica

Las empresas que apuestan por prohibiciones totales informan lo mismo: el uso de herramientas no autorizadas disminuye a corto plazo en el papel y vuelve a subir a medio plazo en el smartphone. Los empleados pasan a dispositivos privados y cuentas personales. El problema de gobernanza se vuelve menos visible, no más pequeño.

Enfoque de habilitación

  • Los empleados siguen siendo visibles en el canal autorizado
  • Las ganancias de productividad pueden documentarse
  • Se crea una cultura de gobernanza mediante la participación
  • El cumplimiento del AI‑Act se demuestra a través del inventario

Enfoque de prohibición

  • El uso se traslada a dispositivos privados
  • La gobernanza se vuelve invisible, no más pequeña
  • Aumenta la frustración de los empleados y desaparece la ventaja de productividad
  • Sin inventario, la prueba de cumplimiento del AI‑Act es casi imposible

Lo que implica un presupuesto realista

El argumento más frecuente contra la gobernanza de IA en medianas empresas: no hay presupuesto, no hay plantilla. Ambas cosas son comprensibles y, sin embargo, no son un obstáculo para las tres medidas descritas. El inventario cuesta tres días‑persona. La política de semáforo cuesta de cuatro a seis días‑persona en desarrollo, y después una hora por trimestre.

Esto no es un proyecto, es una decisión que el CIO puede impulsar en la próxima reunión de dirección. Lo que sí encarece: cumplir con las obligaciones de evidencia a partir de agosto de 2026 sin tiempo de preparación. Las tres medidas no sustituyen una estrategia completa de IA. Son la base sobre la que cualquier estrategia completa debe construirse. Visibilidad antes de que sea posible la gestión.

Preguntas frecuentes

¿A partir de cuándo es vinculante el EU AI Act para las empresas alemanas?

La mayoría de las disposiciones del EU AI Act entran en vigor de forma obligatoria a partir de agosto de 2026. Los sistemas de IA de alto riesgo estarán entonces sujetos a estrictas obligaciones de documentación y auditoría. Prácticas prohibidas como el Social Scoring ya estaban prohibidas desde febrero de 2025. Por lo tanto, las empresas aún disponen de un plazo limitado para crear inventario y política.

¿Qué herramientas de IA se consideran de alto riesgo según el EU AI Act?

Se consideran de alto riesgo los sistemas de IA en ocho áreas definidas: infraestructura crítica, educación, empleo y recursos humanos (incluido el cribado de candidatos), servicios esenciales, aplicación de la ley, migración, justicia y procesos democráticos. Las herramientas de IA de consumo que se usan internamente para resumir textos o investigar no son automáticamente de alto riesgo; lo determinante es el caso de uso concreto.

¿Cómo puedo identificar qué herramientas de IA utilizan realmente mis empleados?

El método más rápido es una encuesta anónima a los empleados con 10‑15 preguntas, complementada con registros DNS en los dispositivos corporativos y un análisis de extensiones de navegador utilizadas. Herramientas especializadas de detección de Shadow IT como Netskope o Microsoft Defender for Cloud Apps proporcionan datos más detallados, aunque no son imprescindibles para un inventario inicial.

¿Basta una política interna de IA sin revisión legal?

Para comenzar sí, con una salvedad importante: cuando los sistemas de IA se empleen en procesos de recursos humanos o en el tratamiento de datos personales especialmente sensibles, es obligatoria una valoración legal. El modelo de semáforo crea una base documentable sobre la que la revisión legal puede basarse, sin tener que partir de cero.

¿Cómo comunicar una política de IA internamente sin generar resistencia?

El tono lo decide todo: “Regulamos lo que está permitido” genera más aceptación que “Prohibimos lo que es arriesgado”. Quien involucra a las unidades de negocio en el desarrollo del semáforo cuenta con un campeón interno al lanzar la política. Resulta útil comunicar explícitamente qué herramientas pueden usarse sin restricciones. La lista verde genera más confianza que la lista roja que genera desconfianza.

Recomendaciones de lectura

Red

Fuente imagen principal: Pexels / Michael Pointner (px:18306898)

Compartir este artículo:

También disponible en

Más artículos

03.05.2026

NVIDIA Agent Toolkit con SAP, Salesforce y CrowdStrike: Lo que 17 socios empresariales significan para los CIOs en la decisión de proveedor de IA en 2026

Eva Mickler

8 Min. de lectura NVIDIA ha anunciado el Agent Toolkit en la GTC 2026 y, al mismo tiempo, ha presentado ...

Leer artículo
03.05.2026

Industria 5.0 como decisión de liderazgo: Lo que los CIOs llevan de la Hannover Messe 2026

Eva Mickler

8 Min. de lectura La Hannover Messe 2026 ha elaborado un mensaje que, en la mayoría de los informes ...

Leer artículo
03.05.2026

Shadow AI: Así es un marco realista de gobernanza de IA para empresas de 500‑5.000 empleados

Angelika Beierlein

8 Min. de lectura Siete de cada diez empleados en empresas alemanas utilizan herramientas de IA que ...

Leer artículo
03.05.2026

De operador a orquestador: lo que el estudio Deloitte 2026 implica para los directivos DACH al evaluar su liderazgo tecnológico

Angelika Beierlein

6 min. de lectura El Deloitte Global Technology Leadership Study 2026 – 660 líderes tecnológicos ...

Leer artículo
30.04.2026

Ganancias Q1 de los Hiperescaladores 29.04.: Tres señales para directivos

Eva Mickler

6 min de lectura El miércoles, 29 de abril, Microsoft, Alphabet y Amazon publicarán sus resultados ...

Leer artículo
29.04.2026

Telekom y NVIDIA Industrial AI Cloud: El impacto del clúster de Múnich con 10,000 GPUs Blackwell para CIOs de DACH

Eva Mickler

Deutsche Telekom y NVIDIA anunciaron a finales de abril de 2026 el lanzamiento de la Industrial AI Cloud. ...

Leer artículo
Una revista de Evernine Media GmbH