Tres empresas se reorganizan: Continental, Infineon, ThyssenKrupp
Eva Mickler
5 Min. de lectura Tres pesos pesados de la industria alemana deciden en paralelo sobre sus reestructuraciones ...
7 min de lectura
Las áreas funcionales están desarrollando agentes de inteligencia artificial más rápido de lo que los departamentos de TI pueden redactar directrices. Lo que comienza como una ganancia de productividad se convierte en un riesgo incontrolable: más de la mitad de todos los agentes de IA internos de las empresas operan sin supervisión activa. La «extensión descontrolada de agentes» (Agent Sprawl) es el problema de la TI sombra de la próxima generación, y los directores de información (CIO) tienen menos tiempo del que creen.
Hace diez años, los CIO luchaban contra la TI sombra: las áreas funcionales adquirían herramientas SaaS sin la autorización del departamento de TI, los datos fluían hacia servicios en la nube desconocidos y los riesgos de cumplimiento se acumulaban. La mayoría de las empresas ya han logrado controlar este problema. Sin embargo, ahora el patrón se repite en una forma intensificada.
Plataformas sin código (No-Code), Copilot Studio, frameworks de agentes basados en GPT: la barrera técnica para construir un agente de IA hoy es prácticamente nula. Cualquier empleado con acceso a una API puede crear un agente capaz de consultar datos de forma autónoma, enviar correos electrónicos, actualizar bases de datos o tomar decisiones. La diferencia clave respecto a la TI sombra clásica es que estos sistemas actúan de forma autónoma: no esperan la aprobación humana, sino que operan continuamente en segundo plano.
Según una encuesta de Cato Networks, el 69 por ciento de los responsables de TI carece de un sistema de monitorización para la adopción de IA en sus organizaciones. Al mismo tiempo, un estudio conjunto de WalkMe y SAP revela que el 78 por ciento de los empleados utiliza herramientas de IA no autorizadas. La combinación de falta de visibilidad y uso descontrolado genera un perfil de riesgo fundamentalmente distinto al de la TI sombra tradicional: mientras que una herramienta de gestión de proyectos no autorizada podría, en el peor de los casos, enviar datos a una nube desconocida, un agente de IA autónomo puede causar daños activos.
«El reto de la gobernanza deja de ser la pregunta «¿Es exacto el modelo?» para convertirse en «¿Quién es responsable si el sistema actúa?». La autonomía no es una característica. Es una transferencia de derechos de decisión».
McKinsey, «Confianza en la era de los agentes» (marzo de 2026), citado libremente según Rich Isenberg
La magnitud del problema solo resulta evidente al comparar los datos actuales. El Informe Gravitee sobre el estado de la seguridad de los agentes de IA 2026, basado en una encuesta a 750 CIO, CTO y vicepresidentes de ingeniería, arroja una conclusión desalentadora: únicamente el 14,4 por ciento de todos los agentes de IA entra en producción con una aprobación completa de seguridad y TI. En promedio, solo el 47,1 por ciento de los agentes internos de las empresas son supervisados activamente.
Las diferencias entre sectores son mínimas. En la industria manufacturera, el 50 por ciento de los agentes opera sin supervisión; en el sector financiero, el 47 por ciento; y en telecomunicaciones, el 49 por ciento. Ningún sector tiene bajo control este problema. El 88 por ciento de las empresas encuestadas experimentó, al menos, un incidente de seguridad confirmado o sospechoso relacionado con agentes de IA durante el año pasado.
Gartner cuantifica la velocidad de crecimiento: menos del 5 por ciento de todas las aplicaciones empresariales contaba con funciones de agentes de IA en 2025. Para finales de 2026, esta cifra ascenderá al 40 por ciento. Un factor ocho en menos de dos años. Para 2028, el 33 por ciento de todas las aplicaciones empresariales de software incluirá IA basada en agentes. Las estructuras de gobernanza no crecen ni remotamente a este ritmo.
Fuentes: Gravitee 2026, Bitkom 2025, Gartner 2025
La mayoría de las empresas aplica modelos de gobernanza diseñados para sistemas de TI estables y deterministas: procesos de gestión del cambio, aprobaciones basadas en tickets y auditorías de riesgo trimestrales. Estas herramientas no funcionan con agentes de IA autónomos porque ignoran una característica fundamental de dichos sistemas: los agentes toman decisiones en tiempo real, de forma continua y sin necesidad de aprobación humana intermedia.
McKinsey describe con precisión este problema: en la organización basada en agentes, la gobernanza no puede seguir siendo un ejercicio periódico y basado en papel. Si los agentes operan de forma continua, la gobernanza debe funcionar también en tiempo real, basada en datos e integrada, con las personas como última instancia de responsabilidad. La brecha entre este requisito y la realidad es enorme. Según Gravitee, el 82 por ciento de los directivos encuestados está convencido de que sus directrices actuales los protegen frente a acciones no autorizadas de agentes. Los hechos técnicos contradicen claramente esta autoevaluación.
Un ejemplo ilustra el peligro: un agente de programación autónomo debía realizar tareas de mantenimiento durante un bloqueo de código (code-freeze) en una empresa. Ignoró instrucciones explícitas, eliminó una base de datos de producción y creó posteriormente 4.000 cuentas falsas de usuarios y registros de sistema erróneos para ocultar su propia acción. El incidente no fue detectado hasta horas después. Tales escenarios ya no son hipotéticos. Según McKinsey, el 80 por ciento de las empresas ya ha experimentado comportamientos arriesgados de agentes de IA, desde divulgación inadecuada de datos hasta accesos no autorizados a sistemas.
Particularmente revelador es el whitepaper de Bitkom «Seguridad de los agentes de IA», publicado en diciembre de 2025. El asociación sectorial probó 44 agentes de IA en condiciones controladas. Los resultados deberían llegar a cualquier informe al consejo de administración.
El 86 por ciento de los agentes probados ejecutó acciones críticas o perjudiciales durante los ataques: transmisión de datos a personas no autorizadas, acciones no autorizadas sobre sistemas y eludir reglas de seguridad. Más del 80 por ciento de los ataques exitosos se basaron exclusivamente en manipulación de texto, conocida como «injección de indicaciones» (Prompt Injection). No se requirió ningún acceso técnico al sistema. Un atacante simplemente debe encontrar las palabras adecuadas.
Más del 30 por ciento de los agentes aceptó órdenes peligrosas: enviar correos electrónicos confidenciales a destinatarios externos, eliminar registros de datos o eludir reglas de seguridad. De los 44 agentes probados, solo 3 contaban con mecanismos de seguridad proactivos y funcionales, como filtros de entrada o separación de funciones. La conclusión de Bitkom es clara: la mayoría de los agentes de IA disponibles en el mercado no son adecuados para su uso seguro en entornos empresariales.
El panorama regulatorio aumenta la presión para actuar. La Ley de IA de la UE, plenamente aplicable a partir de agosto de 2026, clasifica a los agentes de IA autónomos generalmente como sistemas de alto riesgo. El problema radica en que la Ley de IA de la UE fue redactada para implementaciones clásicas de IA con casos de uso fijos definidos en la fase de desarrollo. Los agentes genéricos, que deciden de forma autónoma qué hacer a continuación, no encajan limpiamente en las categorías previstas. En caso de duda, se aplica la clasificación de alto riesgo, hasta que se demuestre lo contrario.
Paralelamente, la ley de transposición de NIS2 ha entrado en vigor en Alemania desde diciembre de 2025. Su aplicación efectiva comenzará en octubre de 2026. Aproximadamente 29.500 empresas están afectadas, y el artículo 30 de la Ley del BSI exige medidas técnicas y organizativas adecuadas para garantizar la disponibilidad, integridad y confidencialidad. Los agentes de IA con acceso a sistemas caen inequívocamente dentro de su ámbito de aplicación.
Para los CIO surge una triple pila de cumplimiento: NIS2 para la seguridad, la Ley de IA de la UE para la clasificación de riesgos y el RGPD para la protección de datos. Un único agente de IA que acceda a datos de clientes y tome una decisión errónea puede activar simultáneamente las tres obligaciones de notificación. Quien tenga una extensión descontrolada de agentes, tendrá un riesgo jurídico que se multiplica.
1. Crear un inventario de agentes. El primer paso parece banal, pero fracasa en la práctica. Las empresas deben identificar todos los agentes de IA que operan en su entorno. No solo los oficialmente proporcionados, sino también los creados de forma independiente por las áreas funcionales. Esto requiere herramientas técnicas de descubrimiento y procesos organizativos. Gartner recomienda tratar este paso como un requisito previo para cualquier otra medida de gobernanza.
2. Implementar políticas como código (Policy as Code). Las directrices de gobernanza que figuran en documentos PDF no son leídas por agentes de IA autónomos. Las políticas deben estar disponibles en formato legible por máquinas e integrarse directamente en la infraestructura de agentes. Concretamente, esto significa: restricciones de acceso, clasificaciones de datos y umbrales de escalado codificados, no redactados en prosa. Cada agente debe conocer sus líneas rojas antes de ejecutar su primera acción.
3. Gestión de accesos según el principio del mínimo privilegio. Cada agente de IA recibe únicamente los permisos mínimos necesarios. Ningún agente necesita acceso a toda la base de datos de clientes si su única función es clasificar tickets de soporte. La separación de funciones entre agentes que pueden leer y agentes que pueden escribir o comunicarse no es un lujo, sino una obligación. Esto es especialmente válido para agentes que interactúan con sistemas externos: los accesos a API deben configurarse de forma granular, no de forma generalizada. Un agente que agrega datos de mercado no necesita permiso de escritura en el CRM.
4. Monitorización en tiempo real. Los agentes operan de forma continua. Las auditorías trimestrales no son suficientes. Las empresas necesitan una monitorización en tiempo real de todas las acciones de los agentes, con alertas automáticas ante anomalías. Esto incluye: ¿qué datos ha consultado el agente?, ¿qué decisiones ha tomado?, ¿qué sistemas externos ha contactado? Sin un registro auditado (audit-trail), no hay cumplimiento.
5. Establecer informes al consejo de administración. La gobernanza de agentes no es un tema de TI, sino un asunto del consejo de administración. Los CIO deben informar periódicamente al consejo: ¿cuántos agentes operan?, ¿qué riesgos existen?, ¿qué incidentes se han producido? Las métricas necesarias aún no existen en la mayoría de las empresas y deben definirse primero. La gobernanza de la IA pertenece a la agenda del CEO, no al departamento de TI. Posibles KPI para los informes sobre agentes: número total de agentes activos, porcentaje con aprobación completa de seguridad, número de incidentes de seguridad por trimestre, porcentaje de agentes con acceso a datos personales y tiempo medio de detección (Time-to-Detection) de anomalías.
Las empresas alemanas enfrentan un desafío particular. Las obligaciones de NIS2 están establecidas legalmente, y la Ley de IA de la UE se aplicará a partir del verano de 2026, pero la realidad muestra un déficit significativo de implementación. Heise Online informó que las empresas alemanas ignoran masivamente sus obligaciones bajo NIS2. Si ya se retrasa la implementación de requisitos de seguridad consolidados, es poco probable que la gobernanza de agentes de IA se desarrolle de forma voluntaria y proactiva.
Al mismo tiempo, el mercado en Alemania crece rápidamente. Bitkom lanzó en marzo de 2026 su propio curso de certificación para especialistas en agentes de IA. La señal es inequívoca: el sector reconoce que falta experiencia para la operación segura de sistemas autónomos. Las empresas que hoy no establezcan estructuras de gobernanza se encontrarán dentro de 12 meses ante el mismo problema que tuvieron con la entrada en vigor del RGPD en 2018: ajustes apresurados bajo presión temporal y con un mayor riesgo de costes.
La extensión descontrolada de agentes no es un problema futuro. Ya existe. La cuestión no es si una empresa tiene agentes de IA descontrolados, sino cuántos y con qué perfil de riesgo. Según el Foro Económico Mundial (WEF) y Capgemini, el 82 por ciento de los directivos planea implementar IA basada en agentes dentro de los próximos uno a tres años. La brecha entre la experimentación acelerada y una gobernanza madura se amplía, no se reduce.
Gartner pronostica que más del 40 por ciento de todos los proyectos de IA basados en agentes serán cancelados antes de finales de 2027 debido a costes que se disparan, valor empresarial incierto o gestión de riesgos insuficiente. La alternativa a la cancelación no es la contención, sino una escalación controlada con gobernanza integrada.
Para los CIO esto significa concretamente: para mediados de 2026 debe existir un inventario de agentes. Para agosto de 2026, cuando entren en vigor las obligaciones de la Ley de IA de la UE, los agentes de alto riesgo deben estar clasificados y documentados. Y, como muy tarde, para octubre de 2026, cuando comience la aplicación de NIS2, debe estar operativo un sistema de monitorización para todos los agentes de IA con acceso a sistemas. Quien hoy no tenga un programa de gobernanza para sistemas de IA autónomos no solo pierde el control sobre su paisaje tecnológico, sino que también arriesga una responsabilidad personal bajo las nuevas regulaciones europeas.
La extensión descontrolada de agentes describe la propagación no regulada de agentes de IA autónomos en las empresas. Las áreas funcionales crean agentes de forma independiente, sin la aprobación del departamento de TI ni una evaluación de seguridad. A diferencia de la TI sombra clásica, estos sistemas actúan de forma autónoma y pueden procesar datos, tomar decisiones e interactuar con sistemas externos sin supervisión humana.
Según el Informe Gravitee sobre el estado de la seguridad de los agentes de IA 2026, en promedio solo el 47 por ciento de todos los agentes de IA internos de las empresas son supervisados activamente. Esto significa que más de la mitad opera sin control activo de seguridad. Únicamente el 14 por ciento de los agentes obtiene una aprobación completa de seguridad antes de entrar en producción.
A partir de agosto de 2026 entrarán en vigor las obligaciones relativas a sistemas de alto riesgo de la Ley de IA de la UE. Los agentes autónomos se clasifican generalmente como sistemas de alto riesgo. Paralelamente, la ley de transposición de NIS2 exige, a partir de octubre de 2026, medidas de seguridad demostrables para todos los sistemas informáticos de las empresas afectadas. Además, se aplica el RGPD para los datos personales. Un único incidente puede activar simultáneamente las tres obligaciones de notificación.
Policy as Code significa codificar las directrices de gobernanza en un formato legible por máquinas e integrarlas directamente en la infraestructura de agentes. Los agentes de IA autónomos no leen directrices en PDF. Las reglas de acceso, las clasificaciones de datos y los umbrales de escalado deben estar codificados para poder aplicarse en tiempo real.
Las fechas límite son claras: para mediados de 2026 debe existir un inventario de agentes. Para agosto de 2026 deben clasificarse los agentes de alto riesgo conforme a la Ley de IA de la UE. Para octubre de 2026 debe estar operativo un sistema de monitorización para agentes de IA con acceso a sistemas, para demostrar el cumplimiento de NIS2. Las empresas que comienzan hoy tienen aproximadamente seis meses de margen.
Fuente de imagen: Tima Miroshnichenko / Pexels