04.03.2026

En resumen

  • Desde febrero de 2025 entran en vigor las primeras prohibiciones de la Ley de IA – a partir de agosto de 2025 se aplicarán íntegramente los requisitos para los sistemas de IA de alto riesgo.
  • Más de 300.000 empresas en la UE están directamente afectadas – como proveedoras, explotadoras o importadoras de sistemas de IA.
  • Las categorías de riesgo determinan el esfuerzo de cumplimiento normativo: desde obligaciones de transparencia para chatbots hasta exigencias exhaustivas de documentación para sistemas de alto riesgo.
  • Las sanciones pueden alcanzar hasta 35 millones de euros o el 7 % del volumen de negocios anual – su aplicación comenzará en 2026.
  • El cumplimiento normativo pragmático comienza con un inventario de IA y una clasificación por categorías de riesgo de todos los sistemas utilizados.

La Ley de IA de la UE es la primera ley integral sobre inteligencia artificial a nivel mundial – y tras los plazos de transición, 2026 será el año de su aplicación efectiva. Para las empresas esto significa: ha concluido la fase de preparación teórica. Ahora toca implementar.

 

La buena noticia: no toda empresa necesita un programa de cumplimiento normativo del tamaño de un conglomerado farmacéutico. La Ley de IA se basa en el riesgo – el esfuerzo requerido depende de la categoría de riesgo de los sistemas de IA empleados. La mala noticia: la mayoría de las empresas ni siquiera saben qué sistemas de IA utilizan.

 

Comprender el sistema de niveles de riesgo

La Ley de IA clasifica los sistemas de IA en cuatro categorías de riesgo:

Prohibidos: Evaluación social (social scoring), identificación biométrica remota en tiempo real en espacios públicos, sistemas de IA que exploten vulnerabilidades de las personas. Estas prohibiciones ya entraron en vigor en febrero de 2025.

Alto riesgo: IA en ámbitos como reclutamiento de personal, evaluación crediticia, educación, justicia, infraestructuras críticas y componentes de seguridad. Aquí se aplican los requisitos más exhaustivos: evaluación de conformidad, sistema de gestión de riesgos, gobernanza de datos, transparencia, supervisión humana y documentación técnica.

Riesgo limitado: Chatbots, deepfakes, sistemas de reconocimiento de emociones. Aquí prevalecen principalmente las obligaciones de transparencia: los usuarios deben saber que están interactuando con una IA.

Riesgo mínimo: Filtros de spam, procesamiento de texto asistido por IA, algoritmos de recomendación. No existen requisitos específicos, aunque se recomiendan códigos de conducta voluntarios.

 

¿Quién está afectado – y cómo?

La Ley de IA no afecta únicamente a los desarrolladores de IA, sino a toda la cadena de valor:

Proveedores (Provider): Empresas que desarrollan y comercializan sistemas de IA. Soportan la carga principal del cumplimiento normativo – incluida la evaluación de conformidad y la marcación CE para los sistemas de alto riesgo.

Explotadores (Deployer): Empresas que implementan sistemas de IA. Deben garantizar que los sistemas de alto riesgo se utilicen conforme al manual de instrucciones, asegurar la supervisión humana y llevar a cabo una evaluación de impacto sobre los derechos fundamentales.

Importadores y distribuidores: Quienes introduzcan sistemas de IA procedentes de terceros países en la UE deben verificar que cumplan con la Ley de IA.

La mayoría de las empresas son explotadoras – y subestiman su esfuerzo de cumplimiento normativo. Toda empresa que utilice una herramienta de reclutamiento asistida por IA, una evaluación crediticia automatizada o un control de calidad basado en IA tiene obligaciones como explotadora de un sistema de alto riesgo.

 

Plan de cumplimiento normativo en 5 pasos

Paso 1: Elaborar un inventario de IA. ¿Qué sistemas de IA están en uso? La respuesta sorprende casi siempre. Desde el procesamiento automatizado de facturas, pasando por la selección de personal asistida por IA, hasta el chatbot en el servicio al cliente – muchos sistemas incorporan IA sin que ello sea evidente.

Paso 2: Clasificación por categorías de riesgo. Cada sistema identificado se clasifica según el modelo de niveles de riesgo de la Ley de IA. Para los sistemas de alto riesgo comienza el proceso extenso de cumplimiento normativo.

Paso 3: Análisis de brechas. ¿Qué requisitos ya cumple la empresa? Muchas empresas ya disponen de parte de la infraestructura necesaria gracias al cumplimiento del Reglamento General de Protección de Datos (RGPD) – gobernanza de datos, evaluaciones de impacto, procesos de transparencia.

Paso 4: Hoja de ruta de implementación. Priorización según riesgo y esfuerzo. Primero los sistemas de alto riesgo con mayor alcance de usuarios.

Paso 5: Estructura de gobernanza. Un responsable de IA o un consejo de IA que garantice el cumplimiento normativo continuo – incluidos el monitoreo, la notificación de incidentes y revisiones periódicas.

 

Oportunidades tras la regulación

La Ley de IA se percibe principalmente como una carga. Sin embargo, tres oportunidades estratégicas suelen pasarse por alto:

Ventaja para la exportación: Los sistemas de IA conformes con la Ley de IA satisfacen automáticamente los requisitos de la mayoría de los mercados globales. Para las empresas europeas que venden productos de IA internacionalmente, el cumplimiento normativo se convierte en un sello de calidad.

Ventaja en confianza: Los clientes – especialmente en el ámbito B2B – prefieren claramente soluciones de IA demostrablemente conformes. En sectores regulados como finanzas, sanidad y administración pública, el cumplimiento de la Ley de IA se convierte en un requisito previo para acceder al mercado.

Mejora de la calidad: Los requisitos de documentación y ensayo de la Ley de IA obligan a las empresas a desarrollar y operar sus sistemas de IA de forma más sistemática. Esto reduce errores, mejora el rendimiento y disminuye a largo plazo los costes de mantenimiento. Las empresas que entiendan el cumplimiento normativo como una iniciativa de calidad obtienen doble beneficio.

 

Preguntas frecuentes

¿Se aplica la Ley de IA también a herramientas de IA como ChatGPT?

Sí. OpenAI, como proveedora, debe cumplir los requisitos para la IA de propósito general. Las empresas que utilizan ChatGPT son explotadoras y deben cumplir las obligaciones de transparencia – los usuarios deben saber que están interactuando con una IA. Si se utiliza en ámbitos de alto riesgo, se aplican requisitos adicionales.

¿Cuánto cuesta el cumplimiento de la Ley de IA?

Para pymes con pocos sistemas de alto riesgo, típicamente entre 50.000 y 200.000 euros en el primer año. Para empresas con numerosos sistemas de alto riesgo o con desarrollo propio de IA, el esfuerzo puede ascender a 500.000 euros o más. Las pymes se benefician de vías simplificadas de cumplimiento normativo previstas expresamente en la Ley de IA.

¿Quién supervisa el cumplimiento?

Cada Estado miembro de la UE designará autoridades nacionales de vigilancia. En Alemania, muy probablemente la Agencia Federal de Redes (Bundesnetzagentur) asumirá la responsabilidad principal. Además, una oficina europea de IA coordinará la aplicación normativa. Dichas autoridades pueden realizar auditorías, solicitar información y imponer sanciones.

¿Deben cumplir la Ley de IA también las empresas no pertenecientes a la UE?

Sí, si sus sistemas de IA se utilizan en la UE o afectan a ciudadanos de la UE. El principio es equivalente al del RGPD: el lugar de aplicación de la norma no es la sede de la empresa, sino el lugar donde se aplica. Las grandes tecnológicas estadounidenses deben adaptar sus sistemas para el mercado de la UE.

¿Qué ocurre con los sistemas de IA ya existentes?

Los sistemas de alto riesgo ya existentes deberán cumplir los requisitos antes del 2 de agosto de 2027 como máximo. Los sistemas que se modifiquen sustancialmente antes de la entrada en vigor caerán inmediatamente bajo las nuevas reglas. Recomendación: no esperar hasta la fecha límite final, sino construir progresivamente el cumplimiento normativo.

 

Fuente de imagen: Unsplash / Guillaume Périgois

Seguir leyendo

Compartir este artículo:

Más artículos

11.04.2026

Chief AI Officer 2026: ¿Real papel o el próximo título ejecutivo?

Tobias Massow

⏱️ 9 Min. de lectura El Chief AI Officer es la función ejecutiva de nivel C más anunciada y, ...

Leer artículo
08.04.2026

Gobernanza de IA 2026: Solo el 14% ha aclarado quién asume la responsabilidad

Tobias Massow

7 min. de lectura El 87 por ciento de las empresas aumenta sus presupuestos de inteligencia artificial ...

Leer artículo
07.04.2026

Brecha salarial del 18 %, un plazo de la UE y poca preparación: transparencia salarial desde junio de 2026

Benedikt Langer

8 min. de lectura A partir de junio de 2026, los rangos salariales deberán figurar en las ofertas de ...

Leer artículo
06.04.2026

Ciberseguro 2026: primas duplicadas, cobertura reducida a la mitad – el cálculo que ningún CFO quiere ver

Benedikt Langer

6 min de lectura 15.300 millones de dólares estadounidenses en volumen de primas, un aumento de precios ...

Leer artículo
05.04.2026

DORA es obligatoria desde enero: por qué dos tercios de las instituciones financieras no cumplen los requisitos

Benedikt Langer

6 min de lectura Desde el 17 de enero de 2025, DORA es derecho vigente. El reglamento de la UE sobre ...

Leer artículo
05.04.2026

Presupuesto IT 2027: tres cuartas partes van a operaciones – y ese es el verdadero problema

Benedikt Langer

6 min de lectura 6.150 mil millones de dólares estadounidenses gastan las empresas en IT en todo el ...

Leer artículo
Una revista de Evernine Media GmbH