24.04.2026

5 Min. de lectura

Google presentó el 22 de abril de 2026 en Cloud Next en Las Vegas la octava generación de TPU (Unidad de Procesamiento Tensorial) y, por primera vez, separó hardwaremente el entrenamiento y la inferencia. TPU 8t conecta hasta 9.600 chips para cargas de trabajo de entrenamiento, mientras que TPU 8i agrupa 1.152 chips por pod de inferencia con el triple de SRAM en el chip. Paralelamente, se lanzó la plataforma Gemini Enterprise Agent. Para los directivos de las empresas alemanas, esto no es un detalle tecnológico, sino una nueva dimensión de compra que aparecerá en la próxima revisión de inversiones TI.

Lo más importante en breve

  • La capacidad de inferencia se convierte en tamaño de compra. TPU 8i agrupa 1.152 chips por pod, tres veces más SRAM que Ironwood, optimizada para ejecución paralela de agentes.
  • La infraestructura agente se convierte en commodity. Gemini Enterprise Agent Platform en vivo desde el 22.04. Accenture, BCG, Mars y Merck como clientes de referencia. El mercado se abre más rápido de lo que muchos consejos de administración planean.
  • Pregunta para el consejo de administración desde ahora: Escalabilidad de inferencia o riesgo de proveedor. Quien no conozca TPU 8i y el protocolo A2A (Application-to-Application), no puede dar una promesa fiable para la escalabilidad en producción.

RelacionadoGartner IT-Spending 2026: 6.150 mil millones  /  Managed Services Build vs. Buy 2026

Qué anunció específicamente Sundar Pichai el 22 de abril

El CEO de Google, Sundar Pichai, presentó tres componentes de producto durante su keynote a las 10:00 PST. La octava generación de TPU es la más visible, pero no la estratégicamente más importante. TPU 8t utiliza una nueva tecnología de interconexión entre chips y conecta hasta 9.600 TPUs más dos petabytes de memoria compartida de alto ancho de banda en un único superpod. Google habla de un rendimiento triple en comparación con Ironwood. TPU 8i es la gemela para inferencia: 1.152 chips por pod, con el triple de capacidad de SRAM en chip, optimizada para baja latencia en millones de solicitudes paralelas de agentes.

El segundo componente es la plataforma Gemini Enterprise Agent. Entró en disponibilidad general el 22 de abril. Google informó que los ingresos de la plataforma anterior en el primer trimestre de 2026 aumentaron un 40% en usuarios de pago activos mensuales. Paralelamente, Accenture y BCG anunciaron ampliaciones de su asociación con el programa Gemini Enterprise Acceleration. Mars utiliza la plataforma para 150.000 empleados. Merck ya había anunciado el 22 de abril su propia alianza de IA agentic de mil millones de dólares con Google Cloud, que hemos clasificado en otro lugar como plantilla para decisiones de la dirección.

El tercer componente, subestimado en los consejos de administración, es el protocolo Agente a Agente. Google lo ha posicionado como un estándar abierto, y OpenAI y Anthropic han dado señales de interoperabilidad. Así se crea un ecosistema que define la comunicación entre agentes de forma independiente del proveedor. Para la estrategia de TI, esto significa que los argumentos de lock-in se desplazan del modelo individual a la capa de infraestructura subyacente.

1.152
Chips TPU 8i por pod de inferencia, triple de SRAM en chip en comparación con el predecesor Ironwood. Objetivo: ejecutar millones de agentes competitivos con baja latencia de forma rentable.
Fuente: Google Cloud Next 2026 Keynote, 22.04.2026

¿Qué es TPU 8i? TPU 8i es la variante para inferencia de la octava generación de TPU de Google, anunciada el 22 de abril de 2026 en Cloud Next. Conecta 1.152 chips por pod con el triple de SRAM en chip en comparación con la generación anterior Ironwood y está explícitamente optimizada para la ejecución paralela de agentes de IA autónomos. La separación entre entrenamiento (TPU 8t) e inferencia (TPU 8i) es la señal estratégica: Google trata ambos tipos de carga de trabajo como productos independientes con su propia lógica de precios y escalabilidad.

Tres preguntas para el consejo de administración en la próxima revisión de inversiones TI

El mensaje para el consejo de administración no es comprar ahora una hoja de ruta de Google TPU. Es conocer el vocabulario antes de que la dirección de TI plantee la cuestión presupuestaria. Tres puntos deben incluirse en la próxima reunión del consejo, independientemente de la preferencia de hiperscaladores que tenga la empresa.

Primero: La capacidad de inferencia como tamaño de compra independiente. Hasta Cloud Next 2026, muchos equipos de TI habían agrupado inferencia y entrenamiento. Google ahora los separa a nivel de hardware. AWS ya había diferenciado el año pasado Trainium 2 e Inferentia 3. La consecuencia estratégica: los presupuestos deben incluir dos cifras, no una. Quien los confunde calcula la capacidad máxima como carga base y paga el recargo.

Segundo: Crear, comprar o gestionado. El lanzamiento de Gemini Enterprise Agent acelera drásticamente el tiempo de implementación de agentes. La pregunta para el consejo no es «¿queremos crear agentes?», sino «¿los creamos nosotros mismos, compramos agentes estándar, o alquilamos un servicio de agentes gestionados?». La misma distinción que ya se resolvió en 2025 en el tema de servicios gestionados, ahora reaparece a nivel de agentes. La asociación de BCG con Google muestra hacia dónde presiona el mercado: los paquetes que incluyen plataforma más integración más gestión del cambio serán el paquete estándar de compra.

Tercero: Replantear las cuestiones de soberanía. Con TPU 8i, Google se vuelve tecnológicamente más difícil de alcanzar. Los proveedores de nube europeos que utilizan chips NVIDIA deben competir en precios de inferencia con un hiperscaler integrado. Esto no está prohibido, pero cambia la ecuación económica. Para los consejos de administración de DACH que necesitan garantías de ubicación de datos, la decisión entre un proveedor de la UE y un hiperscaler será más difícil, no más fácil.

Un consejo de administración que en 2026 no tenga una posición clara sobre la capacidad de inferencia y la gobernanza de agentes, tomará la próxima decisión de presupuesto TI a ciegas. Google Cloud Next fue la señal de que el mercado está definiendo las preguntas justo antes de que las respuestas circulen.

Qué significa esto concretamente para los consejos de administración alemanes

Tres reflexiones serán útiles en las próximas semanas. Primero: revisar la hoja de ruta propia de agentes. Quienes actualmente estén ejecutando agentes piloto en infraestructura LLM genérica, deberían plantear en la próxima reunión de dirección la cuestión sobre la capacidad de producción. Segundo: documentar la situación contractual con respecto a los hyperscalers. ¿Qué opciones de salida son realistas dos años después de la implementación, cuando TPU 8i se ha convertido en el estándar? Tercero: involucrar a Cumplimiento (Compliance) desde el principio. La comunicación entre agentes plantea cuestiones de responsabilidad legal que ni DORA ni NIS2 abordan de manera clara. Esto se precisará, pero ya no en este trimestre.

La valoración tranquila es: Google Cloud Next 2026 no fue el momento que cambió el mercado. Fue el momento que dejó claro que está cambiando. Los miembros de los consejos de administración que tomen decisiones arquitectónicas en 2026 basadas en supuestos de 2024, se encontrarán en modo de adaptación en 2027. El interesante desafío de liderazgo es tomar ahora una posición que siga siendo viable en doce meses.

Preguntas frecuentes

¿Qué es TPU 8i y por qué es relevante para los consejos de administración?

TPU 8i es la octava generación de TPU de inferencia de Google, anunciada el 22 de abril de 2026 en Cloud Next. Agrupa 1.152 chips por Pod con triple SRAM en el chip. Relevante para consejos de administración porque la capacidad de inferencia aparece como una categoría de compra propia en los presupuestos TI.

¿Qué es el protocolo Agente a Agente?

Un estándar abierto para la comunicación entre agentes de diferentes proveedores, que Google presentó en Cloud Next. OpenAI y Anthropic han mostrado señales de interoperabilidad. Consecuencia: los argumentos de lock-in se desplazan del modelo a la infraestructura subyacente.

¿Debemos migrar ahora a Google?

No. El anuncio no es un cambio tecnológico, sino una comprobación de vocabulario. Los consejos de administración deben dominar la distinción entre capacidad de entrenamiento e inferencia y tomar una posición sobre la gobernanza de agentes. AWS y Azure seguirán con sus propias respuestas.

¿Cómo se relaciona esto con la previsión de Gartner de 6.150 millones?

La previsión de gasto en TI de Gartner para 2026 prevé que el mercado crezca a dos dígitos porcentuales gracias a la IA. Cloud Next 2026 proporciona la infraestructura que hace operativa este desplazamiento presupuestario. Los consejos de administración que no tengan una partida de inferencia en su presupuesto tendrán que incorporarla a lo largo del año.

¿Qué cuestiones de cumplimiento deberían resolverse ahora?

La comunicación Agente a Agente crea escenarios de responsabilidad que DORA y NIS2 solo cubren parcialmente. Los consejos de administración deberían encargar a sus equipos legales y de cumplimiento que redacten cláusulas contractuales para agentes externos en sus propios sistemas, antes de que aparezcan los primeros casos productivos.

Fuente imagen de portada: Pexels / Brett Sayles (px:5480781)

Compartir este artículo:

También disponible en

Más artículos

03.05.2026

NVIDIA Agent Toolkit con SAP, Salesforce y CrowdStrike: Lo que 17 socios empresariales significan para los CIOs en la decisión de proveedor de IA en 2026

Eva Mickler

8 Min. de lectura NVIDIA ha anunciado el Agent Toolkit en la GTC 2026 y, al mismo tiempo, ha presentado ...

Leer artículo
03.05.2026

Industria 5.0 como decisión de liderazgo: Lo que los CIOs llevan de la Hannover Messe 2026

Eva Mickler

8 Min. de lectura La Hannover Messe 2026 ha elaborado un mensaje que, en la mayoría de los informes ...

Leer artículo
03.05.2026

Shadow AI: Así es un marco realista de gobernanza de IA para empresas de 500‑5.000 empleados

Angelika Beierlein

8 Min. de lectura Siete de cada diez empleados en empresas alemanas utilizan herramientas de IA que ...

Leer artículo
03.05.2026

De operador a orquestador: lo que el estudio Deloitte 2026 implica para los directivos DACH al evaluar su liderazgo tecnológico

Angelika Beierlein

6 min. de lectura El Deloitte Global Technology Leadership Study 2026 – 660 líderes tecnológicos ...

Leer artículo
30.04.2026

Ganancias Q1 de los Hiperescaladores 29.04.: Tres señales para directivos

Eva Mickler

6 min de lectura El miércoles, 29 de abril, Microsoft, Alphabet y Amazon publicarán sus resultados ...

Leer artículo
29.04.2026

Telekom y NVIDIA Industrial AI Cloud: El impacto del clúster de Múnich con 10,000 GPUs Blackwell para CIOs de DACH

Eva Mickler

Deutsche Telekom y NVIDIA anunciaron a finales de abril de 2026 el lanzamiento de la Industrial AI Cloud. ...

Leer artículo
Una revista de Evernine Media GmbH