14.05.2026

9 Min. Lesezeit

Wenn Alphabet, Microsoft und AWS in ihren Q1-2026-Calls die gleichen Worte verwenden, lohnt es sich, hinzuhören. Alle drei Hyperscaler haben in den letzten neunzig Tagen unabhängig voneinander von „capacity constraints“ gesprochen, alle drei haben ihre Capex-Vorhaben für 2026 nach oben revidiert und alle drei berichten, dass GPU-Slots im DACH-Raum aktuell mit sechs- bis neunmonatigem Vorlauf vergeben werden. Compute ist 2026 keine Selbstverständlichkeit mehr, sondern ein knapper Produktionsfaktor. Das verschiebt die Logik, wie CIOs und Vorstände über IT-Beschaffung, Standortfragen und Architektur-Roadmaps entscheiden müssen.

Das Wichtigste in Kürze

  • Compute ist eine Lieferkette, kein Service: Wer 2026 GPU-Kapazität braucht, plant mit Vorlauf, alternativen Quellen und Vertragslaufzeiten wie in der Halbleiter- oder Energiebeschaffung. Spot-Verfügbarkeit ist die Ausnahme, nicht die Regel.
  • Standortfragen werden zur Vorstandsfrage: Strom, Wasser, Genehmigungslagen und Datenschutzregime entscheiden, wo neue Capacity entsteht. CIOs müssen das mit Procurement, Legal und Regional-Strategie gemeinsam denken.
  • Priorisierung ersetzt unbegrenzten Self-Service: Wenn jede produktive KI-Workload um denselben GPU-Slot konkurriert, braucht es einen klaren Priorisierungs-Rahmen. Wer den nicht aufstellt, lässt seine Hyperscaler-Allocation faktisch vom lautesten Team verteilen.

VerwandtWer den AI-Betrieb wirklich besitzt  /  Die 40-Prozent-Frage zum KI-Budget

Warum 2026 der Bruch sichtbar wird

Bis 2024 war Compute für DACH-Konzerne weitgehend eine kommerzielle Frage: Stückkosten optimieren, Reserved-Instance-Strategie aufsetzen, Multi-Cloud verhandeln. 2026 verschiebt sich die Frage. Sie ist nicht mehr „Wie kaufe ich günstig?“, sondern „Bekomme ich überhaupt das, was ich für meine Roadmap brauche, im richtigen Zeitfenster?“. Das ist ein anderer Spielmodus, und er verlangt andere Werkzeuge.

Drei Signale machen den Bruch sichtbar. Erstens: Capex-Welle der Hyperscaler. Alphabet hat seine 2026er-Investitionen auf 96 Milliarden Dollar angehoben, Microsoft auf 105 Milliarden, AWS auf 88 Milliarden, jeweils mit explizitem Fokus auf KI-Infrastruktur. Wenn die drei Größten gleichzeitig das Tempo erhöhen, signalisiert das, dass Nachfrage und Angebot strukturell auseinanderlaufen.

Zweitens: GPU-Allocation-Zyklen werden länger. Nvidia priorisiert Lieferketten Richtung Hyperscaler und ausgewählte Sovereign-Cloud-Projekte. DACH-Mittelständler oder Konzerne, die direkt bei OEMs kaufen, sehen Lieferzeiten von zwölf bis achtzehn Monaten. Das frisst jeden 6-Monats-Roadmap-Slot, der nicht spätestens Q4 2025 angemeldet war.

Drittens: Strom- und Wasserlimits in Datacenter-Regionen. Irland hat Genehmigungen für neue Datacenter eingefroren, Frankfurt diskutiert Wasserkontingente, in Spanien werden Capacity-Projekte an grüne Strom-PPAs gekoppelt. Standortwahl ist keine technische Footprint-Frage mehr, sie ist eine regulatorische und energetische Entscheidung.

Was sich für die CIO-Agenda konkret ändert

Wenn Compute zur Lieferkette wird, übernehmen Mechanismen aus Procurement und Supply-Chain-Management die Bühne. Das berührt vier Bereiche, die in den meisten DACH-Organisationen heute getrennt laufen.

Größenordnung 2026

Sechs- bis neun-monatiger Vorlauf für H100/H200-Allocation bei Tier-1-Hyperscalern. Direkte OEM-Beschaffung zwölf bis achtzehn Monate. 96 Milliarden Dollar Alphabet-Capex 2026, plus 105 Milliarden Microsoft, plus 88 Milliarden AWS. Allein die drei Großen investieren mehr als der gesamte DACH-IT-Markt umsetzt.

Beschaffung mit Vorlauf und Optionalität. Wer 2026 ein KI-Projekt startet, muss Compute-Slots wie Halbleiter-Wafer einplanen: mit definiertem Lead-Time, Sicherheitspuffer und einer Backup-Quelle. Pay-as-you-go bleibt nur für Workloads belastbar, deren Skalierungsverhalten gut bekannt ist.

Priorisierung mit klarer Governance. Wenn drei Geschäftsbereiche gleichzeitig produktive KI in die gleiche Hyperscaler-Allocation drücken, braucht es eine Allocation-Logik. Sonst kippt die Verteilung zugunsten der lautesten Stimme, nicht der wertvollsten Roadmap.

Standort- und Sourcing-Diversität. Nur einen Hyperscaler oder nur eine Region für strategische KI-Workloads zu wählen, ist 2026 ein offen liegendes Klumpenrisiko. Multi-Region und gegebenenfalls Multi-Provider werden zur Pflicht für alles, was Vorstandssichtbar laufen muss.

Verträge mit Liefer-Sicherheit, nicht nur Preis. Service-Level-Agreements rücken in Richtung Liefer-SLAs: Verfügbarkeit der GPU-Slots, Reservierungs-Mechanismen, Rebooking-Klauseln. Das Verhandlungsschwergewicht verschiebt sich vom Procurement-Lead zum CIO-Office.

Wo CIOs jetzt anders priorisieren sollten

Aus dieser Lage folgt eine andere Priorisierung der CIO-Agenda. Drei Verschiebungen sind in der Praxis bei DACH-Konzernen mit ernsthaftem KI-Programm 2026 erkennbar.

Erstens: Roadmaps werden nicht mehr nur nach Business-Wert priorisiert, sondern auch nach Compute-Verfügbarkeit. Ein Use-Case mit hohem Wert, aber sechs Monaten zusätzlichem Compute-Vorlauf, kann hinter einem mittelwertigen Use-Case mit sofort verfügbarer Allocation landen. Das ist unintuitiv, aber pragmatisch.

Zweitens: Eigenbetrieb wird wieder ein ernstgemeintes Szenario. Für Workloads mit stabiler Last und hohem Compute-Bedarf rechnen sich Sovereign-Cloud-Projekte oder eigene GPU-Cluster in Co-Location 2026 wieder, weil die Liefer-Verlässlichkeit den Preisaufschlag aufwiegt. Vor drei Jahren wäre diese Diskussion nostalgisch gewesen, heute ist sie strategisch.

Drittens: Procurement, Legal und IT-Strategie arbeiten enger zusammen. Compute-Verträge mit Liefer-SLAs sind hybride Konstrukte aus klassischen IT-Verträgen, Lieferketten-Vereinbarungen und ESG-Verpflichtungen. Die Verantwortung liegt nicht mehr nur im CIO-Office, sondern in einer Cross-Functional-Verhandlung.

Pros und Cons der drei Sourcing-Wege

Pro Hyperscaler-Sourcing

  • Skalierungsdynamik bleibt erhalten
  • Direkter Zugang zu neuesten Modell-Diensten
  • Niedriger initialer Capex
  • Managed Services nehmen Betriebslast ab

Contra Hyperscaler-Sourcing

  • Capacity nicht garantiert ohne Reservierung
  • Preis-Drift bei KI-spezifischen Tarifen
  • Egress-Lock-in macht spätere Migration teuer
  • Datenschutz-Diskussion bleibt offen

Pro Sovereign-Cloud / EU-Provider

  • Compliance-Sicherheit für sensible Workloads
  • Politisches und regulatorisches Tailwind
  • Bessere Verhandlungsposition bei langen Laufzeiten
  • EU-Standort-Fragen lassen sich sauber lösen

Contra Sovereign-Cloud

  • Modell-Ökosystem hinkt Hyperscalern hinterher
  • Skalierungsdynamik begrenzt
  • Operative Reife unterschiedlich je Anbieter
  • Preis pro Compute-Einheit höher

Pro Eigenbetrieb / Co-Location

  • Liefer-Verlässlichkeit über lange Zeiträume
  • Volle Kontrolle über Hardware und Energie-Mix
  • Klare TCO bei stabilen Workloads
  • Verhandlungs-Hebel gegenüber Hyperscalern

Contra Eigenbetrieb

  • Hoher Capex und Investitionsrisiko
  • Aufbau spezifischer Betriebskompetenz
  • Lange Lead-Times für GPU-Hardware
  • Skaliert nicht für spitze KI-Workloads

Wie ein CIO 2026 die nächsten zwölf Monate verteilt

Ein praktikabler Zwölf-Monats-Plan für eine DACH-Konzern-IT, die ernsthaft KI in Produktion bringen will, läuft 2026 in drei Wellen.

Compute-Supply-Plan 2026/27

Q2 2026. Allocation-Inventory: Wer bekommt heute GPU-Kapazität, in welchem Tier, mit welcher Vertragslaufzeit. Erst dann ist die Diskussion über Priorisierung sinnvoll.

Q3 2026. Sourcing-Strategie verabschieden: Anteile Hyperscaler vs. Sovereign-Cloud vs. Eigenbetrieb, jeweils mit Use-Case-Mapping. Vorstandsentscheidung, nicht IT-Entscheidung.

Q4 2026. Verhandlungsrunde mit Hyperscalern und Sovereign-Anbietern, Liefer-SLAs und Reservierungs-Konstrukte für 2027 sichern, Hardware-Pre-Orders an OEMs platzieren.

Q1 2027. Erste Workload-Migration in das neue Sourcing-Modell, paralleler Aufbau Governance-Forum für laufende Priorisierung.

Q2 2027. Review und Nachjustierung. Compute-Engpass entwickelt sich dynamisch, der Plan muss alle sechs Monate gegen die Realität geprüft werden.

Häufige Fragen

Reicht es nicht, einfach beim Hyperscaler mehr Reserved-Capacity zu buchen?

Reservierungen reduzieren das Risiko, aber sie lösen die strukturelle Knappheit nicht. Hyperscaler reservieren ihre eigenen Allocation-Pools entlang strategischer Großkunden. Ein DACH-Konzern, der nicht zu den größten zehn Kunden seiner Region zählt, sollte Reservierungen mit Multi-Provider- und Sovereign-Anteilen kombinieren.

Wie verändert sich das Verhältnis zwischen CIO und CFO bei Compute-Knappheit?

Die Diskussion verschiebt sich von Kosten-Optimierung zu Investitionsplanung. Eigenbetrieb und Sovereign-Cloud sind Capex-lastig, Hyperscaler bleibt Opex-getrieben. Der CFO muss entscheiden, ob er Liefersicherheit als strategische Investition akzeptiert oder weiter auf Opex-Flexibilität setzt.

Ist Sovereign-Cloud 2026 schon realistisch nutzbar?

Für definierte Use-Cases ja. SAP RISE Sovereign-Cloud, OVHcloud und Anbieter aus Frankreich und Deutschland sind 2026 produktionsreif für Workloads mit moderaten Anforderungen. Für Frontier-KI-Modelle und Spitzen-Skalierung bleibt der Hyperscaler-Stack noch der Maßstab.

Was ist 2026 der häufigste Beschaffungsfehler bei Compute?

Spät anmelden und dann reflexhaft auf den Hyperscaler-Spot-Markt ausweichen, der genau dann nicht mehr liefert. Wer im Q2 plötzlich GPU-Kapazität für ein Q3-Projekt sucht, ohne Reservierung, ohne Backup-Quelle, lebt von Glück. Das ist 2026 keine tragfähige Strategie mehr.

Wie lässt sich der Stromfaktor in die Standortwahl integrieren?

Über grüne Strom-PPAs, regionale Capacity-Allocation und Datacenter-Standorte mit klaren ESG-Reportings. Der Stromfaktor ist nicht nur eine ESG-Frage, sondern eine operative: in Regionen mit Strompreis-Volatilität oder Netzrestriktionen wird Compute teurer oder unzuverlässig. CIOs müssen das in die Sourcing-Logik einbauen.

Lesetipps der Redaktion

Mehr aus dem MBF Media Netzwerk

cloudmagazinMulti-Cluster ohne neues Ops-Silo: was Teams falsch lösen

MyBusinessFutureCloud-Kosten sind Chefsache: Wenn CFO und CIO nicht mehr nebeneinander herrechnen

SecurityTodayDetection-Engineering ohne Vendor-Lock: Wazuh-Stack 2026

Quelle Titelbild: KI-generiert via nano

Diesen Beitrag teilen:

Weitere Beiträge

14.05.2026

Post-Quantum-Kryptographie: Der Countdown für die Konzern-IT läuft

Bernhard Liebl

7 Min. Lesezeit · Strategie-Briefing Die Post-Quantum-Diskussion verlässt 2026 die Forschungsabteilung ...

Zum Beitrag
14.05.2026

Rechenkapazität wird Lieferkette: Compute als knapper Produktionsfaktor 2026

Angelika Beierlein

9 Min. Lesezeit Wenn Alphabet, Microsoft und AWS in ihren Q1-2026-Calls die gleichen Worte verwenden, ...

Zum Beitrag
12.05.2026

Wer den AI-Betrieb wirklich besitzt: Drei Festlegungen

Angelika Beierlein

Vorstandsklausur: Wer den AI-Betrieb operativ besitzt, ist 2026 die entscheidende Frage. (Foto: V. Karpovich ...

Zum Beitrag
11.05.2026

AI im Vorstand: Wer entscheidet, wer haftet?

Eva Mickler

4 Min. Lesezeit BCG hat 2026 gemessen, dass in zwei von drei Vorstandsteams der CEO die letzte Entscheidung ...

Zum Beitrag
10.05.2026

CSRD-Testat: Wo die IT-Datenchain bricht

Eva Mickler

5 Min. Lesezeit Die ersten CSRD-Testate für das Geschäftsjahr 2025 werden im zweiten Quartal 2026 unterschrieben. ...

Zum Beitrag
08.05.2026

Die 40-Prozent-Frage: Wo das KI-Budget wirklich herkommt

Eva Mickler

7 Min. Lesezeit In unserem Gartner-Bericht vom 07.05. stand das Makro-Bild: 13,5 Prozent IT-Wachstum ...

Zum Beitrag
Ein Magazin der Evernine Media GmbH