12.02.2026

Das Wichtigste in Kürze

  • Klarna-CEO Siemiatkowski ersetzte 700 Kundenservice-Mitarbeiter durch KI – und rudert nun zurück, weil die Servicequalität bei komplexen Anfragen einbrach.
  • Die Technologie hat nicht versagt, sondern die Strategie: KI wurde als pauschales Kostensenkungsinstrument statt als Werkzeug zur Qualitätssteigerung eingesetzt.
  • Mehr als die Hälfte der Unternehmen mit KI-getriebenen Personalabbau-Maßnahmen bereuen laut Analysten ihre Entscheidung.
  • Die entscheidende Frage lautet nicht „Welche Jobs kann KI ersetzen?“, sondern „Welche Aufgaben innerhalb jedes Jobs profitieren von KI?“
  • Drei sofort umsetzbare Schritte helfen C-Level-Entscheidern, die Klarna-Falle zu vermeiden: Business Cases prüfen, Teams einbeziehen, Erfolgskriterien vor Technologiewahl definieren.

Sebastian Siemiatkowski war stolz darauf, OpenAIs „liebstes Versuchskaninchen“ zu sein. Der Klarna-CEO verkündete öffentlich, dass künstliche Intelligenz in seinem Unternehmen die Arbeit von 700 Kundenservice-Mitarbeitern übernommen habe. Die Botschaft war unmissverständlich: Wer schnell genug automatisiert, spart Hunderte Millionen und wird zum Vorreiter einer neuen Ära. Investoren applaudierten, Tech-Medien feierten Klarna als Paradebeispiel für konsequente KI-Strategie, und andere CEOs notierten sich die Zahlen für ihre nächste Vorstandspräsentation.

Wenige Monate später klingt Siemiatkowski deutlich anders. Der CEO räumte ein, zu weit gegangen zu sein, und kündigte an, wieder Menschen einzustellen – diesmal über ein „Uber-Style“-Modell mit flexiblen Remote-Kräften, die komplexe Kundenanliegen bearbeiten sollen. Die Kehrtwende eines der prominentesten KI-Evangelisten der Wirtschaft ist mehr als eine Anekdote. Sie ist eine Fallstudie darüber, was passiert, wenn ein Unternehmen KI als pauschales Kostensenkungsinstrument einsetzt, statt sie als Werkzeug zur Qualitätssteigerung zu begreifen.

 

Was bei Klarna wirklich passiert ist

Die Zahlen, die Siemiatkowski präsentierte, waren beeindruckend. Der KI-gestützte Kundenservice bearbeitete nach Unternehmensangaben zwei Drittel aller Anfragen innerhalb der ersten Wochen nach dem Launch. Die durchschnittliche Bearbeitungszeit sank drastisch. Auf dem Papier sah das nach einem durchschlagenden Erfolg aus – und für einfache, standardisierte Anfragen war es das auch. Kontostand prüfen, Zahlungstermin verschieben, Rückerstattung für eine klar dokumentierte Retoure auslösen: Für solche Routinevorgänge lieferte die KI zuverlässige Ergebnisse.

Das Problem begann dort, wo Kundenanliegen Nuancen erforderten. Bei strittigen Abbuchungen, bei Beschwerden über Händler, bei emotionalen Eskalationen – überall dort, wo ein Mensch zwischen den Zeilen liest, Kontext einordnet und situativ entscheidet, produzierte die KI generische, oft repetitive Antworten. Kunden berichteten, in Schleifen gefangen zu sein, immer wieder dieselben Textbausteine zu erhalten und keine Möglichkeit zu haben, mit einem Menschen zu sprechen. Die Kundenzufriedenheit sank messbar. Gleichzeitig erhöhte Klarna seine Preise für Händler – eine Kombination, die in einem wettbewerbsintensiven Markt Gift ist.

Entscheidend ist: Die Technologie hat nicht versagt. Die Strategie hat versagt. Siemiatkowski positionierte KI primär als Instrument zum Stellenabbau. Das Signal an die Organisation und den Markt war klar: Weniger Menschen, mehr Marge. Doch wer 700 Mitarbeiter ersetzt, ohne vorher zu differenzieren, welche Aufgaben sich tatsächlich vollständig automatisieren lassen und welche nicht, baut ein System ohne Rückfallposition. Genau das ist passiert.

 

Klarna ist kein Einzelfall

Es wäre bequem, die Geschichte als Einzelfall eines übermütigen CEOs abzutun. Die Datenlage spricht dagegen. Branchenanalysten beziffern den Anteil der Unternehmen, die nach KI-getriebenen Personalabbau-Maßnahmen die Entscheidung bereuen, auf mehr als die Hälfte. Die Prognose vieler Beobachter: Ein erheblicher Teil dieser Entlassungen wird bis Ende 2026 rückgängig gemacht werden müssen, weil die Qualität der automatisierten Prozesse nicht das Niveau erreicht, das Kunden, Partner oder Regulierer erwarten.

Parallel dazu zeigen Untersuchungen renommierter Forschungsinstitute, dass die überwiegende Mehrheit aller KI-Pilotprojekte in Unternehmen entweder nicht die erwarteten Ergebnisse liefert oder im Pilotstadium stagniert. Die Gründe sind vielfältig: unklare Erfolgskriterien, fehlende Datenqualität, mangelnde Integration in bestehende Prozesse. Doch ein Faktor taucht immer wieder auf – die Überschätzung der KI-Autonomie, kombiniert mit der Unterschätzung dessen, was Menschen in Prozessen tatsächlich tun.

Ein weiteres Warnsignal: Die sogenannte „AIQ“ – also die Fähigkeit der Belegschaft, KI-Werkzeuge kompetent einzusetzen – lag zuletzt bei einem erschreckend niedrigen Niveau. Nur ein Bruchteil der Mitarbeiter in Unternehmen verfügt über ausreichende Kenntnisse, um KI-Systeme sinnvoll zu steuern, zu überwachen und ihre Ergebnisse kritisch einzuordnen. Das bedeutet: Wer heute massiv auf KI setzt, tut dies mit einer Belegschaft, die größtenteils noch nicht in der Lage ist, diese Werkzeuge effektiv zu nutzen.

 

Die falsche und die richtige Frage

Der strategische Fehler, den Klarna stellvertretend für viele Unternehmen gemacht hat, lässt sich auf eine einzige falsche Fragestellung reduzieren: „Welche Jobs kann KI ersetzen?“ Diese Frage führt fast zwangsläufig zu pauschalen Entscheidungen. Man identifiziert Rollen, deren Kernaktivitäten sich oberflächlich betrachtet automatisieren lassen, baut Stellen ab und hofft, dass die Technologie die Lücke schließt.

Die bessere Frage lautet: „Welche Aufgaben innerhalb jedes Jobs profitieren von KI?“ Das klingt nach einem kleinen semantischen Unterschied. In der Praxis ist es der Unterschied zwischen Replacement und Augmentation, zwischen dem Klarna-Modell und den wenigen Unternehmen, die KI tatsächlich erfolgreich skaliert haben.

Ein Kundenservice-Mitarbeiter erledigt nicht eine Aufgabe, sondern dutzende verschiedene: Anfragen klassifizieren, Informationen aus Systemen abrufen, Standardantworten formulieren, aber eben auch: eskalierte Situationen deeskalieren, Zusammenhänge erkennen, die kein System in der Wissensdatenbank abbildet, und Entscheidungen treffen, für die es keine eindeutige Regel gibt. Die erste Gruppe von Aufgaben eignet sich hervorragend für Automatisierung. Die zweite Gruppe wird durch KI besser, wenn sie den Menschen unterstützt – aber nicht, wenn sie ihn ersetzt.

 

Welche Aufgaben automatisieren – und welche nicht?

Für C-Level-Entscheider, die KI strategisch einsetzen wollen, ohne in die Klarna-Falle zu tappen, bewährt sich ein einfaches Denkmodell. Es basiert auf zwei Dimensionen: der Art der Aufgabe und dem Grad der sinnvollen Automatisierung.

Routineaufgaben mit klaren Regeln und strukturierten Daten sind die naheliegenden Kandidaten für vollständige Automatisierung. Rechnungsverarbeitung, Datenvalidierung, standardisierte Berichte – hier liefert KI zuverlässig Ergebnisse und setzt menschliche Kapazität für anspruchsvollere Tätigkeiten frei. In diesem Quadranten liegt das reale Effizienzpotenzial.

Entscheidungen, die Nuancen, Empathie oder kontextabhängige Einschätzungen erfordern, gehören in den Bereich der Augmentation. Hier kann KI dem Menschen zuarbeiten – indem sie relevante Informationen aufbereitet, Muster erkennt, Handlungsoptionen vorschlägt. Aber die finale Entscheidung, die Einordnung, das Urteil bleibt beim Menschen. Genau diesen Quadranten hat Klarna ignoriert.

Kreative und strategische Arbeit – Produktentwicklung, Verhandlungen, Unternehmensführung – profitiert von KI als Sparringspartner. Ein Strategieteam, das KI nutzt, um Szenarien durchzuspielen und Daten schneller auszuwerten, arbeitet besser. Ein Strategieteam, das durch KI ersetzt wird, existiert nicht mehr – und mit ihm verschwindet die Fähigkeit zur Anpassung an Unvorhergesehenes.

Der vierte Quadrant enthält Aufgaben, die weder hohe Automatisierbarkeit noch hohen strategischen Wert haben. Diese Aufgaben sind oft die eigentlichen Kandidaten für Streichung – nicht weil KI sie übernimmt, sondern weil sie möglicherweise gar nicht nötig sind.

 

Drei Entscheidungen für diese Woche

Strategische Rahmenwerke sind hilfreich, aber was zählt, ist die Umsetzung. Drei konkrete Schritte können C-Level-Entscheider sofort gehen, um die Klarna-Lektion in ihr eigenes Unternehmen zu übersetzen.

Erstens: Stoppen Sie jedes KI-Projekt ohne messbaren Business Case. In vielen Unternehmen laufen derzeit Dutzende KI-Initiativen parallel, angetrieben von der Angst, den Anschluss zu verlieren. Projekte ohne klare Erfolgskriterien verbrauchen Budget und Managementaufmerksamkeit, ohne Ergebnisse zu liefern. Jedes Projekt sollte beantworten können: Welches konkrete Problem lösen wir? Woran messen wir Erfolg? Was passiert, wenn es nicht funktioniert?

Zweitens: Fragen Sie Ihre Teams. Die besten Automatisierungskandidaten kennen nicht die Berater und nicht die Technologieanbieter, sondern die Menschen, die die Arbeit jeden Tag machen. Ein strukturierter Bottom-up-Prozess identifiziert Potenziale, die von oben unsichtbar sind, und erzeugt gleichzeitig Akzeptanz für Veränderung. Wer seine Belegschaft fragt, statt über sie hinweg zu entscheiden, vermeidet den Vertrauensverlust, der bei Klarna intern wie extern eingetreten ist.

Drittens: Definieren Sie Erfolg, bevor Sie KI sagen. In zu vielen Vorstandssitzungen lautet die Frage: „Wo setzen wir KI ein?“ statt: „Was wollen wir erreichen, und ist KI das richtige Mittel dafür?“ Wenn das Ziel „20 Prozent schnellere Bearbeitung komplexer Kundenanfragen bei gleichbleibender Zufriedenheit“ lautet, entsteht ein anderes Projekt als bei dem Ziel „700 Stellen einsparen“. Beides kann KI beinhalten. Aber nur eines hat eine realistische Chance auf nachhaltigen Erfolg.

 

Die eigentliche Lektion

Siemiatkowskis Kehrtwende wird in vielen Medien als Beleg dafür gelesen, dass KI „nicht funktioniert“. Das ist eine bequeme, aber falsche Interpretation. KI funktioniert – in klar definierten Anwendungsbereichen, mit realistischen Erwartungen und eingebettet in eine durchdachte Prozessarchitektur. Was nicht funktioniert, ist die Vorstellung, komplexe menschliche Arbeit durch Technologie ersetzen zu können, ohne die Qualität des Ergebnisses zu prüfen.

Die Klarna-Geschichte ist keine Geschichte über die Grenzen künstlicher Intelligenz. Sie ist eine Geschichte über die Grenzen des Managements, das Technologie als Abkürzung begreift statt als Werkzeug. Jeder CEO, der heute eine KI-Strategie verantwortet, steht vor derselben Entscheidung: Automatisiere ich Jobs oder Aufgaben? Die Antwort auf diese Frage entscheidet darüber, ob KI in zwei Jahren als strategischer Vorteil oder als teurer Irrweg in den Büchern steht.

Sebastian Siemiatkowski hat die Antwort auf die harte Tour gelernt. Für den Rest der Wirtschaft besteht die Chance, aus seinem Fehler zu lernen, bevor die eigenen Kundenbeschwerden steigen, die eigenen Mitarbeiter frustriert sind und der eigene Vorstand erklären muss, warum die versprochenen Einsparungen nicht eingetreten sind. Diese Chance sollte niemand verspielen.

Häufige Fragen

Warum hat Klarna die KI-Entscheidung rückgängig gemacht?

Die KI konnte zwar Routineanfragen zuverlässig bearbeiten, scheiterte aber bei komplexen Kundenanliegen. Die Kundenzufriedenheit sank messbar, weil nuancierte Probleme generische Antworten erhielten und Kunden in Schleifen gefangen waren.

Was ist der Unterschied zwischen Replacement und Augmentation bei KI?
Welche Aufgaben eignen sich für vollständige KI-Automatisierung?

Routineaufgaben mit klaren Regeln und strukturierten Daten sind ideale Kandidaten – etwa Rechnungsverarbeitung, Datenvalidierung, standardisierte Berichte oder einfache Kundenanfragen wie Kontostandsabfragen und Terminverschiebungen.

Wie können Unternehmen die Klarna-Falle vermeiden?
Wie viele KI-Pilotprojekte scheitern in Unternehmen?

Die überwiegende Mehrheit aller KI-Pilotprojekte liefert entweder nicht die erwarteten Ergebnisse oder stagniert im Pilotstadium, ohne je in die Breite skaliert zu werden. Häufige Ursachen sind unklare Erfolgskriterien, mangelnde Datenqualität und unrealistische Erwartungen.

Was bedeutet AIQ und warum ist sie relevant?
Ist die Klarna-Geschichte ein Beweis dafür, dass KI nicht funktioniert?

Nein. KI funktioniert nachweislich in klar definierten Anwendungsbereichen mit realistischen Erwartungen. Die Klarna-Geschichte zeigt vielmehr die Grenzen einer Managementstrategie, die Technologie als pauschale Abkürzung statt als differenziertes Werkzeug begreift.

 

Quelle des Titelbildes: Unsplash / Vitaly Gariev

 

Weiterlesen

Mehr zum Thema: Weitere Artikel auf mybusinessfuture

Diesen Beitrag teilen:

Weitere Beiträge

15.03.2026

Digital Due Diligence: Warum M&A-Deals an der IT scheitern

Alexander Roth

Das Wichtigste in Kuerze 70% aller M&A-Deals erreichen ihre Wertschoepfungsziele nicht -- technologische ...

Zum Beitrag
12.03.2026

CIO-Agenda 2026: Zwischen Kostendruck und Innovationspflicht

Alexander Roth

Das Wichtigste in Kürze Budget-Paradox 2026: IT-Budgets wachsen nur 3,5 Prozent (real ein Rückgang) ...

Zum Beitrag
08.03.2026

Digitaler Verwaltungsrat: Warum Board-Kompetenz in Technologie überlebenswichtig wird

Benedikt Langer

Das Wichtigste in Kürze Nur 12 Prozent der Aufsichtsräte in DAX-Unternehmen verfügen über nachweisbare ...

Zum Beitrag
04.03.2026

EU AI Act 2026: Was Unternehmen jetzt umsetzen müssen

Benedikt Langer

Das Wichtigste in Kürze Seit Februar 2025 gelten die ersten Verbote des AI Act — ab August 2025 ...

Zum Beitrag
24.02.2026

Gemini 3.1 Pro: Googles strategische Wette auf reine Intelligenz

Tobias Massow

Lesezeit: 6 Min. Google veröffentlicht ein KI-Modell, das auf 13 von 16 Benchmarks führend ist – ...

Zum Beitrag
22.02.2026

149.000 offene IT-Stellen: Wie CIOs KI-Copiloten als Fachkräftersatz nutzen

Tobias Massow

⏱ 7 Min. Lesezeit 149.000 offene IT-Stellen in Deutschland – und der Markt gibt nicht genug Fachkräfte ...

Zum Beitrag