80% der KI-Investitionen scheitern – und es liegt nicht an der Technologie
- Bernhard Nitz

- vor 4 Tagen
- 7 Min. Lesezeit
Aktualisiert: vor 3 Tagen

Die Diskrepanz zwischen der Begeisterung, mit der Unternehmen Künstliche Intelligenz einführen, und der ernüchternden Bilanz ihrer Wirksamkeit gehört zu den auffälligsten Phänomenen der aktuellen Transformationslandschaft. Dass die Ursache in den seltensten Fällen technologischer Natur ist, wird zwar zunehmend formuliert – aber in der Praxis kaum konsequent adressiert.
In meiner Beratungsarbeit häufen sich seit einigen Monaten Gespräche, die einem wiederkehrenden Muster folgen: Geschäftsführende und Führungskräfte berichten von KI-Piloten, die technisch funktionieren – die Demos sind überzeugend, die Machbarkeitsnachweise erbracht, die Innovation-Abteilung ist begeistert. Aber irgendwo auf dem Weg zwischen Proof-of-Concept und operativer Wirksamkeit verliert das Vorhaben an Kraft. Die Ergebnisse erreichen den Vertrieb nicht, die IT kämpft mit der Integration in bestehende Systeme, und das mittlere Management – das die Veränderung eigentlich tragen müsste – verhält sich abwartend. Das ist nicht die Ausnahme. Es ist das vorherrschende Muster.
Was mich dabei beschäftigt, ist weniger das Scheitern selbst als die Art, wie es erklärt wird. Die gängige Reaktion bewegt sich zwischen verschiedenen Polen: Entweder wird das Problem bei der Technologie verortet (die noch nicht reif genug sei), bei den Mitarbeitenden (die noch nicht kompetent genug seien oder nur Angst vor Jobsverlust hätten) oder bei der Regulierung und Gesetzgebung. Alle Erklärungen sind bequem, weil sie adressierbar erscheinen. Und beide greifen zu kurz, weil sie die organisationale Dimension ausblenden – die Frage, ob die Organisation als System in der Lage ist, eine Veränderung dieser Tragweite aufzunehmen und produktiv zu verarbeiten.
Was die Empirie zeigt – und was sie nicht sagt
Die empirische Befundlage hat in den vergangenen Monaten eine bemerkenswerte Dichte erreicht. Eine Studie der Unternehmensberatung Horvath vom Januar 2026 zeigt, dass mittelständische Unternehmen ihre KI-Investitionen im vergangenen Jahr gesenkt haben – und zwar gegenläufig zum Gesamtmarkt, der seine Ausgaben erhöhte. Der Mittelstand investiert mittlerweile rund 30 Prozent weniger in KI als der Durchschnitt aller befragten Unternehmen. Das ist kein Zeichen mangelnden Bewusstseins. Es ist, so meine Lesart, eine rationale Reaktion auf die Erfahrung, dass die ersten Gehversuche nicht die Wirkung entfaltet haben, die die Strategie versprach – und dass die Unsicherheit über den richtigen nächsten Schritt grösser geworden ist, nicht kleiner.
Parallel dazu hat die NANDA-Initiative des MIT 150 Führungskräfte interviewt und 300 KI-Implementierungen untersucht. Ihr zentraler Befund: Das Problem gescheiterter Vorhaben liegt nicht in der Qualität der eingesetzten Modelle, sondern in einer «Lernlücke» – einem Defizit, das vor allem durch die mangelhafte Integration der Technologie in organisationale Abläufe, Entscheidungsprozesse und Zusammenarbeitsformen entsteht.
McKinsey ergänzt diese Befunde im «State of AI 2025»-Report mit einer Beobachtung, die ebenso nüchtern wie bezeichnend ist: Neun von zehn befragten Unternehmen geben an, KI regelmässig einzusetzen. Doch der Fortschritt verläuft, so der Report, «wenig strategisch und in wechselhaftem Tempo.» Die Werkzeuge sind verbreitet – aber eine tiefe Integration in die Wertschöpfung findet kaum statt.
Was diese Studien gemeinsam sichtbar machen, ist eine Kluft zwischen technologischer Verfügbarkeit und organisationaler Absorptionsfähigkeit. Die Technologie ist da. Die Fähigkeit der Organisation, sie sinnvoll aufzunehmen, ist es oft nicht. Und genau an dieser Stelle beginnt das eigentliche Problem – eines, das sich mit technischer Aufrüstung allein nicht lösen lässt.
Drei Blockaden, die sich gegenseitig verstärken
Was das MIT als «Lernlücke» bezeichnet, beobachte ich in meiner Beratungspraxis als Zusammenspiel von drei organisationalen Blockaden, die selten isoliert auftreten und sich in ihrer Wirkung gegenseitig verstärken.
Die erste ist eine Entscheidungsblockade. KI-Vorhaben erfordern Priorisierung auf einem Niveau, das viele Organisationen überfordert – nicht weil die Informationslage unzureichend wäre, sondern weil die Fähigkeit fehlt, aus verfügbarer Information eine klare, verbindliche Entscheidung abzuleiten. Welche Prozesse werden zuerst automatisiert? Welche Daten haben Priorität? Welches Team trägt die Verantwortung? In vielen Geschäftsleitungen kollidieren an diesen Fragen Budgethoheiten, Bereichslogiken und persönliche Interessen – und die politisch unbequeme Entscheidung, was nicht gemacht wird, bleibt unausgesprochen. Was als KI-Implementierungsproblem erscheint, ist in Wahrheit ein Priorisierungsproblem, das älter ist als jede KI-Initiative.
Die zweite Blockade ist eine Führungslücke. Künstliche Intelligenz verändert nicht nur Prozesse, sondern Rollen, Entscheidungswege und professionelle Selbstverständnisse. Wer bisher Berichte erstellt hat, soll sie künftig überprüfen. Wer bisher auf Basis von Erfahrung entschieden hat, wird von einem System herausgefordert, das in bestimmten Bereichen schneller lernt. Diese Verschiebungen erfordern ein Führungssystem, das Übergangsphasen bewusst gestaltet – mit klaren Rhythmen, definierten Rollen und der Fähigkeit, Tagesgeschäft und Transformation gleichzeitig zu steuern. Was die meisten Organisationen stattdessen haben, ist ein Projektbüro, das Tools ausrollt, und die implizite Erwartung, dass sich die Anpassung schon ergeben wird. Das tut sie selten.
Die dritte und in meiner Erfahrung wirkungsmächtigste Blockade ist eine Beziehungslücke. Die Angst vor Rollenverlust, vor Kompetenzentwertung, vor einer Verschiebung informeller Machtverhältnisse ist in den meisten Organisationen real – und wird in den wenigsten offen adressiert. Stattdessen manifestiert sie sich in Formen, die leicht missverstanden werden: als passiver Widerstand, als wiederholtes «Ja, aber…» in Projektmeetings, als diffuse Verlangsamung der Adoption. Wer diese Dynamik als «Akzeptanzproblem» diagnostiziert und mit Schulungsprogrammen beantwortet, behandelt das Symptom – und stabilisiert unbeabsichtigt die Blockade.
Was diese drei Blockaden verbindet, ist eine gemeinsame Ursache: Es sind keine technischen Defizite, sondern Ausdrucksformen einer Organisation, die in ihrer Entscheidungsfähigkeit, ihrer Führungsreife und in der Tragfähigkeit ihres Beziehungssystems an Grenzen stösst, die bereits vor der KI-Initiative bestanden.
Das Phänomen Shadow AI als diagnostisches Signal
Ein Nebenbefund, der diese Analyse stützt und zugleich schärft: Aktuelle Erhebungen zeigen, dass über 50 Prozent der Mitarbeitenden KI-Tools mittlerweile ohne formelle Genehmigung ihres Arbeitgebers nutzen. Dieses als «Shadow AI» bezeichnete Phänomen wird überwiegend als Compliance-Risiko diskutiert – und damit in eine Kategorie verschoben, die sich mit Richtlinien und Governance-Strukturen adressieren lässt.
Bevor man jedoch über Governance spricht, lohnt sich eine andere, unbequemere Frage: Was sagt es über eine Organisation, wenn Mitarbeitende die nützlichsten verfügbaren Werkzeuge heimlich nutzen – nicht weil sie subversiv handeln wollen, sondern weil sie davon ausgehen, dass eine offene Frage keine hilfreiche Antwort bekäme?
Es sagt etwas über den Informationsfluss: Erkenntnisse darüber, was funktioniert und was nicht, erreichen die Entscheidungsebene nicht. Und es sagt etwas über das Vertrauensniveau: Mitarbeitende haben gelernt, dass Eigeninitiative in diesem Feld eher reguliert als gefördert wird. Shadow AI ist, so betrachtet, weniger ein Governance-Problem als ein Indikator dafür, dass Information nicht nach oben fliesst und Vertrauen nicht nach unten – ein Muster, das weit über die KI-Frage hinausreicht.
Warum die Standardreaktion nicht ausreicht
Die am häufigsten gewählte Reaktion auf gescheiterte oder stockende KI-Adoption ist bekannt: Schulung. Mehr Kompetenzaufbau, bessere Onboarding-Programme, KI-Champions in den Abteilungen, vielleicht ein Prompt-Engineering-Workshop für das Führungsteam. Das ist nicht falsch – Kompetenzdefizite existieren, und sie zu adressieren ist sinnvoll. Aber es adressiert die obere Schicht eines tieferliegenden Problems.
Wenn eine Organisation ihre Priorisierungsfähigkeit nicht im Griff hat, hilft auch der beste KI-Workshop nicht. Wenn das Führungssystem nicht für Übergangsphasen ausgelegt ist – wenn Führung an Einzelpersonen hängt, statt als System zu funktionieren, das auch unter Veränderungsdruck handlungsfähig bleibt – dann wird auch KI nicht anders implementiert als jede andere Initiative zuvor: Pilotprojekt, das im geschützten Raum gelingt und bei der Skalierung an den Strukturen der Organisation scheitert.
Eliyahu Goldratt hat mit der Theory of Constraints ein Prinzip formuliert, das sich hier erneut bestätigt: In jedem System gibt es genau einen limitierenden Faktor. Alles andere ist nachrangig. Die Frage ist deshalb nicht, wie wir unsere Mitarbeitenden KI-fit machen. Die Frage ist: Was ist der Engpass, der unsere Organisation daran hindert, diese oder jede andere Veränderung aufzunehmen – und was adressieren wir zuerst?
Drei Fragen, die vor dem nächsten KI-Budget beantwortet werden sollten
Die folgenden drei Fragen richten sich nicht an die IT-Abteilung, sondern an die Geschäftsleitung. Sie sind bewusst nicht technischer Natur – denn die technischen Fragen sind in den meisten Organisationen hinreichend beantwortet. Was fehlt, ist die organisationale Klärung.
Erstens: Wo liegt heute der zentrale Engpass – und ist es tatsächlich die Technologie? Wenn drei Mitglieder der Geschäftsleitung unabhängig voneinander drei verschiedene Engpässe benennen, ist die Divergenz selbst ein Befund. Sie deutet darauf hin, dass nicht ein Technologiedefizit, sondern die Fähigkeit der Organisation, sich auf eine gemeinsame Priorität zu einigen, der eigentliche limitierende Faktor ist. In solchen Situationen ein KI-Budget freizugeben, ohne diese Klärung vorzunehmen, führt mit hoher Wahrscheinlichkeit zu einer weiteren Initiative, die lokal beeindruckt und systemisch verpufft.
Zweitens: Ist das Führungssystem für eine Übergangsphase dieser Komplexität ausgelegt – oder hängt es an einzelnen Personen? KI-Einführung ist keine IT-Migration. Es ist eine Veränderung professioneller Identitäten, informeller Hierarchien und eingespielter Entscheidungswege. Wenn das Führungssystem bereits bei einem ERP-Upgrade an seine Grenzen stösst, wird es bei einer Veränderung, die Rollen und Selbstverständnisse berührt, nicht plötzlich leistungsfähiger sein.
Drittens: Wird in der Organisation offen über die Ängste gesprochen, die KI auslöst – oder ausschliesslich über ihre Chancen? Wenn in KI-Workshops nur über Effizienzgewinne und neue Möglichkeiten gesprochen wird, aber niemand fragt, wer seinen Arbeitsalltag grundlegend verändern muss und was das mit den Betroffenen macht, dann fehlt nicht technische Kompetenz. Dann fehlt psychologische Sicherheit – die Voraussetzung dafür, dass Menschen sich auf eine Veränderung einlassen, deren Ausgang sie nicht kontrollieren können.
KI als Verstärker – nicht als Ursache
Es gibt eine Beobachtung, die ich über die Jahre in sehr unterschiedlichen Transformationskontexten immer wieder bestätigt finde: Jede neue Initiative – ob Digitalisierung, Agilität oder nun Künstliche Intelligenz – verhält sich in der Organisation wie ein Verstärker. Sie macht bestehende Stärken stärker und bestehende Schwächen sichtbarer. Eine Organisation, die schnell und klar entscheidet, wird mit KI noch schneller und klarer entscheiden. Eine Organisation, die Konflikte vermeidet, wird mit KI mehr Konflikte vermeiden – und mehr Energie darauf verwenden, sie zu umgehen.
Deshalb ist die Einführung von KI im Kern keine Technologieaufgabe, sondern eine Transformationsaufgabe. Und Transformation – das zeigt nicht nur die aktuelle Forschung, sondern auch die Erfahrung aus 15 Jahren Begleitung von Organisationen, die von aussen betrachtet alles richtig machen und trotzdem nicht vorankommen – beginnt selten dort, wo die meiste Aufmerksamkeit liegt. Sie beginnt bei der Frage, was die Organisation daran hindert, irgendetwas von Tragweite erfolgreich zu implementieren. Die Antwort auf diese Frage ist meistens nicht technisch. Sie ist organisational, sie ist sozial, und sie erfordert einen Blick, der tiefer geht als das, was Dashboards und Strategie-Folien zeigen.
Das ist kein Argument gegen KI. Es ist ein Argument dafür, die Reihenfolge richtig zu wählen.
Die entscheidende Frage lautet nicht: Wie führen wir KI ein? Sie lautet: Was hindert unsere Organisation daran, Veränderungen erfolgreich aufzunehmen – und wo setzen wir als Erstes an?
Wenn Sie sich in diesen Mustern wiedererkennen, freue ich mich über einen Kommentar oder ein Gespräch – nicht als Verkaufsgespräch, sondern einen Austausch über die Frage, wo Ihre Organisation gerade wirklich steht.



Kommentare