Fünfundneunzig Prozent aller KI-Pilotprojekte in Unternehmen erzeugen keinen messbaren wirtschaftlichen Nutzen. Das ist das zentrale Ergebnis des „State of AI in Business 2025", den das MIT Sloan Management Review und das MIT Center for Information Systems Research (CISR) im August 2025 veröffentlicht haben. Die Studie basiert auf der Analyse von über 300 KI-Implementierungen, 52 Tiefeninterviews, 153 Umfragen und 350 Mitarbeiterbefragungen – erhoben im ersten Halbjahr 2025. Das Ergebnis ist kein Ausreißer, sondern ein Strukturproblem.
- Eine aktuelle MIT-Studie zeigt, dass 95 Prozent aller KI-Projekte in Unternehmen an strategischer Fehlausrichtung und mangelndem ROI scheitern.
- Neben riskanten In-house-Entwicklungen dämpfen vor allem unklare Businesscases und flasche Budgetprioritäten – wie Fokus auf Marketing statt Back-Office – den Mehrwert.
- Um eskalierende Kosten und hohe Millionenstrafen durch den EU AI Act zu vermeiden, müssen Manager konsequent lernen, erfolglose KI-Piloten frühzeitig abzubrechen.
Gleichzeitig fließen weltweit zwischen 30 und 40 Milliarden Dollar in KI-Projekte, ohne dass der Großteil davon einen produktionsreifen Zustand erreicht. Nur 5 % der untersuchten Initiativen skalieren zu echter Wertschöpfung – mit messbaren Effekten im Millionenbereich. Die sogenannte „GenAI-Kluft" beschreibt den wachsenden Abstand zwischen Hype-getriebenem Testen und operativ relevantem Einsatz. Für Entscheider bedeutet das: Die Frage ist nicht mehr, ob KI eingesetzt wird, sondern welche Projekte es verdienen, weiterfinanziert zu werden.
Die strukturellen Ursachen des Scheiterns
Der MIT-Report benennt mehrere wiederkehrende Muster, die das Scheitern von KI-Initiativen begünstigen. An erster Stelle steht die strategische Fehlausrichtung: Projekte werden gestartet, ohne einen klar definierten Beitrag zu Unternehmenszielen nachzuweisen. Was folgt, sind endlose Statusmeetings ohne Deliverables – ein Muster, das in der Studie als „Workslop" beschrieben wird. Dieser Begriff definiert KI-generierten Output, der zwar fertig aussieht, aber in der Nachbearbeitung mehr Aufwand verursacht, als er einspart, und so produktive Arbeit verhindert.
Ein zweiter Kernbefund betrifft die Budgetallokation. Laut Studie fließen über 50 % der KI-Investitionen in Vertrieb und Marketing statt in Back-Office-Prozesse, die deutlich höhere Automatisierungspotenziale aufweisen. In-house-Entwicklungen erweisen sich dabei als besonders risikoreich: Sie sind laut Studienauswertung nur ein Drittel so erfolgreich wie der Einsatz spezialisierter, kontextspezifischer Tools. Hinzu kommt der sogenannte „Learning Gap": KI-Systeme lernen nicht aus dem operativen Feedback der Teams, wodurch Fehler sich in Workflows verfestigen statt korrigiert zu werden.
- Fehlende strategische Verankerung: Kein messbarer Beitrag zu Unternehmenszielen
- Budgetfehllenkung: Über 50 % in Marketing/Vertrieb statt Back-Office
- In-house-Entwicklungsrisiko: Dreimal niedrigere Erfolgsquote als spezialisierte Tools
- Learning Gap: Keine Feedback-Schleife zwischen KI-System und operativem Team
- Zentralisierte KI-Labore: Isolation vom Tagesgeschäft verhindert echte Integration
Das Copilot-Paradox: Testen ohne Skalierung
Allzweck-Werkzeuge wie ChatGPT oder Microsoft Copilot werden laut MIT-Report von über 80 % der befragten Unternehmen getestet – aber nur 40 % implementieren sie dauerhaft. Der Grund ist symptomatisch: Diese Tools steigern individuelle Produktivität, erzeugen aber keinen organisationalen Gewinn. Ein Mitarbeiter, der mit KI-Unterstützung Texte schneller entwirft, erzeugt keinen Unternehmensgewinn, wenn die nachgelagerten Prozesse unverändert bleiben.
Intelligente Prozesskettensysteme – also kontextspezifische KI für Back-Office-Abläufe – werden von 60 % der Unternehmen evaluiert, aber nur 20 % erreichen die Pilotphase und lediglich 5 % produktiven Einsatz. Startups, die im MIT-Report als Gegenbeispiel dienen, skalieren schneller, weil sie sich auf genau einen Schmerzpunkt konzentrieren und auf externe Partnerschaften setzen statt auf interne Parallelentwicklung. Für Konzerne ist das ein strukturelles Handicap, das durch Governance und Beschaffungsprozesse verstärkt wird.
Warnsignale, die Entscheider frühzeitig erkennen müssen
Der MIT-Report und ergänzende CIO-Analysen aus dem InformationWeek-Expertenkreis konvergieren in einem Punkt: Die Früherkennung aussichtsloser Projekte ist kosteneffizienter als das Festhalten an versunkenen Kosten. Konkret lassen sich vier operative Warnsignale identifizieren, die eine Eskalationsprüfung auslösen sollten:
- Keine Deliverables nach 90 Tagen: Wenn nach drei Monaten keine messbaren Zwischenergebnisse existieren, fehlt entweder die Problemdefinition oder die Umsetzungskompetenz.
- Repetitive Statusmeetings ohne Entscheidungen: Zyklische Berichte ohne Konsequenzen sind ein Indikator für strategische Orientierungslosigkeit im Projektteam.
- Kompetenzlücke ohne Gegenmaßnahme: Wenn interne Teams die Anforderungen nicht erfüllen und externe Ressourcen nicht budgetiert sind, fehlt die Handlungsfähigkeit. Dies verschärft den AI-Skills-Gap im Unternehmen massiv.
- Kein definierter Businesscase: Projekte ohne quantifizierte Erfolgskriterien entziehen sich jeder ROI-Messung und jeder Abbruchentscheidung.
AI Act: Regulatorische Dimension der Projektbewertung
Die hohe Scheiternquote erhält eine zusätzliche regulatorische Dimension durch den EU AI Act. Seit August 2025 sind die GPAI-Regeln, Governance-Anforderungen und Strafen in Kraft. Ab dem 2. August 2026 tritt der Hauptteil des AI Act in Kraft, der Hochrisiko-KI, Biometrieanwendungen und HR-KI vollumfänglich reguliert. Unternehmen, die unkontrollierte KI-Pilotprojekte betreiben, riskieren damit nicht nur Ressourcenverlust, sondern auch Compliance-Verstöße mit Bußgeldern von bis zu 15 Millionen Euro beziehungsweise 3 % des weltweiten Jahresumsatzes bei Hochrisiko-Verstößen.
Besonders relevant: Wenn KI-Piloten Personalentscheidungen, Kreditbewertungen oder Sicherheitsklassifikationen berühren, greifen bereits jetzt Dokumentationspflichten und die Anforderung einer Datenschutz-Folgenabschätzung nach Art. 35 DSGVO. Deutsche Industrieunternehmen, die KI-Projekte ohne klare Risikoklassifikation betreiben, bewegen sich in einem regulatorischen Graubereich, dessen Kosten die Projektkosten selbst übersteigen können.
So What? Die strategische Konsequenz für das Management
Die MIT-Daten beschreiben kein kurzfristiges Phänomen. Sie zeigen ein systemisches Versagen in der Art, wie Unternehmen KI-Projekte initiieren, führen und bewerten. Die entscheidende Verschiebung, die der Report für erfolgreiche Fälle nachweist, liegt in drei Parametern: dezentrale Integration durch Bereichsverantwortliche statt zentraler KI-Labs, konsequente Fokussierung auf Back-Office-Prozesse mit klar messbarem Output und der Einsatz spezialisierter Tools statt breiter Allzwecklösungen. Dies erfordert eine klare AI-First Strategy, die jedoch messbare Ziele verfolgt.
Für das Management bedeutet das konkret: Jedes laufende KI-Pilotprojekt muss einer Dreifach-Prüfung standhalten – strategische Verankerung, operative Umsetzbarkeit mit vorhandenen Kompetenzen und regulatorische Konformität. Projekte, die einen dieser drei Tests nicht bestehen, sind keine Lernchancen, sondern Ressourcenabflüsse. Das Prinzip „fail fast" ist keine Niederlage, sondern rationales Kapitalallokationsmanagement.
Fazit: Abbruch als Kompetenz
Der MIT-Report „State of AI in Business 2025" liefert keine neue Theorie, sondern empirische Bestätigung einer Managementversagens-Hypothese: Die meisten Unternehmen fehlen die Kriterien, nach denen KI-Projekte gestoppt werden. Wer jetzt ein Portfolio-Review durchführt und laufende Piloten gegen die vier Warnsignale prüft, spart Budgets, die in der zweiten Jahreshälfte 2026 für AI-Act-Compliance und agentische Workflows gebraucht werden. Die Fähigkeit, ein Projekt zu beenden, ist keine Schwäche im Entscheider-Profil – sie ist eine Kernkompetenz in einer Welt, in der 95 von 100 KI-Projekten genau das verdienen: einen sauberen Abbruch.
❓ Häufig gestellte Fragen
📚 Quellen
- InformationWeek: Ask the Experts: The Red Flags That Signal an AI Project Isn't Worth Pursuing
- MLQ.ai: The GenAI Divide – State of AI in Business 2025 Report
- EU Artificial Intelligence Act: Implementation Timeline