2. Apr 2026
|
Business
Journalist: Thomas Soltau
|
Foto: Getty Images/unsplash, Patrick Ratheiser
Patrick Ratheiser, Director & Head of AI bei Ernst & Young Management Consulting, begleitet zahlreiche KI-Projekte in Unternehmen. Seine Erfahrung zeigt, warum viele Initiativen nicht über Experimente hinauskommen, welche Denkfehler Fortschritt verhindern und weshalb KI vor allem bestehende Strukturen herausfordert. Zwischen Pilotprojekten und produktivem Einsatz klafft oft eine größere Lücke als erwartet. Technologische Reife allein entscheidet dabei selten über Erfolg oder Scheitern.

Patrick Ratheiser, Director & Head of AI bei Ernst & Young Management Consulting
Herr Ratheiser, viele Unternehmen reden über KI, nutzen sie aber nur oberflächlich. Woran liegt das? Viele KI-Initiativen scheitern an denselben Problemen wie klassische Digitalisierungsprojekte – nur mit deutlich höheren Erwartungen. Aktuell sind nur rund fünf Prozent der Unternehmen so weit, dass KI tief in ihre Kernprozesse integriert ist, und nur etwa ein Drittel schafft den Sprung von Experimenten in den produktiven Betrieb. Häufig fehlt eine belastbare Datenbasis, klare Verantwortlichkeiten oder es werden Anwendungsfälle gewählt, die zwar leicht umzusetzen sind, aber keinen echten Geschäftsnutzen liefern. Hinzu kommt eine massive Überschätzung der Technologie. KI ist leistungsfähig, aber keine Magie. Sie hat klare Grenzen, die man kennen muss.
Wird KI zu häufig als reines Effizienzwerkzeug verstanden? Ja. Effizienz ist leicht messbar und damit ein naheliegender Einstiegspunkt, gerade wenn Investitionen begründet werden müssen. Doch KI kann weit mehr leisten: Sie kann die Qualität von Produkten und Services erhöhen, neue Geschäftschancen sichtbar machen und bessere, datenbasierte Entscheidungen ermöglichen. Wer KI ausschließlich als Kostensenkungsinstrument begreift, verschenkt einen großen Teil ihres strategischen Potenzials.
Wer KI einführt, verschiebt Macht im Unternehmen. Wo entstehen die größten Konflikte? Diese Konflikte sind kein spezifisches KI-Problem, sondern ein strukturelles Organisationsthema. KI wirkt hier wie ein Verstärker. Fachabteilungen, IT und Management müssen enger zusammenarbeiten als bisher, weil KI eine echte Querschnittsdisziplin ist. Konflikte entstehen durch unterschiedliche Prioritäten, Erwartungshaltungen und Verantwortlichkeiten. Erfolgreich sind Projekte nur dann, wenn interdisziplinäre Teams gemeinsam Verantwortung übernehmen.
Wer KI ausschließlich als Kostensenkungsinstrument begreift, verschenkt einen großen Teil ihres strategischen Potenzials.
Der EU AI Act verlangt mehr Transparenz. Bremst er Innovation? Ich sehe ihn überwiegend positiv. Er schafft Klarheit, Transparenz und Verantwortlichkeit. Viele Anwendungen fallen gar nicht in den Hochrisikobereich, und für gut organisierte Unternehmen ist der zusätzliche Aufwand überschaubar. Dokumentations- und Transparenzpflichten sind sinnvoll, solange man sie ernst nimmt.
Erklärbarkeit gilt als Voraussetzung für vertrauenswürdige KI. Wie realistisch ist das? Man muss differenzieren: Bei kleineren Modellen ist Erklärbarkeit gut umsetzbar, bei großen Sprachmodellen technisch kaum vollständig möglich. Entscheidend ist ein risikobasierter Ansatz: Je kritischer der Einsatz, desto höher müssen Tests, Kontrollen und klare Einsatzgrenzen sein.
Viele Führungskräfte glauben an objektive KI-Entscheidungen. Wie gefährlich ist das? Sehr gefährlich. KI-Systeme machen Fehler, halluzinieren und sind immer von ihren Trainingsdaten geprägt. Objektivität existiert nur innerhalb dieser Daten – und die sind fast nie neutral. Ergebnisse müssen überprüft und eingeordnet werden. KI ist ein mächtiges Werkzeug, aber kein neutraler Schiedsrichter.
Je kritischer der Einsatz, desto höher müssen Tests, Kontrollen und klare Einsatzgrenzen sein.