AI Consulting für Unternehmen: Was es bringt, was es kostet, und woran du gute Berater erkennst
Ein ehrlicher Leitfaden ohne Buzzword-Nebel: Was AI Consulting wirklich ist, welche Engagement-Modelle es gibt, was realistische Preise sind, welche Ergebnisse sich messen lassen — und die roten Flaggen, die du vermeiden solltest.
Die Lage, kurz zusammengefasst
AI Consulting ist 2026 ein Markt, der zwischen zwei Polen zerrissen wird.
Auf der einen Seite: Große Beratungshäuser, die "AI Strategy Papers" für sechsstellige Summen verkaufen und in 90% der Fälle nie in Produktion gehen. Auf der anderen Seite: Solo-Consultants und kleine Teams, die KI-Systeme tatsächlich in Unternehmensprozesse integrieren — oft für einen Bruchteil des Preises, mit messbarem Output innerhalb von Wochen statt Quartalen.
Der Unterschied zwischen beiden Welten ist nicht die Größe des Beraters. Es ist die Frage, ob der Berater selbst mit KI-Tools arbeitet, oder nur darüber spricht.
Dieser Artikel ist für Entscheider in Unternehmen, die AI Consulting kaufen wollen — oder es gerade tun und sich fragen, ob das Geld gut angelegt ist. Kein Buzzword-Nebel, sondern konkret: Was es ist, was es kostet, was funktioniert, und woran du schlechte Beratung erkennst, bevor du das erste Angebot unterschreibst.
Was AI Consulting wirklich ist (und was nicht)
Der Begriff wird inflationär verwendet. Von strategischen Workshops bis zur vollständigen Implementierung läuft alles unter "AI Consulting". Das macht Vergleiche schwer.
Ein präziseres Modell: AI Consulting besteht aus vier unterschiedlichen Leistungen, die sich oft überschneiden, aber nicht dasselbe sind.
| Leistung | Was passiert | Typische Deliverables | Preis-Range (DE) |
|---|---|---|---|
| Assessment | Analyse, wo KI im Unternehmen Mehrwert schafft | Use-Case-Liste, Priorisierung, ROI-Schätzung | 1.500-5.000 € |
| Strategy | Roadmap, welche Tools, welche Reihenfolge, welche Investments | Strategiedokument, Build-vs-Buy-Matrix | 5.000-25.000 € |
| Implementation | Tatsächliche Umsetzung — Code, Integration, Deployment | Funktionierende Systeme in Produktion | 15.000-150.000+ € |
| Enablement | Team-Schulung, Workflows, laufende Begleitung | Dokumentation, Trainings, CLAUDE.md-Setups | 2.000-8.000 €/Monat |
Die großen Beratungen verkaufen überwiegend Strategy. Die Solo-Spezialisten verkaufen überwiegend Implementation und Enablement. Assessment liegt dazwischen.
Die wichtige Frage ist nicht "welche Leistung brauche ich?", sondern "wer kann welche Leistung wirklich liefern?". Ein Strategy-Papier eines Beraters, der nie selbst ein KI-System gebaut hat, ist wertlos — egal wie schön das PDF aussieht.
Was AI Consulting nicht ist
- Nicht ein Chatbot-Projekt. Chatbots sind ein mögliches Ergebnis, aber kein Konzept. Wer dir "einen Chatbot" verkauft, ohne vorher das eigentliche Problem zu verstehen, löst vermutlich das falsche Problem.
- Nicht ChatGPT-Training. Wenn der Hauptwert einer Beratung darin besteht, deinem Team zu zeigen, wie man ChatGPT öffnet, hast du 5.000 € für etwas bezahlt, das ein YouTube-Video kostenlos leistet.
- Nicht Data Science. Klassisches Machine Learning (Prognosemodelle, Clustering, Recommendation Engines) ist eine andere Disziplin — mit eigenen Spezialisten und eigenen Preisen. Überschneidungen gibt es, aber die Werkzeuge sind andere.
- Nicht RPA mit KI-Label. Robotic Process Automation existiert seit 15 Jahren. Wer dir RPA verkauft und "AI" draufschreibt, hat den Hype entdeckt, nicht die Technologie.
Die Engagement-Typen im Detail
Wer AI Consulting kauft, hat typischerweise eines von drei Problemen. Jedes Problem braucht einen anderen Engagement-Typ.
1. "Wir wissen nicht, wo wir anfangen sollen"
Das Problem: Die Geschäftsführung hat erkannt, dass KI Chancen bietet, aber niemand im Unternehmen weiß, wo genau. Die IT-Abteilung ist überlastet, das Management kann die Möglichkeiten nicht konkret einschätzen.
Der passende Engagement-Typ: Assessment + Strategy, 2-4 Wochen.
Was passiert:
- Interviews mit Fachabteilungen (Marketing, Service, Operations, Finance)
- Prozess-Mapping für die 3-5 aussichtsreichsten Bereiche
- Priorisierung nach Impact × Machbarkeit
- Konkreter Vorschlag: Welche 1-2 Pilotprojekte in welcher Reihenfolge
Was es kostet: 5.000-15.000 €, je nach Unternehmensgröße.
Rote Flagge: Wenn das Deliverable am Ende ein 80-seitiges PDF ohne klare Priorisierung und ohne konkreten nächsten Schritt ist, ist das Geld verbrannt. Ein gutes Assessment endet mit einer Tabelle: "Starte hier, mit diesem Budget, diesem Zeitrahmen, diesem erwarteten Output."
2. "Wir haben einen konkreten Use Case"
Das Problem: Das Unternehmen weiß genau, was automatisiert werden soll — Support-Tickets klassifizieren, Produktbeschreibungen generieren, Verträge analysieren, interne Suche verbessern. Es fehlt nur die Umsetzung.
Der passende Engagement-Typ: Implementation, 4-12 Wochen.
Was passiert:
- Proof of Concept auf Basis einer Datenstichprobe (Woche 1-2)
- Iteration an Prompts, Modellen, Workflows bis die Qualität stimmt (Woche 3-4)
- Integration in bestehende Systeme (Woche 5-8)
- Monitoring, Fehlerfälle, Team-Übergabe (Woche 9-12)
Was es kostet: 15.000-60.000 € für einen klar umrissenen Use Case. Komplexere Integrationen (mehrere Systeme, strenge Compliance, produktive Pipelines) liegen darüber.
Rote Flagge: Wer dir einen Festpreis nennt, bevor er deine Daten gesehen hat, rät. KI-Projekte haben eine inhärente Unsicherheit in der Datenqualität — ein ehrlicher Berater startet mit einem Explorations-Sprint und fixiert den Preis erst danach.
3. "Wir brauchen laufende KI-Begleitung"
Das Problem: Das Unternehmen hat bereits erste KI-Systeme im Einsatz, aber die Entwicklung geht so schnell, dass interne Teams den Anschluss verlieren. Neue Modelle, neue Tools, neue Integrationen — jeder Monat bringt Möglichkeiten, die niemand im Haus evaluieren kann.
Der passende Engagement-Typ: Retainer / Enablement, fortlaufend.
Was passiert:
- Monatliche Reviews: Was ist neu, was ist relevant für euch
- Technisches On-Demand: Spezifische Fragen, Architektur-Reviews, Proof-of-Concepts für neue Tools
- Team-Enablement: Bestehende Mitarbeiter werden zu KI-kompetenten Entwicklern weitergebildet
- Dokumentation: Laufende Aktualisierung von internen Standards (CLAUDE.md, Prompt-Libraries, Workflow-Guides)
Was es kostet: 2.000-8.000 €/Monat, je nach Umfang. Typisch sind 2-4 Tage pro Monat.
Rote Flagge: Retainer ohne definierten Scope. Wer dir "laufende Beratung" verkauft, ohne zu sagen, wie viele Stunden oder welche Deliverables, wird in Monat drei nicht mehr verfügbar sein, wenn du ihn brauchst.
Was funktioniert, was nicht — aus der Praxis
Nach zwei Jahren, in denen KI-Systeme tatsächlich in Unternehmensprozessen eingesetzt wurden, lassen sich Muster erkennen. Die Projekte, die funktionieren, sehen anders aus als die, die scheitern.
Projekte, die funktionieren
Klare Prozesse mit hohem Volumen. Support-Ticket-Klassifizierung, Produktbeschreibungen für E-Commerce, Rechnungsdatenextraktion, interne Dokumentensuche. Alles Aufgaben mit klaren Inputs, klaren Outputs und einer Fehlerquote, die akzeptabel ist, solange sie niedriger als die menschliche ist.
Code-Automatisierung mit Review. Agentic Coding mit Tools wie Claude Code verändert, wie viel ein einzelner Entwickler in der gleichen Zeit produziert. Details dazu im Artikel Agentic Coding: Warum es alles verändert. Die Produktivitätssprünge liegen bei 3-5x, bei strukturierter Nutzung.
Content-Generierung mit menschlichem Final-Check. Produkttexte, Meta-Descriptions, interne Dokumentation, Übersetzungen. KI liefert die erste Version, ein Mensch prüft. Reduktion der Arbeitszeit: 60-80%, bei gleichbleibender oder besserer Qualität.
Interne Knowledge-Systeme. Unternehmen mit viel unstrukturierter Dokumentation (Wikis, PDFs, Meeting-Notes) profitieren massiv von LLM-basierter Suche. Klassische Volltext-Suche findet Wörter. KI findet Bedeutung. Der Unterschied ist in der Praxis gewaltig.
Projekte, die scheitern
"End-to-End-Automatisierung" ohne Menschen im Loop. Prozesse, bei denen KI autonome Entscheidungen trifft, die Kunden oder Geld betreffen, scheitern fast immer. Nicht weil die Technik schlecht ist, sondern weil der Ausnahmefall, den das Modell nicht abdeckt, teuer wird. Menschen im Loop sind kein Versagen, sondern eine Architekturentscheidung.
Generische Chatbots für alles. Chatbots, die alle Fragen beantworten sollen, beantworten keine gut. Fokussierte Assistenten für einen bestimmten Use Case funktionieren. "KI-Assistent für unsere gesamte Website" ist fast immer das falsche Scope.
KI für die Vorstandspräsentation. Projekte, die gestartet wurden, weil "wir auch etwas mit KI machen müssen", haben kein Problem, das sie lösen. Ohne Problem gibt es keinen messbaren Erfolg, und ohne Erfolg wird das Projekt nach dem ersten Berichtszeitraum eingestellt.
Migration ohne Datenqualität. Wer seine Daten nicht im Griff hat, hat mit KI noch weniger im Griff. LLMs verstärken Datenprobleme, sie lösen sie nicht. Ein Assessment vor dem ersten KI-Projekt ist oft eigentlich ein Daten-Audit.
Das ROI-Modell, ehrlich
Die Frage, die jeder CFO stellt: "Was bringt das?" Die ehrliche Antwort: Es hängt davon ab, wo du startest und was du misst.
Ein realistisches Framework:
| Bereich | Typischer Hebel | Wann messbar |
|---|---|---|
| Operative Prozesse | 30-70% Zeitersparnis bei wiederholbaren Aufgaben | Nach 4-8 Wochen |
| Content-Produktion | 2-5x mehr Output bei gleicher Qualität | Nach 4 Wochen |
| Code-Entwicklung | 2-5x schnellere Implementierung komplexer Features | Sofort sichtbar, aber braucht 2-4 Wochen Einarbeitung |
| Customer Support | 40-60% der Tickets ohne menschlichen Kontakt gelöst | Nach 8-12 Wochen |
| Dokumentensuche / Knowledge | 60-80% schnellere Antwortfindung | Nach 2-4 Wochen |
| Strategy / Innovation | Schwer quantifizierbar | Lange Feedback-Schleifen |
Der letzte Punkt ist der, bei dem die meisten Beratungen ansetzen — weil er am schwersten widerlegbar ist. "Wir haben Ihre Innovationskraft gesteigert" lässt sich nicht mit einem KPI messen. Deshalb funktioniert das Geschäftsmodell großer Strategie-Beratungen.
Die Regel: Je weiter oben im Framework du ansetzt, desto schneller und klarer siehst du ROI. Je weiter unten, desto schwieriger wird die Rechtfertigung. Starte oben, lerne aus den ersten Projekten, und bewege dich nach unten, wenn die Grundlagen stimmen.
Wie ein gutes Engagement abläuft
Ein konkretes Beispiel aus der Praxis — abstrahiert, aber realistisch.
Ausgangslage: Ein mittelständischer E-Commerce-Händler mit 8.000 SKUs will Produktbeschreibungen automatisiert generieren, die sowohl SEO-konform als auch markentypisch sind. Aktueller Aufwand: 20 Minuten pro Produkt, verteilt auf ein Team von drei Personen.
Woche 1 — Assessment: Analyse der bestehenden Produkttexte, Verständnis der Markenstimme, Evaluation der Produktdatenbank. Ergebnis: Datenbasis ist solide, aber Markenstimme ist nirgends dokumentiert. Erste Aufgabe: Die impliziten Regeln der besten 200 Produkttexte in ein Prompt-Template übersetzen.
Woche 2-3 — Proof of Concept: Entwicklung eines Prompt-Templates mit Few-Shot-Beispielen. Test auf 100 Produkten. Review durch das Content-Team. Erste Version: 60% der Texte akzeptabel ohne Änderung, 30% mit kleineren Edits, 10% unbrauchbar. Iteration: Template anpassen, Few-Shots austauschen, Metadaten-Kontext erweitern. Nach drei Iterationen: 85% akzeptabel, 12% mit kleineren Edits, 3% zum Überarbeiten.
Woche 4-5 — Integration: Anbindung an die Shopify Admin API. Batch-Verarbeitung für bestehende Produkte, Webhook-basierte Generierung für neue. Review-Interface für das Content-Team, damit Änderungen vor dem Publish möglich sind. Monitoring für Qualitätsmetriken.
Woche 6 — Rollout & Enablement: Team-Schulung, Übergabe der Dokumentation, Definition des Review-Workflows. Messpunkt nach 30 Tagen vereinbart.
Messung nach 30 Tagen:
- Zeit pro Produkt: 20 Min → 4 Min (Review + Fine-Tuning)
- Team-Kapazität für neue Produkte: ~60/Woche → ~300/Woche
- Qualitätsmetriken (Lesbarkeit, Keywords, Markenstimme): vergleichbar oder besser
- Gesamtkosten des Projekts: 22.000 €
- Amortisation: ~4 Monate, basierend auf eingesparter Arbeitszeit
Das ist kein Hype-Case. Es ist ein realistisches, wiederholbares Muster, das sich in dutzenden E-Commerce-Projekten beobachten lässt. Der Schlüssel ist nicht die KI — es ist die saubere Definition des Problems und die iterative Qualitätskontrolle in den ersten Wochen.
Woran du gute AI Consultants erkennst
Nach zwei Jahren Marktbeobachtung lassen sich sechs Signale nennen, die gute von schlechten Beratern trennen.
1. Sie bauen selbst
Gute AI Consultants setzen die Tools, die sie empfehlen, selbst täglich ein. Nicht einmal im Quartal in einem Workshop, sondern im Arbeitsalltag. Ein Berater, der dir Claude Code verkauft, sollte eine CLAUDE.md vorzeigen können. Einer, der dir LangChain empfiehlt, sollte Code auf GitHub haben.
2. Sie nennen Preise mit Scope
"Das kommt auf den Use Case an" ist keine Antwort, sondern eine Ausweichmanöver. Gute Berater haben Standardangebote mit klaren Scope-Definitionen. Audit ab X €, PoC ab Y €, Integration nach Aufwand. Das bedeutet nicht, dass alles Festpreis ist — es bedeutet, dass die Struktur transparent ist.
3. Sie beantworten die Frage nach dem Scheitern ehrlich
"Was war das letzte KI-System, bei dem du gescheitert bist, und warum?" ist die beste Interview-Frage, die du stellen kannst. Wer keine Antwort hat, hat entweder nichts Echtes gebaut oder ist nicht ehrlich. Beide Varianten sind disqualifizierend.
4. Sie priorisieren dein Problem, nicht ihre Methodik
Schlechte Berater kommen mit einem festen Tool-Stack und versuchen, dein Problem darauf zu mappen. Gute Berater hören zu, verstehen die Domäne und wählen dann das Tool. Wer im ersten Gespräch schon vorschlägt, eine bestimmte Plattform zu kaufen, verkauft eine Lösung ohne Diagnose.
5. Sie erklären Grenzen klar
KI-Systeme können viel, aber nicht alles. Ein guter Berater sagt dir, wo die Grenzen liegen — nicht um Projekte zu verhindern, sondern um Erwartungen zu managen. Wer dir erzählt, dass KI "jede Aufgabe lernen kann", hat entweder die letzten zwei Jahre nicht mit LLMs gearbeitet oder verkauft gerade etwas.
6. Sie haben einen Plan für den Zeitpunkt, an dem du sie nicht mehr brauchst
Gute Berater wollen sich überflüssig machen. Das klingt paradox für ein Geschäftsmodell, ist aber das Merkmal von Consultants, die auf langfristigen Ruf statt auf Vendor-Lock-in setzen. Frag konkret: "Was braucht unser Team, damit wir in einem Jahr eigenständig weiterarbeiten können?" Die Antwort offenbart die Haltung.
Wie Dahn Digital das Thema angeht
Zur Einordnung, wie ich selbst arbeite — ohne das hier zum Pitch zu machen: Mein Ansatz ist implementierungsorientiert. Jedes Projekt startet mit einem konkreten Problem, nicht mit einer Strategie-Phase. Deliverables sind funktionierende Systeme in Produktion, keine PDFs.
Die Tools, die ich täglich einsetze, sind dokumentiert: Claude Code für Implementierung, MCP-Server für Integration in bestehende Systeme, CLAUDE.md als zentrale Wissensbasis pro Projekt. Wer tiefer verstehen will, wie das konkret aussieht: Wie ich mit KI als Shopify-Berater arbeite und Claude Code Tutorial: Von Null auf produktiv.
Für Unternehmen, die gerade am Anfang stehen, ist das relevante Angebot ein Assessment — 1-2 Wochen strukturierte Analyse mit konkreter Priorisierung und Kostenschätzung für den ersten Use Case. Alles andere (Implementierung, Enablement, Retainer) baut darauf auf.
Die entscheidende Frage
Am Ende läuft jede Entscheidung über AI Consulting auf eine einzige Frage hinaus:
Welches konkrete Problem wollen wir in den nächsten 90 Tagen gelöst haben, und wie messen wir den Erfolg?
Wenn du diese Frage beantworten kannst, hast du die Hälfte der Arbeit schon erledigt. Der passende Berater ist dann jemand, der die zweite Hälfte liefert — nicht mit einem Strategie-Papier, sondern mit einer funktionierenden Lösung.
Wenn du die Frage nicht beantworten kannst, bist du nicht bereit für AI Consulting. Du bist bereit für eine interne Diskussion darüber, welche Probleme dein Unternehmen eigentlich hat. Diese Diskussion ist nicht glamourös, aber sie ist die Voraussetzung dafür, dass jedes weitere Geld sinnvoll eingesetzt wird.
AI Consulting ist kein Zaubertrick. Es ist eine Disziplin — mit klaren Ergebnissen, wenn sie richtig angewendet wird, und teuren Lektionen, wenn nicht. Der Unterschied liegt in der Diagnose, nicht im Tool-Stack.
Häufig gestellte Fragen
AI Consulting ist die Begleitung von Unternehmen bei der Einführung und Integration von KI-Systemen in bestehende Prozesse. Ein guter AI Consultant macht drei Dinge: Er bewertet, wo KI tatsächlich Wert schafft (und wo nicht), er übersetzt Geschäftsprobleme in technische Anforderungen, und er implementiert oder begleitet die Umsetzung. Das Spektrum reicht von einer einmaligen Audit-Phase bis zur kompletten technischen Umsetzung mit Tools wie Claude Code, MCP-Servern oder Custom-Agents.
Die Spanne ist groß, abhängig vom Engagement-Typ. Ein Audit (1-2 Wochen Analyse plus Bericht) startet bei rund 1.500-5.000 €. Ein Proof-of-Concept für einen konkreten Use Case liegt typischerweise bei 5.000-15.000 €. Eine vollständige Implementierung inklusive Integration, Tests und Team-Enablement bewegt sich zwischen 15.000 € und mehreren 100.000 €, je nach Komplexität. Retainer-Modelle für laufende Begleitung beginnen bei 2.000-5.000 € pro Monat. Warnung: Beratungen ab 150.000 € für reine Strategie-Papiere ohne Implementierung sind üblich, aber selten den Preis wert.
Klassisches IT-Consulting liefert Strategie, Architektur und Projektmanagement für definierte Technologien. AI Consulting erfordert zusätzlich zwei Kompetenzen, die nicht aus der klassischen IT-Welt kommen: ein tiefes Verständnis dafür, was aktuelle KI-Systeme können und wo sie scheitern (was sich monatlich ändert), und die Fähigkeit, KI-Systeme tatsächlich mit Code zu integrieren — nicht nur ChatGPT in ein Slide-Deck zu zeichnen. Viele klassische Beratungen haben 'AI Practices' aufgebaut, die diese zweite Kompetenz nicht haben.
Wenn du einen konkreten Prozess hast, der viel manuelle Arbeit kostet und klare Regeln folgt — aber zu komplex für klassische Automatisierung ist. Typische Kandidaten: Content-Erstellung, Kundenservice-Tickets, Datenanalyse, technische Dokumentation, Produktinformationen, Support-Workflows, interne Suchsysteme. Nicht lohnenswert ist AI Consulting, wenn das Ziel ist, 'irgendwas mit KI' zu machen. Ohne konkretes Problem gibt es kein messbares Ergebnis, und die Beratung wird teuer, ohne Mehrwert zu schaffen.
Sechs Warnsignale: (1) Keine konkreten Referenzprojekte mit messbaren Ergebnissen. (2) Preise ohne klare Deliverables oder Meilensteine. (3) Fokus auf 'Strategie' ohne Bereitschaft zur technischen Umsetzung. (4) Ein Team, das KI-Tools selbst nicht täglich einsetzt. (5) Versprechen wie 'Wir automatisieren 80% Ihrer Prozesse in drei Monaten' ohne Ist-Analyse. (6) Keine Antwort auf die Frage 'Wie messen wir den Erfolg?' — außer schwammigen KPIs wie 'Effizienzsteigerung'.
Suche nach Beratern, die drei Dinge kombinieren: (a) ein dokumentiertes Verständnis des Geschäftsbereichs, in dem du tätig bist, (b) sichtbare technische Kompetenz (GitHub, konkrete Implementierungen, nicht nur Blog-Posts), (c) ein klares Engagement-Modell mit definiertem Scope und Preisen. Frage konkret nach: Welche KI-Tools setzt du selbst täglich ein? Welche Projekte hast du in den letzten sechs Monaten gebaut? Was war das letzte KI-System, bei dem du gescheitert bist, und warum? Wer auf die letzte Frage keine ehrliche Antwort hat, hat entweder nichts Echtes gebaut oder ist nicht ehrlich.