1. Einleitung: Der Moment der Erkenntnis

Berlin, KnowledgeCamp 2025. In einem Workshop zu generativen KI-Systemen diskutieren Wissensmanagement-Praktiker, wie sich Arbeit mit KI verändert. Stefan Holtel berichtet von einem Experiment, das er an der Hochschule für Technik und Wirtschaft durchführt – IT-Management, 5. Semester.

Die Studenten erwarten eine klassische Vorlesung: Folien, Erklärungen, ein Skript zum Mitnehmen. Stattdessen sagt Holtel zu ihnen: „Eure Zukunft wird darin bestehen, die besten Fragen zu stellen. Nicht die besten Antworten zu haben.“

Irritation. Dann die erste Gegenfrage: „Ist das prüfungsrelevant?“

„Ja“, sagt Holtel. „Ich prüfe zu 20% Fragen. Der Rest sind die Inhalte, die ich aufgrund eurer Fragen beantworte. Es gibt kein Skript. Ihr stellt Fragen, ich reagiere darauf.“

Was folgt, ist ein radikaler Rollentausch: Nicht der Dozent liefert Wissen, das die Studenten konsumieren. Die Studenten steuern durch Fragen, welches Wissen relevant wird. Holtel nennt das den Question Focus – die Kunst, durch präzise Rückfragen Klarheit zu erzwingen, bevor Inhalte produziert werden.

Im Workshop wird sofort klar: Genau dieser Mechanismus fehlt in 95% aller KI-Interaktionen.

Denn während Holtel seine Studenten zum Fragen zwingt, tun die Workshop-Teilnehmer – und vermutlich auch Sie – bei ChatGPT oder Claude das Gegenteil: Sie feuern Kommandos ab.

„Fasse die wichtigsten Punkte zusammen.“
„Erstelle eine Liste mit 10 Empfehlungen.“
„Schreibe einen Bericht über das Thema X.“

Ein-Zeilen-Prompts. Eindeutig. Effizient. Falsch.

Denn hier ist die unbequeme Wahrheit: Sie fragen in die falsche Richtung.

Nicht Sie sollten die KI befragen. Die KI sollte Sie befragen. Sie sollte zurückfragen: „Wofür brauchen Sie diese Zusammenfassung? Für wen? Bis wann? Was gehört rein, was explizit nicht? Woran erkennen Sie ‚gut genug‘?“

Aber das tut sie nicht. Weil Sie ihr keine Chance geben. Sie feuern Kommandos ab – und wundern sich, warum die Antworten unbrauchbar sind.

Was zurückkommt, wirkt auf den ersten Blick beeindruckend: flüssiger Text, strukturiert, professionell formatiert. Doch wer genauer hinsieht, erkennt das Problem: Die Zusammenfassung ist generisch, die Empfehlungen bleiben oberflächlich, der Bericht enthält Behauptungen ohne Belege – oder, schlimmer noch, plausibel klingende Fakten, die nicht stimmen. Halluzinationen.

Die Reaktion der Nutzer? „Das Tool taugt nichts“, „KI ist unzuverlässig“, „Ich muss alles selbst nachprüfen – da kann ich es gleich selbst schreiben.“

Aber das Problem liegt nicht im Tool. Es liegt in der Rollenverteilung.

Sie behandeln einen dialogfähigen, kontextverarbeitenden Sprachassistenten wie eine Kommandozeile aus den 1990er Jahren. Ein Befehl mit Parametern. Eine erwartete Ausgabe. Fertig. Diese Kommandologik war über Jahrzehnte die einzig funktionierende Mensch-Computer-Interaktion. Sie ist tief verankert – in Ihrer beruflichen Sozialisation, Ihrem Arbeitsgedächtnis, Ihrer Erwartungshaltung. Und genau deshalb funktioniert sie jetzt nicht mehr.

Generative Modelle sind keine Befehls-Empfänger. Sie sind Gesprächspartner. Und Sie führen dieses Gespräch derzeit so, als würden Sie in einem Fünf-Sterne-Restaurant den Kellner anbrüllen: „Essen! Jetzt!“ – statt sich beraten zu lassen, was heute frisch ist, was zu Ihrem Appetit passt, was zu Ihrem Zeitbudget und Ihrer Begleitung.

2. Problemanalyse: Warum Kommando-Prompts scheitern

2.1 Das tägliche Versagen (und warum es Sie Geld kostet)

Nehmen wir den klassischen Kommando-Prompt: „Fasse das Meeting von gestern zusammen.“

Sie tippen das ein. 30 Sekunden später erhalten Sie drei Absätze. Darin stehen: die wichtigsten Tagesordnungspunkte (generisch formuliert), die Hauptdiskussionen (ohne kontroverse Positionen), die nächsten Schritte (ohne Verantwortliche oder Deadlines). Der Text ist grammatikalisch einwandfrei. Inhaltlich? Unbrauchbar.

Warum? Weil Sie der KI nicht gesagt haben, wofür Sie das Ergebnis brauchen.

Und hier kommt der Denkfehler: Sie glauben, das Problem sei, dass Ihr Prompt „zu ungenau“ war. Also versuchen Sie es präziser: „Fasse das Meeting von gestern in 3 Absätzen zusammen, fokussiere auf Entscheidungen und nenne die Verantwortlichen.“

Besser. Aber immer noch falsch.

Das Problem ist nicht, dass Ihre Kommandos zu ungenau sind. Das Problem ist: Sie kommandieren überhaupt.

Die KI sollte Ihnen Rückfragen stellen. Sie sollte fragen:

  • Brauchen Sie die Zusammenfassung für ein Protokoll, das rechtlich abgesichert sein muss?
  • Für eine Entscheidungsvorlage an den Vorstand, die in 48 Stunden auf dem Tisch liegen soll?
  • Für Ihr eigenes Gedächtnis, weil Sie fünf Meetings parallel hatten?
  • Für ein Teammitglied, das nicht dabei war und morgen eine Präsentation halten muss?

Jede dieser Situationen erfordert eine andere Zusammenfassung – andere Inhalte, andere Tiefe, andere Tonalität, andere Belegpflicht.

Aber die KI fragt nicht. Warum? Weil Sie ihr keine Chance geben. Sie haben sie darauf konditioniert, sofort zu antworten. Und sie tut, was Sie von ihr erwarten: Sie improvisiert. Rät. Füllt die Lücken mit statistisch wahrscheinlichen Textbausteinen.

Und Sie bekommen exakt das, was Sie bestellt haben: Text, der aussieht wie eine Zusammenfassung, aber funktional nutzlos ist.

Das kostet Sie Zeit. Sie überarbeiten manuell. Fügen hinzu, was fehlt. Streichen, was irrelevant ist. Prüfen Fakten. Im schlechtesten Fall verwenden Sie das Ergebnis trotzdem – und Ihr Vorstand runzelt beim Lesen die Stirn, weil die Entscheidungsgrundlage schwammig ist.

Das kostet Sie Vertrauen. In das Tool, ja. Aber auch in Ihre eigene Fähigkeit, produktiv mit KI zu arbeiten. Sie ahnen, dass andere bessere Ergebnisse erzielen – aber Sie wissen nicht, warum.

Und es kostet Sie Reputation. Denn während Sie weiterhin Ein-Zeilen-Kommandos abfeuern, arbeiten andere bereits mit dialogischer Präzision. Deren Ergebnisse sind belegt, fokussiert, entscheidungsreif. Ihre nicht.

2.2 Der Archetyp: Drei Kommandos, drei Katastrophen

Bevor wir in die Lösung gehen, lassen Sie uns das Problem schärfer sehen. Drei Beispiele aus Ihrer täglichen Praxis – wenn Sie ehrlich sind, erkennen Sie sich in mindestens einem davon wieder:

2.2.1 Kommando 1: „Schreibe einen Bericht über KI-Trends 2025″

Was Sie erwarten: Ein fundierter Marktüberblick mit aktuellen Entwicklungen, relevanten Technologien und strategischen Empfehlungen für Ihr Unternehmen.

Was Sie bekommen: Fünf Seiten generisches Buzzword-Bingo. „KI wird die Arbeitswelt transformieren.“ „Ethische Fragen gewinnen an Bedeutung.“ „Unternehmen sollten in Weiterbildung investieren.“ Keine Quellenangaben. Keine konkreten Zahlen. Keine Abwägung widersprüchlicher Prognosen. Der Text könnte aus 2020 stammen – oder aus 2030. Hauptsache: er klingt kompetent.

Sie lesen ihn, seufzen und beginnen bei Null: Recherche, Strukturierung, Argumentation. Die KI hat Ihnen nichts abgenommen außer dem guten Gefühl, „schon mal angefangen“ zu haben.

2.2.2 Kommando 2: „Erstelle eine Präsentation für die Vorstandssitzung zu…“

Was Sie erwarten: Eine strukturierte Präsentation mit klaren Botschaften, belastbaren Daten und einer schlüssigen Argumentation, die Sie im Meeting verwenden können.

Was Sie bekommen: 15 Folien mit generischen Überschriften. „Aktuelle Marktsituation.“ „Herausforderungen und Chancen.“ „Strategische Empfehlungen.“ Die Inhalte könnten aus jedem Quartalsreport der letzten drei Jahre stammen. Keine konkreten Zahlen. Keine spezifischen Handlungsempfehlungen. Keine Gegenargumente, die Sie antizipieren müssten.

Sie öffnen die Datei, scrollen durch, seufzen. Dann beginnen Sie von vorn: Recherche, welche Zahlen der Vorstand wirklich braucht. Welche Entscheidung ansteht. Welche Optionen zur Debatte stehen. Die KI hat Ihnen nichts abgenommen außer dem Gefühl, „schon mal was zu haben“.

Warum? Weil Sie der KI nicht gesagt haben, welche Entscheidung der Vorstand treffen soll, welche Optionen zur Debatte stehen, welche Kriterien relevant sind, welcher Detailgrad erwartet wird und wo die Kontroverse liegt.

2.2.3 Kommando 3: „Gib mir 10 Ideen für…“

Was Sie erwarten: Kreative, unkonventionelle Vorschläge, die Sie weiterbringen.

Was Sie bekommen: Die ersten drei Ergebnisse einer Google-Suche, umformuliert in Bullet Points. Idee 4 bis 7 sind Variationen von Idee 1 bis 3. Idee 8 bis 10 sind so absurd, dass Sie lachen – oder weinen, je nach Tagesform.

Nichts davon ist brauchbar. Warum? Weil „Ideen“ ohne Kontext, Zielgruppe, Budget, Machbarkeit und Erfolgskriterien nur kreatives Rauschen sind.


2.3 Warum Kommandos scheitern: Der sprachphilosophische Bruch

Die klassische Mensch-Computer-Interaktion basiert auf einer simplen Logik: Antizipation. Bevor Sie eine Eingabe machen, wissen Sie exakt, welches Resultat Sie erwarten. Die Kompetenz liegt darin, die richtige Syntax zu beherrschen. cd /home/user/documents führt Sie in ein Verzeichnis – oder eben nicht, wenn die Syntax falsch ist. Keine Mehrdeutigkeit. Keine Interpretation. Deterministisch.

Generative KI-Modelle brechen mit diesem Paradigma fundamental. Sie tolerieren Mehrdeutigkeit. Sie ergänzen Lücken. Sie antworten immer – egal, wie vage Ihre Eingabe war. Das ist ihr Versprechen – und ihr Fluch.

Denn was nach außen wie Flexibilität aussieht, ist intern ein statistischer Wahrscheinlichkeitsraum. Wenn Sie schreiben „Fasse zusammen“, interpretiert das Modell:

  • Zusammenfassung = Textreduktion (höchstwahrscheinlich)
  • Zielgruppe = unbekannt (also: allgemein gebildeter Durchschnittsleser)
  • Umfang = mittel (weil „kurz“ oder „ausführlich“ nicht genannt wurde)
  • Zweck = Information (weil nichts anderes erkennbar)

Jede dieser Annahmen kann falsch sein. Und jede führt zu einem anderen Ergebnis.

Sprachphilosophisch lässt sich das mit der Sprechakttheorie von John L. Austin und John R. Searle fassen. Sprache ist nicht nur deskriptiv („Es regnet“), sondern performativ – sie vollzieht Handlungen: Definieren, Abgrenzen, Fordern, Widerlegen, Entscheiden. Ein Satz wie „Ich verspreche dir, morgen zu kommen“ beschreibt nicht ein Versprechen – er ist das Versprechen.

Für KI-Dialoge folgt daraus: Qualität entsteht nicht, wenn Texte „glatt“ formuliert sind, sondern wenn sprachliche Handlungen zu einer argumentativen Struktur werden. Ein guter Prompt ist kein optimierter Befehl. Er ist der Auftakt zu einem Gespräch, in dem Sie als Fragender steuern, was relevant ist, was wegfallen darf und woran Sie „gut genug“ erkennen.

Doch dahinter steht eine noch tiefere Einsicht – eine, die bereits die antike Philosophie erkannt hat: Nur im Dialog entsteht Erkenntnis.

Die sokratische Methode, die dialektische Gesprächsführung, basiert auf einem fundamentalen Prinzip: Wahrheit und Klarheit entstehen nicht durch einseitiges Verkünden, sondern durch wechselseitiges Befragen. Sokrates lehrte seine Schüler nicht, indem er Wissen übertrug – er zwang sie durch Rückfragen, ihre eigenen Annahmen zu prüfen, Widersprüche zu erkennen und zu präziseren Aussagen zu gelangen.

Diese Dialektik – das Hin und Her von These, Antithese und Synthese – ist kein philosophischer Luxus. Sie ist die einzige Methode, um aus vagen Intuitionen tragfähige Erkenntnisse zu destillieren.

Kommandologik ist asymmetrische Kommunikation: Einer befiehlt, der andere führt aus. Es gibt keinen Erkenntnisgewinn, nur Übertragung. Wenn Sie der KI befehlen „Fasse zusammen“, überträgt die KI statistisch wahrscheinliche Textbausteine – aber sie klärt nicht, was Sie eigentlich wissen müssen.

Dialogpraxis ist symmetrische Kommunikation: Beide Seiten fragen, präzisieren, korrigieren. Erkenntnis entsteht im Prozess. Wenn die KI zurückfragt „Wofür brauchen Sie diese Zusammenfassung?“, zwingt sie Sie, Ihr eigenes Ziel zu klären – und erst diese Klärung macht das Ergebnis relevant.

Das ist der philosophische Kern des Paradigmenwechsels: Sie müssen aufhören, KI als Werkzeug zu behandeln, das Befehle ausführt. Sie müssen anfangen, sie als Gesprächspartner zu nutzen, der Sie zwingt, Ihre eigenen Gedanken zu schärfen.

Und genau hier liegt der Paradigmenwechsel: Ihre Kompetenz verschiebt sich von der Syntaxbeherrschung (den richtigen Befehl tippen) zur Gesprächsführung (die richtigen Fragen stellen, Kontext setzen, Lücken benennen, Prioritäten klären).

3. Dialogpraxis: Die ICEI-Architektur

3.1 Eine minimale Architektur

Wenn Kommandos scheitern – wie geht es richtig? Die gute Nachricht: Es genügt eine kleine, robuste Architektur, die Sie in jeder Situation anwenden können. Keine magischen Prompts. Keine Tool-spezifischen Tricks. Nur vier Prinzipien, die sprachlogisch verankert und auf Entscheidbarkeit ausgerichtet sind:

ICEI – Intent, Constraints, Evidence, Iteration.

Das klingt einfach. Ist es auch. Die Schwierigkeit liegt nicht im Verstehen, sondern im Üben. Denn jedes dieser vier Elemente zwingt Sie, etwas zu tun, was Ihre Kommando-Gewohnheit unterdrückt: Nachdenken, bevor Sie tippen.

Aber hier kommt die radikale Wendung: Sie müssen nicht alle vier Elemente selbst liefern. Die KI soll sie von Ihnen einfordern.

Das ist der Kern des Rollentauschs. Nicht Sie erklären der KI, was Intent, Constraints, Evidence und Iteration bedeuten. Die KI fragt Sie danach. Systematisch. Strukturiert. Bevor sie auch nur ein Wort Ihres eigentlichen Ergebnisses schreibt.

Stefan Holtel nennt das in der Hochschullehre den „Question Focus“ – die Kunst, durch gezielte Rückfragen Klarheit zu erzwingen, bevor Inhalte produziert werden. In der KI-Nutzung heißt das: Socratic Turn. Die KI wird zum sokratischen Frager. Sie führt nicht mehr aus. Sie klärt.

Und Sie? Sie werden vom Kommandeur zum Präzisierenden. Ihre Aufgabe ist nicht mehr, den perfekten Prompt zu formulieren. Ihre Aufgabe ist, auf Rückfragen präzise zu antworten.

3.2 Socratic Turn: Rückfragen zuerst

Bevor die KI irgendetwas produziert, fordert sie von Ihnen:

  • Intent: Wofür wird das Ergebnis konkret gebraucht? Für wen? Bis wann? In welcher Form?
  • Constraints: Was gehört inhaltlich hinein, was explizit nicht? Welche Bande gelten?
  • Evidence: Welche Belegtiefe erwarten Sie? Welche Quellen sind zulässig?
  • Artefaktform: In welchem Format wird das Ergebnis übergeben?

Erst wenn diese Fragen beantwortet sind, beginnt die KI zu schreiben.

Das ist der Paradigmenwechsel. Nicht Sie müssen lernen, bessere Prompts zu schreiben. Die KI muss lernen, bessere Fragen zu stellen. Und Sie müssen lernen, sie dazu zu bringen – oder Tools zu nutzen, die diesen Modus bereits implementieren.

In der Praxis bedeutet das: Ihr erster Prompt ist nicht „Fasse zusammen“, sondern „Frage mich, was du wissen musst, um eine brauchbare Zusammenfassung zu erstellen.“

Oder, noch radikaler: Sie trainieren die KI darauf, automatisch mit Rückfragen zu beginnen, sobald Sie ein vages Kommando eingeben.

3.3 Intent: Zweck sichtbar machen

Wozu wird das Ergebnis konkret gebraucht? Für wen? Bis wann? In welcher Form?

Beispiel: Statt „Fasse das Meeting zusammen“ schreiben Sie – oder die KI fragt nach:

„Erstelle eine Entscheidungsvorlage für den Lenkungskreis. Format: 1-Seiten-Memo. Deadline: 28.11. Zweck: Entscheidung zwischen Option A (extern beauftragen) und Option B (intern aufbauen). ‚Gut genug‘ ist: Beide Optionen sind anhand von drei Kriterien (Kosten, Risiko, Time-to-Market) verglichen, es gibt zwei belastbare Belege und mindestens eine starke Gegenposition ist abgewogen.“

Das ist nicht Formalismus. Das ist Zielklärung. Und sie bestimmt alles, was folgt: Welche Inhalte relevant sind, welcher Detailgrad nötig ist, welche Tonalität passt, wie Aussagen zu belegen sind.

Mit Intent verschieben Sie die Optimierung von „möglichst glatter Sprache“ hin zu Sinn, Relevanz und Zumutbarkeit von Unsicherheit für eine spezifische Entscheidungslage.

3.4 Constraints: Bande setzen

Was gehört inhaltlich hinein – und was ausdrücklich nicht?

Ihr Denkfehler: Sie glauben, die KI „weiß schon“, was relevant ist. Tut sie nicht. Sie rät. Und sie rät konservativ – mittlere Länge, allgemeine Inhalte, keine Kontroversen. Sicher, aber nutzlos.

Constraints setzen die Bande, innerhalb derer die KI arbeiten darf. Und hier kommt der Rollentausch wieder ins Spiel: Die KI sollte Sie nach Constraints fragen, nicht umgekehrt.

„Was soll explizit NICHT in der Zusammenfassung stehen?“
„Gibt es Themenbereiche, die ausgeklammert werden sollen?“
„Welche Stilregeln gelten – formal, neutral, meinungsstark?“
„Welcher Umfang ist maximal zulässig?“

Zwei Arten von Constraints sind entscheidend:

Inhaltliche Constraints:

  • „Berücksichtige nur Ansätze, die in Deutschland rechtlich zulässig sind.“
  • „Fokussiere auf B2B-Märkte, B2C explizit ausschließen.“
  • „Nutze ausschließlich Quellen aus den letzten 12 Monaten.“

Anti-Scope (das Ungesagte):

  • „Keine theoretischen Exkurse über Ethik.“
  • „Keine Tool-Empfehlungen.“
  • „Keine Wiederholung bekannter Standardargumente – ich brauche Gegenintuitives.“

Warum ist Anti-Scope so mächtig? Weil generative Modelle dazu neigen, den Interpretationsraum zu füllen. Wenn Sie nicht explizit sagen „Das will ich nicht“, bekommen Sie es trotzdem – weil es statistisch wahrscheinlich ist. Anti-Scope reduziert diesen Raum.

Die KI fragt: „Was soll explizit nicht drin sein?“ – und zwingt Sie damit, präzise zu werden.

3.5 Evidence: Aussagen abstützen

Welche Belege stützen Kernaussagen? Wie erkenne ich verlässliche Quellen?

Hier scheitern die meisten Prompts endgültig. Denn generative Modelle sind keine Suchmaschinen. Sie haben keinen direkten Zugriff auf Echtzeit-Daten (es sei denn, Sie aktivieren Web-Suche). Was sie haben, sind Muster aus Trainingsdaten. Und Muster können täuschen.

Die Lösung: Belegpflicht – eingefordert durch die KI.

Die KI sollte Sie fragen:

  • „Welche Belegtiefe erwarten Sie für dieses Ergebnis?“
  • „Reichen plausible Argumentationen, oder brauchen Sie zitierfähige Quellen?“
  • „Soll ich bei unsicheren Aussagen markieren, wo Belege fehlen?“

Eine einfache Qualitätskennzeichnung genügt:

  • A-Quellen: Standardwerke, Peer-Review-Studien, Normen, offizielle Statistiken
  • B-Quellen: Belastbare Branchenberichte, Benchmarks, dokumentierte Praxisfälle
  • C-Quellen: Expertenstatements, Blogposts, Meinungsartikel

Regel: Kernaussagen müssen auf A oder A+B fußen. C-Quellen dienen der Einordnung, nicht der Beweisführung.

Aber: Das reicht nicht. Die KI sollte Sie zusätzlich fragen: „Soll ich mindestens eine starke Gegenposition einbeziehen?“

Nicht, um sie zu widerlegen – sondern um die Bruchstellen Ihrer eigenen Argumentation sichtbar zu machen.

Und dann die entscheidende Rückfrage: „Was müsste passieren, damit Sie Ihre Meinung ändern?“

Wenn Sie diese Frage nicht beantworten können, haben Sie keine Argumentation – Sie haben eine Überzeugung. Und Überzeugungen sind in Entscheidungsprozessen toxisch.


3.6 Iteration: Struktur im Verlauf

Dialoge ohne Artefakt sind fachlich unabgeschlossen.

Das häufigste Muster in der Praxis: Sie chatten 20 Minuten mit der KI, bekommen interessante Zwischenergebnisse – und am Ende haben Sie… nichts. Keine Datei. Kein Memo. Kein Protokoll. Nur eine Flut von Nachrichten, die morgen nicht mehr rekonstruierbar sind.

Iteration heißt: Kurze, zielorientierte Runden, die immer in einem Artefakt enden.

Und hier kommt wieder der Rollentausch: Die KI sollte Sie daran erinnern, ein Artefakt zu erstellen.

Nach der Klärung von Intent, Constraints und Evidence sollte die KI fragen:

  • „In welchem Format soll ich Ihnen das Ergebnis liefern?“
  • „Soll ich ein 1-Seiten-Memo, ein strukturiertes Dokument oder eine Präsentation erstellen?“
  • „Wann ist dieser Schritt abgeschlossen – woran erkenne ich, dass Sie das Artefakt akzeptieren?“

Ein Chat, der ohne Artefakt bleibt, hat fachlich nicht abgeschlossen. Das Artefakt ist der Prüfstein. Es zwingt die KI (und Sie), von vagem „wir könnten auch…“ zu konkreten, prüfbaren Aussagen zu kommen.

Und die KI sollte Sie fragen: „Ist dieses Artefakt gut genug, oder iterieren wir weiter?“

Das ist die Disziplin der Iteration. Nicht endloses Herumprobieren, sondern strukturierte Schleifen mit klaren Abbruchkriterien.

4. Die drei Leitfragen

4.1 Leitfrage 1: Wozu – und für wen?

Generative Modelle liefern auch ohne klare Zielvorgabe plausible Prosa. Das ist ihr Versprechen – und ihre Falle. Denn Text, der „gut klingt“, ist nicht dasselbe wie Text, der fachlich relevant ist.

Fachlich relevant wird ein Ergebnis erst, wenn Zweck und Adressat ex ante benannt sind. Nicht irgendwann im Verlauf des Gesprächs, nicht implizit, nicht „sollte doch klar sein“. Ex ante. Explizit. Benannt.

Eine knappe Setzung genügt – aber sie muss da sein:

„Entscheidungsvorlage für den Lenkungskreis bis 28.11. Format: 1-Seiten-Memo. Entscheidung zwischen Option A und Option B. ‚Gut genug‘ ist: Beide Optionen sind anhand von drei Kriterien verglichen (Kosten, Risiko, Time-to-Market), zwei belastbare Belege sind genannt, eine starke Gegenposition ist abgewogen.“

Das ist kein Formalismus. Das ist Zielklärung. Und sie verändert alles, was folgt:

Ohne Intent: Die KI optimiert auf Sprachglätte. Der Text wird flüssig, die Argumentation bleibt schwammig.

Mit Intent: Die KI optimiert auf Entscheidungsrelevanz. Der Text wird knapper, die Argumentation wird fokussiert.

Die Verschiebung ist subtil, aber entscheidend. Stellen Sie sich vor, Sie geben jemandem den Auftrag: „Recherchiere mal zu autonomen Fahrzeugen.“ Was bekommen Sie? Einen Wikipedia-Artikel in eigenen Worten. Jetzt präzisieren Sie: „Recherchiere, ob wir in autonome LKW-Flotten investieren sollten – für eine Vorstandsentscheidung nächste Woche. Format: Pro-Contra-Tabelle mit drei belastbaren Quellen pro Position.“ Was bekommen Sie jetzt? Eine entscheidbare Unterlage.

Der Unterschied: Im ersten Fall fehlt der Kontext. Im zweiten Fall ist klar, dass es nicht um Wissen geht, sondern um Handlung. Nicht „Was gibt es zu wissen?“, sondern „Was muss entschieden werden?“

Diese Setzung bestimmt, wonach gefragt wird, welches weggelassen werden darf, wie Aussagen zu belegen sind. Mit ihr verschiebt sich die Optimierung von „möglichst glatter Sprache“ hin zu Sinn, Relevanz und Zumutbarkeit von Unsicherheit für eine spezifische Entscheidungslage.

Und hier kommt der Rollentausch ins Spiel: Die KI sollte Sie nach Intent fragen. Nicht Sie müssen den perfekten Prompt formulieren, der alle Details enthält. Die KI sollte nachfassen:

„Wofür brauchen Sie das Ergebnis konkret?“
„Wer wird es lesen – und welche Entscheidung soll getroffen werden?“
„Bis wann brauchen Sie es?“
„In welchem Format wird es übergeben?“
„Woran erkenne ich, dass das Ergebnis ‚gut genug‘ ist?“

Erst wenn diese Fragen beantwortet sind, beginnt die eigentliche Arbeit.

4.2 Leitfrage 2: Wie wird aus Kommandieren Dialogpraxis?

Der entscheidende Schritt ist die Umstellung von „Befehl“ auf Gesprächsführung. In der Praxis bewährt sich ein kurzes Zug-Muster, das ICEI ohne Overhead operationalisiert. Es folgt einer klaren Sequenz – und jeder Schritt ist eine Gelegenheit, Qualität zu erhöhen oder Halluzinationen zu reduzieren.

Das Zug-Muster: Sechs Schritte zur Entscheidungsreife

Schritt 1: Rückfragen zuerst (Socratic Turn)

Die KI fordert Intent, Adressat, Constraints, Belegregeln und Artefaktform ein. Sie beginnt nicht mit Inhalten, sondern mit Klärung.

Beispiel:

Sie: „Fasse das Meeting von gestern zusammen.“

KI: „Bevor ich beginne: Wofür brauchen Sie die Zusammenfassung? Für ein rechtssicheres Protokoll? Für eine Entscheidungsvorlage? Für Ihr eigenes Gedächtnis? Und bis wann brauchen Sie sie?“

Warum das funktioniert: Die KI zwingt Sie, nachzudenken, bevor sie arbeitet. Sie wird vom Befehls-Empfänger zum Klärungspartner.

Schritt 2: Knappe Setzungen

Sie liefern die Punkte – inklusive Anti-Scope. Sie müssen nicht perfekt formuliert sein. Sie müssen nur da sein.

Beispiel:

Sie: „Für eine Entscheidungsvorlage an den Vorstand. Deadline: Freitag. Format: 1 Seite. Zweck: Entscheidung zwischen externer Beratung (Option A) oder interner Task Force (Option B). Was explizit NICHT drin sein soll: keine Wiederholung der Projekthistorie, keine theoretischen Exkurse über Change Management.“

Warum das funktioniert: Anti-Scope reduziert den Interpretationsraum. Die KI weiß jetzt nicht nur, was relevant ist – sondern auch, was sie weglassen darf.

Schritt 3: Rahmen spiegeln

Die KI skizziert den Entscheidungsrahmen und markiert Lücken. Sie zeigt Ihnen, was sie verstanden hat – und was noch fehlt.

Beispiel:

KI: „Verstanden. Ich erstelle eine 1-seitige Entscheidungsvorlage für den Vorstand. Zweck: Wahl zwischen externer Beratung (A) und interner Task Force (B). Format: Vergleich anhand von drei Kriterien – welche genau? Kosten? Risiko? Time-to-Market? Und welche Belegtiefe erwarten Sie? Reichen Erfahrungswerte, oder brauchen Sie zitierfähige Quellen?“

Warum das funktioniert: Sie sehen sofort, was die KI falsch verstanden hat – bevor sie Zeit mit Inhalten verschwendet, die Sie nicht brauchen.

Schritt 4: Priorisieren & belegen

Sie priorisieren Fragen und nennen 1–2 A/B-Quellen, falls vorhanden. Wenn nicht, sagen Sie das.

Beispiel:

Sie: „Kriterien: Kosten, Risiko, Time-to-Market – in dieser Reihenfolge. Belegtiefe: Ich brauche belastbare Zahlen für Kosten (haben wir intern) und eine Einschätzung zu Risiken (da fehlt mir Input – kannst du recherchieren?). Für Time-to-Market reichen Erfahrungswerte.“

Warum das funktioniert: Die KI weiß jetzt, wo sie eigenständig arbeiten darf (Recherche zu Risiken) und wo sie mit Ihren Inputs arbeiten muss (Kosten, Erfahrungswerte).

Schritt 5: Artefaktentwurf

Die KI erstellt den ersten Entwurf – mit A/B-Belegen und einer starken Gegenposition. Nicht perfekt. Aber prüfbar.

Beispiel:

KI: „Hier ist der Entwurf. Option A (externe Beratung): Kosten 180k€, Risiko mittel (Abhängigkeit), Time-to-Market 8 Wochen. Option B (interne Task Force): Kosten 90k€, Risiko hoch (fehlende Expertise), Time-to-Market 16 Wochen. Belege: Internes Kostenmodell (A-Quelle), Benchmark-Studie zu Beratungsprojekten (B-Quelle). Gegenposition: Ein interner Mitarbeiter argumentiert, dass externe Berater die kulturellen Besonderheiten des Unternehmens nicht verstehen und daher scheitern werden.“

Warum das funktioniert: Sie haben jetzt etwas Konkretes. Keine vagen Textblöcke, sondern eine Struktur, die Sie kritisieren können.

Schritt 6: Kritik & Präzisierung

Prüfung entlang weniger, klarer Fragen: Stimmen die Annahmen? Sind die Belege tragfähig? Fehlt eine wichtige Perspektive? Dann schärfen, ergänzen, fokussieren – und finalisieren.

Beispiel:

Sie: „Die Kosten für Option B sind zu niedrig geschätzt – rechne mit 120k€, wenn wir Opportunitätskosten einbeziehen. Und die Gegenposition zu extern ist zu schwach – der eigentliche Einwand ist: Externe Berater liefern Folien, keine Umsetzung. Das muss rein.“

KI: „Verstanden. Ich passe die Kosten an und schärfe die Gegenposition. Hier ist die überarbeitete Fassung.“

Warum das funktioniert: Sie iterieren nicht endlos. Sie korrigieren gezielt. Und am Ende haben Sie ein Artefakt, das Sie übergeben können.

Warum sinken Halluzinationen?

Drei Effekte greifen ineinander:

1. Kontextverdichtung durch Intent und Constraints verkleinert den Interpretationsraum.

Je enger der Rahmen, desto weniger muss die KI raten. Wenn Sie sagen „Schreibe einen Bericht über KI“, ist der Interpretationsraum riesig. Die KI könnte über KI in der Medizin, in der Automobilindustrie, in der Ethik, in der Regulierung schreiben – und sie wählt statistisch wahrscheinliche Textbausteine, die zu nichts davon wirklich passen.

Wenn Sie sagen „Schreibe eine 1-seitige Entscheidungsvorlage für den Vorstand: Sollen wir in generative KI für unsere Kundenservice-Chatbots investieren? Format: Pro-Contra mit drei belastbaren Belegen pro Seite“, schrumpft der Interpretationsraum dramatisch. Die KI weiß jetzt, was relevant ist – und was nicht.

2. Belegpflicht verschiebt die Optimierung von Sprachglätte zu Quellenabstützung.

Generative Modelle sind darauf trainiert, flüssige Texte zu erzeugen. Nicht unbedingt korrekte Texte. Wenn Sie keine Belegpflicht fordern, optimiert die KI auf Sprachglätte – und halluziniert dabei fröhlich Fakten, die „gut klingen“.

Wenn Sie explizit fordern: „Kernaussagen müssen mit A- oder B-Quellen belegt sein, und markiere unsichere Aussagen“, verschiebt sich die Optimierung. Die KI muss jetzt abwägen: Kann ich diese Aussage belegen, oder nicht? Wenn nicht, muss sie entweder die Aussage abschwächen („Es gibt Hinweise darauf, dass…“) oder ganz streichen.

Das ist nicht perfekt. Aber es reduziert Halluzinationen erheblich.

3. Turn-Taking erlaubt frühe Kurskorrekturen.

Im Kommando-Modus feuern Sie einen Prompt ab, warten 30 Sekunden, bekommen ein Ergebnis – und merken dann: Das ist nicht, was Sie wollten. Sie haben 30 Sekunden verschwendet und müssen neu anfangen.

Im Dialog-Modus klärt die KI erst Rahmen und Annahmen. Sie sehen sofort, wenn sie etwas falsch verstanden hat – und korrigieren, bevor sie Zeit mit Inhalten verschwendet.

Das ist der Unterschied zwischen „Ich gebe einen Befehl und hoffe, dass es klappt“ und „Ich führe ein Gespräch und steuere dabei aktiv“.


Die geforderte Artefaktform als Filter

Dialoge ohne Artefakt sind fachlich unabgeschlossen. Das klingt banal, aber es ist der entscheidende Unterschied zwischen „interessanten Gedanken austauschen“ und „ein Ergebnis produzieren, das jemand verwenden kann“.

Ein Artefakt zwingt zu prüfbaren Aussagen. Solange Sie nur chatten, kann die KI vage bleiben. „Es gibt verschiedene Ansätze.“ „Man könnte auch…“ „Eine weitere Überlegung wäre…“ Das klingt intelligent, führt aber zu nichts.

Sobald Sie ein Artefakt fordern – ein 1-Seiten-Memo, eine Pro-Contra-Tabelle, eine kommentierte Quellenliste –, muss die KI konkret werden. Sie muss Positionen benennen, Belege zuordnen, Empfehlungen aussprechen. Und Sie können prüfen: Stimmt das? Fehlt was? Ist das verwendbar?

Das Artefakt ist der Prüfstein. Ohne Artefakt haben Sie einen interessanten Chat. Mit Artefakt haben Sie ein Arbeitsergebnis.


4.3 Leitfrage 3: Wie entsteht Entscheidbarkeit?

„Entscheidbar“ ist ein Artefakt dann, wenn es auf einer Seite – oder in einem klar strukturierten Dokument – Folgendes sichtbar macht:

  1. Zweck und Adressat: Wofür wird das verwendet? Wer entscheidet?
  2. Annahmen: Welche Prämissen liegen dem Ergebnis zugrunde?
  3. Optionen: Welche Alternativen stehen zur Wahl – und anhand welcher Kriterien werden sie verglichen?
  4. Belege: Welche A- und B-Quellen stützen die Kernaussagen?
  5. Gegenposition: Welche starke Gegenposition gibt es – und warum wurde sie nicht gewählt?
  6. Empfehlung: Was ist die Handlungsempfehlung?
  7. Nächste Schritte: Wer tut was bis wann?

Das ist keine Raketenwissenschaft. Das ist das, was Sie in jedem gut geführten Meeting, in jeder Entscheidungsvorlage, in jedem Projektplan bereits tun. Sie haben es nur noch nicht systematisch auf KI-Dialoge übertragen.

Für explorative Vorhaben: Die Experimentkarte

Nicht jede Situation erfordert eine Entscheidung. Manchmal geht es darum, etwas auszuprobieren – ein Experiment zu starten, dessen Ausgang offen ist.

Für diese Fälle eignet sich eine Experimentkarte:

Hypothese: [Was vermuten wir?]
Maßnahme: [Was tun wir konkret?]
Metrik/Signal: [Woran erkennen wir Erfolg/Misserfolg?]
Abbruchkriterium: [Wann brechen wir ab, wenn es nicht funktioniert?]
Lernnotizen: [Was haben wir gelernt – unabhängig vom Ausgang?]

Beispiel:

Hypothese: Wenn wir unseren Chatbot mit generativer KI erweitern, sinkt die Eskalationsrate an menschliche Agenten um 20%.

Maßnahme: 4-Wochen-Pilotprojekt mit 500 Kunden, die zufällig der KI-Variante zugewiesen werden. Kontrollgruppe: 500 Kunden mit dem bisherigen Chatbot.

Metrik/Signal: Eskalationsrate (Anteil der Gespräche, die an menschliche Agenten übergeben werden). Sekundärmetrik: Kundenzufriedenheit (CSAT-Score).

Abbruchkriterium: Wenn nach 2 Wochen die Eskalationsrate nicht mindestens 10% gesunken ist oder der CSAT-Score um mehr als 5 Punkte fällt, brechen wir ab.

Lernnotizen: [Wird nach Abschluss gefüllt]

Der häufigste Fehler in der Praxis ist das Fehlen eines expliziten Abbruchkriteriums. Projekte laufen dann weiter, weil niemand den Mut hat zu sagen: „Das funktioniert nicht, wir hören auf.“ Die Folge: teure Endlosschleifen, die Ressourcen binden und niemanden weiterbringen.

Das Abbruchkriterium ist keine Kapitulation. Es ist Disziplin. Es bedeutet: Wir haben eine Hypothese, wir testen sie, und wenn sie nicht stimmt, lernen wir daraus und machen etwas anderes.

5. Implikationen und Grenzen

Die Verschiebung von Prompt-Formeln zu Gesprächsdisziplin verändert Kompetenzprofile. Das ist keine technische Neuerung – es ist eine kulturelle. Und wie bei jeder kulturellen Veränderung gibt es Gewinner und Verlierer.

5.1 Was sich verändert

Relevanz und Wiederholbarkeit steigen. Wenn Sie ICEI konsequent anwenden, bekommen Sie nicht nur bessere Ergebnisse – Sie bekommen reproduzierbar bessere Ergebnisse. Das heißt: Sie können anderen zeigen, wie Sie arbeiten. Sie können Ihre Methode weitergeben. Sie können Standards setzen.

Das ist der Unterschied zwischen „Ich habe mal einen guten Prompt gefunden“ und „Ich habe ein System, das funktioniert“.

Entscheidungen werden nachvollziehbar begründet. Statt „Das klingt gut“ oder „Das fühlt sich richtig an“ haben Sie jetzt: „Diese Entscheidung basiert auf folgenden Annahmen, Belegen und Abwägungen.“ Das macht Sie angreifbarer – aber auch glaubwürdiger.

Effizienz steigt – langfristig. Kurzfristig kostet ICEI mehr Zeit. Sie müssen nachdenken, bevor Sie tippen. Sie müssen Fragen beantworten, die Sie lieber überspringen würden. Aber langfristig sparen Sie Zeit – weil Sie nicht mehr drei Anläufe brauchen, um ein brauchbares Ergebnis zu bekommen.

5.2 Was ICEI nicht ersetzt

ICEI ersetzt keine Domänenexpertise. Wenn Sie nicht wissen, welche Fragen in Ihrem Fachgebiet relevant sind, hilft Ihnen auch die beste Dialogpraxis nicht. ICEI macht die KI nicht schlauer – es macht Sie als Nutzer präziser.

ICEI ersetzt keine formalen Evidenzbewertungen. In hochregulierten Bereichen – Medizin, Pharma, Luftfahrt, Finanzwesen – reicht eine ABC-Klassifikation von Quellen nicht. Hier sind strengere Standards nötig: systematische Reviews, Meta-Analysen, kontrollierte Studien. ICEI ist ein Rahmen, kein Ersatz für fachliche Rigorosität.

ICEI ist kein Autopilot. Sie können die KI nicht „einfach machen lassen“. Sie müssen aktiv führen, korrigieren, priorisieren. Dialogpraxis ist Arbeit. Weniger Arbeit als manuelles Recherchieren und Schreiben – aber mehr Arbeit als „Kommando abfeuern und hoffen“.


5.3 Wovon Dialogqualität abhängt

Aufmerksamkeit. Wenn Sie nebenbei E-Mails lesen, während Sie mit der KI arbeiten, wird das Ergebnis mittelmäßig. ICEI braucht Fokus – nicht viel, aber konzentriert.

Zeitfenster. Wenn Sie nur 5 Minuten haben, hilft Ihnen ICEI nicht. Dann sind Sie im Kommando-Modus gefangen, ob Sie wollen oder nicht. ICEI ist für Situationen, in denen Qualität wichtiger ist als Geschwindigkeit.

Zugang zu belastbaren Quellen. Wenn Sie keine A- oder B-Quellen haben, bleibt Ihnen nur, die KI zu bitten, welche zu finden (via Web-Suche) – oder zu akzeptieren, dass Ihr Ergebnis spekulativ bleibt. ICEI macht das sichtbar, löst es aber nicht.


6. Schluss: Der Schritt vom Kommandeur zum Dialogexperten

Der Schritt vom IT-Kommandeur zum AI-Dialogexperten ist ein Arbeitsstil, kein Tool-Trick. Es gibt keinen magischen Prompt, der alles löst. Es gibt keine Plattform, die Ihnen die Arbeit abnimmt. Es gibt nur: Disziplin. Die Disziplin, Intent zu klären, bevor Sie tippen. Bande zu setzen, bevor Sie hoffen. Belege zu fordern, bevor Sie glauben. Artefakte zu erzeugen, bevor Sie weiterchatten.

Diese Disziplin ist anstrengend. Vor allem am Anfang. Sie werden sich ertappen, wie Sie doch wieder Kommandos abfeuern. „Fasse zusammen.“ „Schreibe einen Bericht.“ „Gib mir 10 Ideen.“ Und Sie werden merken: Es funktioniert nicht mehr.

Sie haben gesehen, wie es besser geht – und jetzt nervt Sie die eigene Ungeduld. Das ist gut. Das ist der Moment, in dem Gewohnheiten brechen.

Wer Intent klärt, Bande setzt, Belege fordert und Ergebnisse iterativ in Artefakte überführt, nutzt generative Systeme dort, wo sie fachlich zählen: zur Erhöhung von Entscheidungsfähigkeit unter Unsicherheit.

ICEI liefert dafür die kleinste robuste Architektur. Verständlich. Leicht zu üben. Unabhängig von Plattformen. Tool-agnostisch. Sprachlogisch verankert. Auf Entscheidbarkeit ausgerichtet.

Aber – und das ist die unbequeme Wahrheit – ICEI hilft Ihnen nur, wenn Sie es tatsächlich anwenden. Nicht einmal. Nicht gelegentlich. Konsequent.

Stefan Holtel hat in seinem Hörsaal eine Regel: „Ihr stellt Fragen, ich reagiere darauf.“ Seine Studenten haben gelernt, dass Fragen stellen keine Schwäche ist, sondern die einzige Kompetenz, die zählt, wenn Wissen allgegenwärtig und Unsicherheit die Regel ist.

Für Sie gilt dasselbe. In einer Welt, in der generative Modelle Texte schneller produzieren, als Sie sie lesen können, ist nicht derjenige erfolgreich, der die besten Befehle gibt. Erfolgreich ist, wer die besten Fragen stellt.

Denn nur im direkten Dialog entsteht Erkenntnis. Asymmetrische Kommunikation – das Kommando – überträgt Information. Symmetrische Kommunikation – der Dialog – erzeugt Klarheit. Das ist keine Technik. Das ist Dialektik.

Und der erste User-Prompt lautet im GPT am Ende: Hast Du zielführende Fragen an mich?


Literaturverzeichnis

Austin, J. L. (1962). How to Do Things with Words. Oxford University Press.

Searle, J. R. (1969). Speech Acts: An Essay in the Philosophy of Language. Cambridge University Press.

Rothstein, D., & Santana, L. (2011). Make Just One Change: Teach Students to Ask Their Own Questions. Harvard Education Press.

Nielsen, J. (2023). AI Is the First New UI Paradigm in 60 Years. Nielsen Norman Group. [Online-Essay/Blog]

Mollick, E. (2024). Co-Intelligence: Living and Working with AI. Penguin Press.

Liu, X., et al. (2023). A Survey of Prompting Methods for Large Language Models. [Preprint/Survey]

Schulhoff, S., et al. (2024). The Prompt Report: A Systematic Survey of Prompting Methods for LLMs. [Preprint/Survey]