
CHAT GPT, HOW-TO, LLM, PROMPTS
Gated Salami Prompting: Warum Du Komplexe Llm-aufgaben In Scheiben Schneiden Solltest
8
MIN
12. März 2026
📌 Das Wichtigste in Kürze
Gibst du einem LLM eine komplexe Aufgabe in einem Prompt, kaskadieren Fehler – oft unbemerkt.
Gated Salami Prompting heißt: Aufgabe in kleine Scheiben schneiden, nach jeder Scheibe prüfen, erst dann weitermachen.
Das „Gate" bist du – der Mensch mit dem Urteilsvermögen zwischen den Schritten.
Die Methode grenzt sich klar ab von Chain of Thought, Prompt Chaining und Task Decomposition – und füllt eine Lücke, die diese lassen.
Gated Salami funktioniert ad-hoc für neue Aufgaben und wächst mit Erfahrung zu wiederverwendbaren Templates.
Anwendbar für quantitative Aufgaben (Berechnungen, Datengenerierung) und qualitative Analysen (Interviews, Unmet Needs).
Faustregel: Würdest du das Ergebnis ungeprüft weiterleiten? Nein? Dann Salami.
Wie ein Workshop fast mit falschen Daten auf die Bühne gegangen wäre
Es war ein ganz normaler Dienstag, und ich saß vor einem LLM mit einer klaren Aufgabe: synthetische Teilnehmendendaten für einen UX-Workshop generieren – mit kontrollierten Korrelationen, damit die Aufgaben lehrreich und nachvollziehbar werden. SUS-Scores, Nutzungsfrequenz, Fehlerquoten. Nichts Weltbewegendes.
Ich hätte einen einzelnen, großen Prompt schreiben können. Alles auf einmal. Das LLM hätte mir eine fertige Tabelle geliefert, überzeugend formatiert, auf den ersten Blick plausibel.
Stattdessen bin ich in Schritten vorgegangen – fast intuitiv. Erst die gewünschten Korrelationen definieren. Dann den Datensatz generieren. Dann die Korrelationsmatrix ausgeben lassen und prüfen. Und dann nochmal. Und nochmal.
Gute Entscheidung. Im dritten Anlauf stellte ich fest: Das LLM hatte eine Schuhgrößen-Variable mit fast allem korreliert. Nicht weil ich das wollte. Sondern weil ich es nicht explizit ausgeschlossen hatte – und das LLM mit dem Residuum irgendetwas machen musste.
Wäre ich den Weg des einzelnen Prompts gegangen, hätten diese Daten meinen Workshop-Teilnehmenden als Grundlage für ihre Analysen gedient. Mit Schuhgröße als signifikantem Einflussfaktor.
Das war der Moment, in dem ich verstanden habe, dass wir für diese Art zu arbeiten einen Namen brauchen.
Was passiert, wenn du einem LLM zu viel auf einmal gibst
Bevor ich den Begriff einführe, kurz zum Problem selbst – weil es subtiler ist, als es klingt.
LLMs liefern keine Fehlermeldungen. Sie liefern Ergebnisse. Gut formulierte, strukturierte, in sich schlüssige Ergebnisse – auch dann, wenn ein Zwischenschritt falsch war.
In der Forschung zu LLM-Halluzinationen zeigt sich: Fehler akkumulieren besonders dann, wenn mehrere Denkschritte aufeinander aufbauen. Jede Ebene baut auf der vorherigen auf. Ein kleiner Fehler in Schritt 2 wird in Schritt 4 zur unsichtbaren Prämisse. Das Endergebnis sieht korrekt aus – weil es intern konsistent ist, nicht weil es stimmt.
Das gilt für Rechenaufgaben. Es gilt für Textanalysen. Es gilt für Konzeptarbeit, Auswertungen, Kalkulationen – überall dort, wo mehrere Denkschritte aufeinander aufbauen und das Zwischenergebnis nicht sichtbar gemacht wird.
Das eigentliche Problem ist nicht, dass LLMs Fehler machen. Das eigentliche Problem ist, dass wir es oft nicht merken.
Was ist Gated Salami Prompting?
Jetzt kommt der Name.
Salami – weil du eine komplexe Aufgabe in dünne Scheiben schneidest. Nicht weil du die Aufgabe vereinfachst, sondern weil du sie in die kleinste sinnvoll prüfbare Einheit zerlegst. Eine Scheibe nach der anderen.
Gated – weil nach jeder Scheibe ein Gate steht. Ein Kontrollpunkt, an dem ein Mensch prüft: Stimmt das Ergebnis? Passt es zu dem, was ich weiß? Macht das Sinn? Erst wenn das Gate geöffnet ist – durch deine Prüfung – geht es zur nächsten Scheibe.
Prompting – weil es um die Arbeit mit LLMs geht, im Chat-Interface, ohne Code.
Das Gate bist du. Nicht ein Skript, nicht eine Pipeline, nicht eine automatische Validierung. Du, mit deinem Urteilsvermögen, deinem Fachkontext, deiner Erfahrung.
Das ist der Kern.
Was Gated Salami Prompting nicht ist – und warum das wichtig ist
Drei Begriffe tauchen auf, wenn man über ähnliche Konzepte spricht. Alle drei beschreiben Teile des Ansatzes. Keiner trifft das Ganze.
Begriff | Was es beschreibt | Was fehlt |
Chain of Thought | Das LLM denkt in Schritten innerhalb eines Prompts | Kein menschliches Review zwischen den Schritten |
Prompt Chaining | Kette von Prompts, Output von Schritt 1 → Input Schritt 2 | In der Literatur fast ausschließlich automatisiert, kein menschliches Gate |
Task Decomposition | Komplexe Aufgabe in Teilaufgaben zerlegen | Technik für Entwickler:innen, kein Arbeitsprinzip für das Chat-Interface |
Die Lücke, die alle drei lassen: Sie beschreiben entweder Zerlegung oder Automatisierung oder LLM-internes Denken. Aber kein einziger Begriff beschreibt das Zusammenspiel von Zerlegung, menschlicher Prüfung und Chat-Interface – für Menschen ohne Coding-Hintergrund, die mit einem LLM an einer komplexen Aufgabe arbeiten.
Diese Lücke füllt Gated Salami Prompting.
Wie Gated Salami Prompting in der Praxis funktioniert
Das Prinzip lässt sich auf drei Regeln runterbrechen:
Schneide die Aufgabe in die kleinste sinnvoll prüfbare Einheit. Nicht: „Analysiere alle 12 Interviews und fasse zusammen." Sondern: „Lies Interview 1 und nenne mir alle explizit genannten Bedürfnisse."
Prüfe jedes Zwischenergebnis, bevor du den nächsten Prompt absetzt. Nicht überfliegen – tatsächlich prüfen. Stimmt die Anzahl? Fehlt etwas Offensichtliches? Ist eine Kategorie zu weit gefasst?
Wenn etwas nicht stimmt, korrigiere diese Scheibe – nicht alles von vorn. Das ist das Effizienzargument: Wer früh korrigiert, spart sich das Auseinanderwickeln eines kompletten Ergebnisses.
Der Reifegrad: Von der Improvisation zum Rezept
Gated Salami funktioniert spontan. Wenn du eine neue, komplexe Aufgabe hast, zerlegst du sie im Moment – intuitiv, auf Sicht.
Und wenn du dieselbe Aufgabe mehrfach bearbeitest, passiert etwas Wichtiges: Du merkst, welche Scheiben immer gleich sind. Welche Gates immer dieselbe Prüffrage stellen. Dann frierst du die Scheiben ein. Du schreibst sie auf, formst sie zu einem wiederverwendbaren Prompt-Template.
Aus dem improvisierten Workflow wird ein Rezept.
In meiner Beratungsarbeit sehe ich das immer wieder: Wer Gated Salami zum ersten Mal macht, hält inne und denkt. Wer es zwanzigmal gemacht hat, hat Templates. Der Unterschied ist nicht die Methode – es ist der Reifegrad.
Beispiel 1: Synthetische Forschungsdaten generieren (hypothetisches Szenario)
Fiktives Beispiel, basierend auf typischen Aufgabenstellungen in UX-Workshops.
Angenommen, du willst für einen Workshop synthetische Teilnehmendendaten erstellen – mit kontrollierten Zusammenhängen zwischen SUS-Score, Nutzungsfrequenz und Fehlerquote. Das Ergebnis soll didaktisch funktionieren: Die Teilnehmenden sollen sinnvolle Muster finden, keine zufälligen.
Ohne Gated Salami: Ein Prompt, eine Tabelle. Sieht gut aus. Die Korrelationen stimmen – ungefähr. Und die Schuhgröße korreliert mit der Fehlerquote, weil das LLM mit dem restlichen Varianzanteil irgendwie umgehen musste.
Mit Gated Salami:
Scheibe 1: Zielkorrelationen definieren und bestätigen lassen – Gate: Stimmen die Werte mit meinen Anforderungen überein?
Scheibe 2: Datensatz generieren – Gate: Ausgabe der Korrelationsmatrix anfordern und prüfen
Scheibe 3: Korrekturen vornehmen – Gate: Erneut prüfen, bis die Matrix passt
Scheibe 4: Datensatz einfrieren und dokumentieren – Gate: Würde ich das so in den Workshop geben?
Das Ergebnis nach Scheibe 2: Schuhgröße korreliert mit fast allem. Gate geschlossen. Korrektur in Scheibe 3. Ergebnis nach zweiter Prüfung: passt. Gate geöffnet. Weiter.
Das Gate hat einen Fehler gefangen, den das LLM nicht als Fehler gemeldet hätte.
Beispiel 2: Interviewanalyse mit der Unmet-Needs-Kette
Das ist die Template-Variante – eine erprobte Scheiben-Kette, die ich in meinen UX-AI-Workshops einsetze.
Die Aufgabe: Aus qualitativen Interviewtranskripten Unmet Needs herausarbeiten.
Die Scheiben:
Kontext erfassen: Wie viele Interviews, welcher Rahmen, welche Fragestellung? – Gate: Anzahl und Rahmen korrekt?
Explizite Bedürfnisse: Was wurde direkt benannt? – Gate: Vollständig? Nichts Offensichtliches vergessen?
Implizite Bedürfnisse: Was wurde angedeutet, nicht ausgesprochen? – Gate: Plausibel im Kontext des Interviews?
Unerfüllte Bedürfnisse: Wo klafft die Lücke zwischen Bedarf und aktueller Lösung? – Gate: Belegt durch das Transkript?
Priorisierung: Welche Unmet Needs sind am häufigsten und am gewichtigsten? – Gate: Deckt sich das mit meinem Eindruck aus den Interviews?
Qualitätsmanager-Prompt: Das Gesamtergebnis gegen die Originaldaten prüfen – Gate: Finales Review, bevor das Ergebnis weiterverwendet wird
Das Gate nach Schritt 2 klingt banal – „Überprüfe, ob du weitere findest." Aber genau hier entsteht in der Praxis der Unterschied: Das LLM hat einen ersten Durchlauf gemacht. Der zweite Durchlauf, explizit geframet als Review, findet Dinge, die der erste übersehen hat.
Das ist kein Zufall. Es ist Methode.
Wann brauchst du Gated Salami – und wann nicht?
Nicht jede Aufgabe braucht Scheiben. Die Faustregel:
Kein Gated Salami nötig, wenn das Ergebnis in unter 30 Sekunden prüfbar ist. „Schreib mir eine kurze Zusammenfassung dieses Absatzes" – einmal lesen, fertig.
Gated Salami sinnvoll, wenn:
Mehrere Denkschritte aufeinander aufbauen
Daten im Spiel sind (Berechnungen, Statistiken, Auswertungen)
Das Ergebnis Konsequenzen hat – Budget, Entscheidung, Veröffentlichung
Du das Ergebnis nicht in einem Schritt prüfen kannst
Die direkteste Prüffrage: Würdest du das Ergebnis ungeprüft an deine Chefin weiterleiten? Nein? Dann Salami.
FAQ: Gated Salami Prompting in der Praxis
Ist Gated Salami Prompting dasselbe wie „Schritt für Schritt denken" im Prompt?
Nein. „Denke Schritt für Schritt" ist eine Anweisung an das LLM – das LLM kontrolliert sich selbst innerhalb eines Prompts. Gated Salami bedeutet, dass du nach jedem Schritt prüfst. Der Unterschied: Beim ersten kontrolliert das LLM, beim zweiten du.
Dauert das nicht viel länger?
Am Anfang ja – weil du bewusster arbeitest. Aber wer einmal ein vollständiges Ergebnis auseinanderwickeln musste, weil ein Fehler in Schritt 2 das gesamte Endergebnis korrumpiert hat, rechnet anders. Die Zeit für ein Gate liegt bei Sekunden bis Minuten. Die Zeit für ein vollständiges Redo liegt deutlich höher.
Funktioniert das nur im Chat-Interface oder auch mit API-Calls?
Das Prinzip funktioniert überall. Aber es ist explizit für das Chat-Interface ohne Coding-Hintergrund gedacht – dort, wo du der einzige bist, der zwischen den Schritten steht. Mit API-Calls kannst du Gates auch automatisieren, aber das ist dann Prompt Chaining mit menschlicher Gate-Logik.
Gibt es Aufgaben, für die Gated Salami besonders gut passt?
Ja: qualitative Analyse (Interviews, Usability-Tests), statistische Auswertungen, Kalkulationen, Konzeptarbeit mit mehreren Abhängigkeiten. Kurz: alles, wo Fehler sich kaskadieren können und du es erst am Ende merkst.
Wie kleinschnittig sollte ich werden?
So klein, dass du das Ergebnis tatsächlich prüfen kannst – nicht so klein, dass du den Überblick verlierst. Eine gute Scheibe hat eine klar prüfbare Ausgabe: eine Liste, eine Zahl, eine Einschätzung. Wenn du nicht weißt, was du an der Ausgabe prüfen würdest, ist die Scheibe zu groß oder zu vage.
Fazit: Das Gate bist du
Gated Salami Prompting ist kein Trick und kein Tool. Es ist ein Arbeitsprinzip.
Komplexe Aufgaben in prüfbare Scheiben schneiden. Nach jeder Scheibe innehalten. Prüfen, ob das Ergebnis stimmt. Erst dann weitergehen.
Was dabei verloren geht: die Illusion, dass ein einziger, gut formulierter Prompt reicht. Was gewonnen wird: Kontrolle über den Prozess – und Ergebnisse, hinter denen du stehen kannst.
In meiner Beratungsarbeit ist das inzwischen Standard. Nicht weil es schneller ist. Sondern weil es verlässlicher ist. Und weil die Alternative – überzeugende Ergebnisse, die auf stillen Fehlern aufbauen – in der UX-Research-Praxis keine Option ist.
Dieser Blogartikel selbst ist übrigens in Gated Salami entstanden. Erst Themenexploration. Dann Recherche. Dann Struktur. Dann Formulierung. An jeder Stelle eine Prüfung, bevor es weiterging.
Manchmal ist die beste Methode ihr eigener Beweis.
Über die Autorin
Tara Bosenick ist UX-Beraterin und Co-Inhaberin von Uintent. Seit 1999 begleitet sie Unternehmen dabei, ihre Produkte nutzerfreundlicher zu gestalten – mit fundierten Research-Methoden und einem klaren Blick für das Wesentliche. Als Speakerin auf Kongressen wie Mensch & Computer und dem World Usability Congress teilt sie ihr Wissen über UX und AI. In ihren Workshops zu UX-AI-Prompting und AI-Integration steckt, was gute UX ausmacht: klarer Nutzen, direkte Anwendbarkeit – und Spaß am Prozess.
💌 Noch nicht genug? Dann lies weiter – in unserem Newsletter.
Kommt viermal im Jahr. Bleibt länger im Kopf. https://www.uintent.com/de/newsletter
VERWANDTE ARTIKEL DIE SIE INTERESSIEREN KÖNNTEN
Tara Bosenick
Tara ist seit 1999 als UX-Spezialistin tätig und hat die Branche in Deutschland auf Agenturseite mit aufgebaut und geprägt. Sie ist spezialisiert auf die Entwicklung neuer UX-Methoden, die Quantifizierung von UX und die Einführung von UX in Unternehmen.
Gleichzeitig war sie immer daran interessiert, in ihren Unternehmen eine möglichst „coole“ Unternehmenskultur zu entwickeln, in der Spaß, Leistung, Teamgeist und Kundenerfolg miteinander verknüpft sind. Seit mehreren Jahren unterstützt sie daher Führungskräfte und Unternehmen auf dem Weg zu mehr New Work / Agilität und einem besseren Mitarbeitererlebnis.
Sie ist eine der führenden Stimmen in der UX-, CX- und Employee Experience-Branche.




















