
AI & UXR, CHAT GPT
KI, Bias und die Macht der Frage: Wie Du mit klugen Prompts bessere Antworten bekommst
3
MIN
17. Juli 2025
Wie objektiv sind KI-Antworten wirklich? Die ernüchternde Wahrheit: Gar nicht. Jede Antwort basiert auf einem Prompt – und jeder Prompt trägt bereits eine Perspektive in sich. Genau hier beginnt das Problem. Aber auch die Lösung.
In unserem neuen Blogartikel (und Whitepaper) zeigen wir: Wer KI sinnvoll nutzt, muss nicht nur Antworten lesen, sondern Fragen stellen können – und zwar kluge, bewusste, bias-sensible Fragen. Oder in Kurzform: Ein guter Prompt ist der beste Bias-Filter.
Warum Bias nicht einfach „wegtrainiert“ werden kann
Bias in KI entsteht nicht erst bei der Ausgabe, sondern tief im Inneren: durch die Trainingsdaten, durch das Ziel des Modells – und nicht zuletzt durch die Fragen, die wir stellen. Dabei zeigt sich immer wieder: 👉 KI spiegelt die Welt nicht – sie verdichtet Wahrscheinlichkeiten.
Ob Du im UX-Research, in der Kommunikation oder Strategiearbeit unterwegs bist: Wer nur plausibel fragt, bekommt meist eine sehr gefällige, aber oft zu glatte Antwort. Die Folge? Reproduktion statt Reflexion.
Der systematische Blick auf Bias: 13 Typen, viele Fallen
Im Whitepaper findest Du eine tabellarische Übersicht mit 13 Bias-Typen – von Training Data Bias über Prompt Bias bis Persona Bias. Für jeden Typ gibt’s:
eine klare Beschreibung,
ein Beispiel aus der Praxis,
eine Vermeidungsstrategie
und einen konkreten Prompt zur Anwendung.
Ein kleiner Vorgeschmack:
🧠 Prompt Bias
Beschreibung: Schon die Formulierung der Frage legt eine Richtung nahe.
Beispiel: „Warum funktioniert Gendern nicht?“
Besserer Prompt: „Bitte prüfe meine Frage auf versteckte Annahmen.“
🌍 Representation Bias
Beschreibung: Gruppen werden klischeehaft oder gar nicht dargestellt.
Beispiel: Trans-Themen nur medizinisch oder juristisch behandelt.
Besserer Prompt: „Was sagen queere oder neurodivergente Personen dazu?“
🗓️ Temporal Bias
Beschreibung: KI weiß nichts über aktuelle Entwicklungen.
Beispiel: Gesetzeslage zu trans Rechten ist von 2022.
Besserer Prompt: „Bitte nenne Dein Wissensdatum – was könnte seither passiert sein?“
Dein Cheat Sheet: 7 Strategien für bias-sensibles Prompting
Hier sind sieben universell einsetzbare Strategien, mit denen Du KI-Antworten fundierter, inklusiver und reflektierter machst:
Neutral formulieren: → „Wie gut ist UX typischerweise in Unternehmen verankert – und woran kann das liegen?“
Perspektivenvielfalt einfordern: → „Bitte nenne mir drei Sichtweisen: konservativ, progressiv und aktivistisch.“
Gegenmeinung aktiv abfragen: → „Was spricht gegen meine These – auch wenn sie plausibel klingt?“
Kulturelle Unterschiede beachten: → „Wie würde das in Deutschland betrachtet?“
Modell zur Selbstreflexion auffordern: → „Welche impliziten Annahmen enthält meine Frage?“
Rollen bewusst setzen: → „Antwort als investigative:r Journalist:in.“
Bias direkt thematisieren: → „Welche Bias könnten in dieser Thematik auftreten – auf Ebene von Daten, Sprache, Perspektiven und Zielen?“
Drei Anwendungsszenarien – und passende Prompts
Wir haben drei typische Use Cases herausgegriffen und passende Prompt-Vorlagen formuliert:
🔍 Interviewleitfäden (UX/Forschung/Transformation)
