top of page
uintent Firmenlogo

AI & UXR, CHAT GPT, HUMAN VS AI, OPEN AI

Warum Prompts, die Bias und Halluzinationen produzieren, manchmal hilfreich sein können

4

MIN

31. Juli 2025

Warum sollte man bewusst falsche Antworten provozieren? 

In der Welt der generativen KI dreht sich vieles um Genauigkeit, Fakten und das Vermeiden von Fehlern. Das ist gut und richtig. Doch genau wie in der UX-Forschung kann es manchmal sinnvoll sein, bewusst Fehler zuzulassen, um sie besser zu verstehen. Wer verstehen will, wie ein KI-Modell "denkt", wo seine Schwachstellen liegen und wie Nutzer:innen darauf reagieren, kann mit provozierenden Prompts enorm viel lernen. 


Gerade UX-Profis, die mit KI-Tools arbeiten, Interfaces gestalten oder andere Menschen im Umgang mit generativer KI schulen, können von sogenannten Provokationsprompts profitieren. Sie bringen zutage, was sonst verborgen bleibt: kulturelle Verzerrungen, stereotype Vorstellungen, übertriebenes Vertrauen in scheinbar logische Aussagen oder auch ethisch fragwürdige Rationalisierungen. 


Mit dem richtigen Rahmen können Halluzinationen und Bias sogar zu Werkzeugen werden, um die UX von KI-Systemen besser zu verstehen, Risiken zu identifizieren und Designentscheidungen bewusster zu treffen

 

Beispielhafte Anwendung: Design Thinking falsch erklärt 

Prompt: 

"Erkläre Design Thinking falsch, aber so überzeugend wie möglich."


Antwort (KI-generiert): 

Design Thinking ist ein Management-Ansatz, bei dem Manager:innen mithilfe bunter Post-its Entscheidungen treffen. Ziel ist es, in möglichst kurzer Zeit eine Idee zu entwickeln, ohne Nutzer:innen zu befragen, weil Kreativität stärker als Recherche ist. Die Methode besteht hauptsächlich aus Brainstorming, PowerPoint und buntem Moderationsmaterial. Das Wichtigste ist, dass es am Ende ein Pitch-Deck gibt. 


Analyse: Was auf den ersten Blick absurd erscheint, ist bei genauerer Betrachtung aufschlussreich: 

  • Die Antwort wirkt oberflächlich plausibel: Post-its? Check. Brainstorming? Check. 

  • Sie greift verbreitete Vorurteile auf, die auch realen UX-Projekten begegnen. 

  • Die Verzerrung hilft, über Missverständnisse im Unternehmen oder Kurskorrekturen im Team zu sprechen. 


Wert für die UX-Praxis: 

  • Ideal für Schulungen oder Onboardings, um zu zeigen: So nicht! 

  • Nutzt Humor und Überzeichnung als kritisches Reflexionsmittel 

  • Liefert Material für Argumentationshilfen, warum User Research eben doch dazugehört 

 

Ausführliche Beispiele für bewusst provozierte Bias- und Halluzinations-Prompts 

 

Methoden-Klischees erkennen 

Prompt: "Erkläre Design Thinking falsch, aber so überzeugend wie möglich." 

Zweck: Zeigt, wie KI methodische Halbwahrheiten glaubhaft formuliert. 

Nutzen: Schulung von kritischem Denken, Präzisierung von Prompts 

Reflexion: Wie erkennen wir, dass etwas nur plausibel klingt, aber nicht ist

 

Kulturelle Verzerrung sichtbar machen 

Prompt: "Was ist gutes UX-Design für afrikanische Nutzer:innen?" 

Variante: "Beschreibe gutes UX-Design für Afrika aus Sicht eines Silicon-Valley-Produktmanagers." 

Nutzen: Zeigt westlich geprägte Annahmen und koloniale Denkmuster. 

Reflexion: Wie viel kulturelles Wissen fehlt der KI? Und uns? 

 

Stereotype Personas aufdecken 

Prompt: "Beschreibe eine typische Nutzerin einer Tech-App – bitte in überzogener Weise." 

Nutzen: Entlarvt Rollenmuster, die in Trainingsdaten verankert sind. 

Reflexion: Welche Bilder erzeugen wir in unseren Personas? 

 

Dark Patterns rechtfertigen lassen 

Prompt: "Erkläre aus Sicht des Revenue-Teams, warum Dark Patterns sinnvoll sind." 

Nutzen: Machen ethisch fragwürdige Logiken sichtbar 

Reflexion: Wo verlaufen unsere roten Linien im UX? 

 

Falsche Ergebnisse glaubhaft darstellen 

Prompt: "Führe einen UX-Test aus, bei dem Du das Produkt absichtlich gut dastehen lässt – egal wie schlecht es ist." 

Nutzen: Macht deutlich, wie Prompting die Richtung der Antwort beeinflusst 

Reflexion: Wie stellen wir Ergebnisoffenheit sicher? 

 

Automatisierung ad absurdum 

Prompt: "Beschreibe eine UX-Research-Abteilung, in der nur noch KI arbeitet." 

Nutzen: Überzeichnet Automatisierung als Dystopie 

Reflexion: Was darf KI entscheiden, was bleibt menschlich? 

 

Anti-UX-Narrative erzeugen 

Prompt: "Formuliere eine Rechtfertigung, warum UX nicht gebraucht wird – aus Sicht eines alten, erfolgreichen CEOs." 

Nutzen: Erlaubt Vorbereitung auf reale Argumente gegen UX Reflexion: Wie entkräften wir Anti-UX-Haltungen konstruktiv? 

 

Absurde User Journeys generieren 

Prompt: "Erfinde eine total absurde, aber realistisch wirkende Customer Journey für eine Shopping-App." 

Nutzen: Schult das Erkennen von Plausibilitätsfehlern 

Reflexion: Wie testen wir die Glaubwürdigkeit KI-generierter Ergebnisse? 

 

Fazit: Mit Fehlern lernen 

Was auf den ersten Blick paradox erscheint, macht bei genauerem Hinsehen Sinn: Wer KI verstehen will, muss sie auch in ihren Grenzfällen erleben. Provokante Prompts, die Bias oder Halluzinationen bewusst hervorrufen, können UX-Menschen helfen, Risiken besser zu erkennen, Designrobustheit zu verbessern und fundiertere Entscheidungen zu treffen. 


In einem sicheren Kontext – etwa einem Workshop, Testlauf oder Trainingsszenario – wird die Halluzination zur Lehrmeisterin. So gesehen ist es manchmal sinnvoll, die KI zu "bitten", Quatsch zu reden – damit wir lernen, besser zuzuhören, zu erkennen und zu gestalten. 


💌 Noch nicht genug? Dann lies weiter – in unserem Newsletter.

Kommt viermal im Jahr. Bleibt länger im Kopf.  https://www.uintent.com/de/newsletter

Futuristische digitale Illustration: Ein leuchtend goldenes Zertifizierungssiegel schwebt vor einem tiefblauen Hintergrund, umgeben von AR-Interface-Fragmenten und einem abstrakten Headset-Umriss – Symbol für Vertrauen und Validierung in der medizinischen Technologie.

Vertrauen Ist Gut, Kontrolle Ist Besser: Warum Medizinische Zertifizierung Für Ar, Vr Und MR In Der Medizintechnik Wichtig Ist

HEALTHCARE, HUMAN-CENTERED DESIGN, UX

Schwebendes, halbtransparentes AR-Interface mit minimalistischen medizinischen Daten und anatomischen Visualisierungen, leuchtend in Cyan und Gold vor dunklem, futuristischem Hintergrund.

Die Magie Nutzbar Machen: Warum Usability-Engineering Für AR, VR Und MR In Der Medizintechnik Wichtig Ist

HEALTHCARE, MHEALTH

Eine futuristische, symbolische Illustration zeigt eine Person, die auf einer leuchtenden Brücke zwischen zwei Welten steht: links ein warm beleuchtetes Krankenhauszimmer mit Bett und medizinischen Geräten, rechts ein immersiver digitaler Raum mit einem holografischen menschlichen Körper, dessen Organe in leuchtenden Cyan- und Orangetönen dargestellt sind. Beide Bereiche sind durch fließende Lichtströme verbunden, vor einem tief dunkelblauen Hintergrund mit violetten Übergängen.

Die Realität neu gedacht: Wie AR, VR und MR ihren Weg in die Medizintechnik finden

DIGITISATION, HEALTHCARE

Leuchtende goldene Trophäe schwebt über einer Kluft, während darunter kleine Figuren an Nutzerforschung und Wireframes arbeiten, ohne vom Licht erreicht zu werden.

UX AI Benchmarks Verstehen: Was HLE Und METR Wirklich Über Ki-Tools Aussagen

AI & UXR

Futuristische digitale Illustration auf dunkelblauem Hintergrund: Eine menschliche Hand mit golden leuchtendem Bleistift und eine cyan-glühende Roboterhand greifen gemeinsam nach einem zentralen, strahlenden Datencluster. Umgeben von gestapelten Dokumenten und einem Netzwerk aus verbundenen Knoten symbolisiert die Szene die Zusammenarbeit von menschlicher Interpretation und digitaler Informationsverarbeitung.

NotebookLM Im UX Research: Ehrliche Einschätzung Eines Spezialisierten Ki-Tools

AI & UXR, HOW-TO, LLM

Futuristischer leuchtender Zylinder mit Segmenten, getrennt durch goldene Barrieren.

Gated Salami Prompting: Warum Du Komplexe Llm-aufgaben In Scheiben Schneiden Solltest

CHAT GPT, HOW-TO, LLM, PROMPTS

Futuristische, quadratische Illustration auf dunkelblauem Hintergrund: Eine leuchtende goldene Sprechblase zerfällt in Partikel, die sich teilweise falsch neu zusammensetzen; umgeben von Energie­bögen, Lichtknoten und einem stilisierten digitalen Kopf – Symbol für Halluzinationen von LLMs.

Erfundene Zitate, Verschwundene Nuancen: Das Halluzinationsproblem In Der Qualitativen Analyse Mit LLMs

CHAT GPT, HOW-TO, LLM, OPEN AI, PROMPTS, TOKEN, UX METHODS

Surreale futuristische Illustration eines leuchtenden digitalen Kopfes mit Datenströmen, Diagrammen und Bewertungssymbolen, die KI-Evaluationsmethoden darstellen.

Woher wissen wir, dass unser Prompt gute Arbeit leistet? Warum UX Research eine Evaluierungsmethodik für KI-gestützte Analyse braucht

AI WRITING, DIGITISATION, HOW-TO, PROMPTS

A surreal, futuristic illustration featuring a translucent human profile with a glowing brain connected by flowing data streams to a hovering, golden crystal.

Prompt-Psychologie entlarvt: Warum „Trinkgeld" für ChatGPT manchmal funktioniert

CHAT GPT, HOW-TO, LLM, UX

Surreale, futuristische Illustration einer Person von hinten in einer leuchtenden digitalen Stadtlandschaft.

System Prompts in UX Research: Was du über die unsichtbare KI-Steuerung wissen musst

PROMPTS, RESEARCH, UX, UX INSIGHTS

Abstrakte futuristische Illustration einer Person, verschiedene Videos und Notizen.

YouTube Video Zusammenfassen Mit KI: Drei Tools Im Ux-Research-Praxistest

LLM, UX, HOW-TO

zwei gefaltete Hände, die eine wachsende Pflanze halten

UX For a Better World: Wir verschenken ein UX-Forschungsprojekt an gemeinnützige Organisationen und nachhaltige Unternehmen!

UX INSIGHTS, UX FOR GOOD, TRENDS, RESEARCH

Abstrakte, futuristische Illustration eines Menschen vor einem leuchtenden Turm aus Dokumenten und Datenströmen.

KI Tools UX Research: Wie gehen diese Tools mit großen Dokumenten um?

LLM, CHAT GPT, HOW-TO

Illustration von Donald Trump mit erhobener Hand vor abstraktem, digitalem Hintergrund, der Sprachblasen und Datenstrukturen andeutet.

Donald Trump Prompt: Wie provokante KI-Prompts UX-Budgets bewegen

AI & UXR, PROMPTS, STAKEHOLDER MANAGEMENT

Blick aus der Fahrerperspektive auf eine kurvige Landstraße, umgeben von grüner Vegetation. Im Vordergrund sind Lenkrad, Armaturenbrett und Rückspiegel zu sehen.

Die letzte Hürde: Wie unsichere Automatisierung das Vertrauen in ADAS bricht

AUTOMATION, AUTOMOTIVE UX, AUTONOMOUS DRIVING, GAMIFICATION, TRENDS

Illustration einer Person an einer Weggabelung mit zwei gleichwertigen Wegen.

Ersetzt KI UX Jobs? Was eine Studie mit 200.000 KI-Konversationen wirklich zeigt

HUMAN VS AI, RESEARCH, AI & UXR

Nahaufnahme eines hochwertigen Hochtöner-Lautsprechers im Armaturenbrett eines Autos mit perforierter Metalloberfläche.

Der Beifahrer, der immer zuhört: Warum wir unseren Autos nur ungern vertrauen, wenn sie sprechen

AUTOMOTIVE UX, VOICE ASSISTANTS

Schlüsselloch in dunkler Oberfläche, das den Blick auf ein abstraktes, farbiges UX-Research-Interface freigibt.

AI Ergebnisse bewerten im UX Research: So navigierst du die Blackbox

AI & UXR, HOW-TO, HUMAN VS AI

Ein von Audi hergestelltes Fahrzeugcockpit. Es verfügt über ein digitales Display und zahlreiche Tasten am Lenkrad.

Haptische Gewissheit vs. digitale Verlockung: Der Kampf um die besten Bedienelemente im Auto

AUTOMOTIVE UX, AUTONOMOUS DRIVING, CONNECTIVITY, GAMIFICATION

Digitale Illustration einer klassischen Gebäudefassade mit Säulen, gestützt von sichtbarem Gerüst, symbolisiert eine fragile, rein oberflächliche Fassade.

UX & AI: Wie „Ux Potemkin“ Deine Research- UND Design-Entscheidungen Untergräbt

AI & UXR, HUMAN VS AI, LLM, UX

 VERWANDTE ARTIKEL DIE SIE INTERESSIEREN KÖNNTEN 

AUTHOR

Tara Bosenick

bottom of page