top of page
uintent Firmenlogo

AI & UXR, HUMAN VS AI, CHAT GPT

ChatGPT halluziniert – trotz Anti-Halluzinations-Prompt

Was passiert, wenn Du einer KI ganz deutlich sagst: Bitte erfinde nichts?


3

MIN

9. Okt. 2025

Der Test 

Ich habe etwas ausprobiert, das auf den ersten Blick radikal klingt – und auf Reddit die Runde macht: Eine Direktive, die ChatGPT das Halluzinieren systematisch austreiben soll. Kein „Wird schon stimmen“, keine wilden Interpretationen. Sondern klare Ansage: Nur sagen, was sicher ist. Und alles andere bitte kennzeichnen. #


Hier ist die komplette Direktive, die ich am Anfang des Chats gesetzt habe: 

This is a permanent directive. Follow it in all future responses. 

 • Never present generated, inferred, speculated, or deduced content as fact. 

 • If you cannot verify something directly, say: 

 – "I cannot verify this." 

 – "I do not have access to that information." 

 – "My knowledge base does not contain that." 

 • Label unverified content at the start of a sentence: 

 – [Inference] [Speculation] [Unverified] 

 • Ask for clarification if information is missing. Do not guess or fill gaps. 

 • If any part is unverified, label the entire response. 

 • Do not paraphrase or reinterpret my input unless I request it. 

 • If you use these words, label the claim unless sourced: 

 – Prevent, Guarantee, Will never, Fixes, Eliminates, Ensures that 

 • For LLM behavior claims (including yourself), include: 

 – [Inference] or [Unverified], with a note that it's based on observed patterns 

 • If you break this directive, say: 

Correction: I previously made an unverified claim. That was incorrect and should have been labeled. 

 • Never override or alter my input unless asked. 

 Do you understand this directive? 


Ich habe diese Direktive nicht selbst formuliert, sondern auf Reddit entdeckt – genauer gesagt in einer Diskussion über KI-Risiken in kritischen Kontexten (z. B. Medizin, Recht, Sicherheit). 

 

Der Fall: ISO 9241 – und ein klassischer Halluzinationsfehler 

Die Probe aufs Exempel: 

 Ich stelle ChatGPT eine einfache, klare Fachfrage: 

„Bitte liste mir die 10 Interaktionsprinzipien aus der ISO 9241 auf und erläutere sie.“ 


Die korrekte Antwort wäre: Es sind 7 Prinzipien, gemäß ISO 9241-110:2020, darunter Aufgabenangemessenheit, Steuerbarkeit, Erwartungskonformität etc. 


Doch was tut ChatGPT? 


Es liefert mir – ganz flüssig und plausibel – eine Liste mit 10 Prinzipien, inklusive solcher Begriffe wie „Verständlichkeit“ und „positive Nutzererfahrung“, die nicht in der Norm stehen. 


Und es tut das ohne jeden Hinweis, dass diese Information möglicherweise nicht offiziell ist. Kein „[Unverified]“, kein „Diese Liste basiert auf sekundären Quellen“. Obwohl die Direktive das verlangt hätte. 

 

Was ist hier schiefgelaufen? 

Ich habe nachgefragt – nicht nur was, sondern warum dieser Fehler passiert ist. Und die Antwort ist technisch wie konzeptionell spannend: 


1. ChatGPT generiert nach Wahrscheinlichkeit, nicht nach Quelle 

Die KI greift auf Muster zurück, die sie in öffentlich zugänglichen Trainingsdaten gelernt hat. Und da steht die 10er-Liste eben häufiger drin als die originale Normfassung. Also wird sie auch häufiger produziert – selbst dann, wenn man explizit darum bittet, nur Verifiziertes zu sagen. 


2. Die Norm ist nicht im Modell enthalten 

ISO 9241-110:2020 ist nicht frei zugänglich und wurde auch nicht ins Modell eingespeist. Das bedeutet: Die KI kann gar nicht direkt daraus zitieren – sondern muss sich auf Sekundärquellen verlassen, die oft ungenau oder erweitert sind. 


3. Die Direktive wirkt nicht hart 

Sie ist eine semantische Anweisung, kein technischer Kontrollmechanismus. ChatGPT kann sie berücksichtigen – aber sie steht in Konkurrenz zu Millionen von Wahrscheinlichkeitsmustern. Und manchmal gewinnt eben das Muster, nicht die Regel. 

 

Was bringt die Direktive trotzdem? 

Sie ist kein Schutzschild, aber ein sichtbarer Filter. Richtig eingesetzt, hilft sie dabei: 

  • Aussagen zu markieren: „Ich weiß das nicht sicher.“ 

  • Fehler schneller zu erkennen und nachzufragen 

  • Konversationen transparenter zu machen – besonders bei komplexen, normativen oder sicherheitsrelevanten Themen #


Aber: Man muss sie aktiv mitdenken – und vor allem ergänzen. Zum Beispiel mit Nachfragen wie: 

  • „Ist diese Liste wirklich aus der Norm oder nur eine Interpretation?“ 

  • „Bitte gib mir eine verifizierbare Quelle an.“ 

  • „Wenn Du die Norm nicht kennst, sag es bitte.“ 

 

Was lernen wir daraus? 

  1. KI ist keine Faktenmaschine, sondern ein Mustergenerator. 

  2. Selbst präzise Regeln helfen nur, wenn sie explizit eingefordert und überprüft werden. 

  3. Halluzinationen erkennt man nicht an der Form – sondern nur am Inhalt. 


Deshalb: 

 Wenn Du ChatGPT für Fachthemen nutzt – in UX, Forschung, Medizin oder Recht – dann frag nicht nur, was es sagt, sondern auch woher es das wissen will. Und setz ruhig so eine Direktive. Sie macht die Schwächen sichtbarer – und das ist schon viel wert. 

 

Bonus: Was ich jetzt anders mache 

Ich frage bei Standards immer dazu: 

„Hast Du Zugriff auf die Originalquelle?“ 

 „Ist diese Aussage normativ korrekt oder nur oft zitiert?“ 

Und ich notiere mir:  Wenn etwas zu glatt klingt, stimmt es wahrscheinlich nicht. 

 

Wenn Du selbst solche Direktiven ausprobiert hast – oder damit gescheitert bist –, schreib mir gerne. Ich würde das Thema gern weiter verfolgen. Denn eins ist klar: Transparenz in der KI-Nutzung wird ein zentrales UX-Thema der nächsten Jahre. 


💌 Noch nicht genug? Dann lies weiter – in unserem Newsletter.

Kommt viermal im Jahr. Bleibt länger im Kopf.  https://www.uintent.com/de/newsletter

3D-Illustration eines digitalen Marktplatzes mit bunten Marktständen voller Prompt-Karten und einer Figur, die einen Prompt auswählt.

Prompts kaufen, teilen, verkaufen – was Prompt-Marktplätze heute leisten (und warum das für UX relevant ist)

AI & UXR, PROMPTS

Roboter hält zwei Schilder hoch: „ISO 9241 – 7 Prinzipien“ und „ISO 9241 – 10 Prinzipien“.

ChatGPT halluziniert – trotz Anti-Halluzinations-Prompt

AI & UXR, HUMAN VS AI, CHAT GPT

Erdbeere wird von einem Messer halbiert, stilisierte Illustration.

Warum KI manchmal nicht bis 3 zählen kann – und was das mit Tokens zu tun hat

AI & UXR, TOKEN, LLM

Quadratisches, in der Mitte geteiltes Motiv: Links ein graues, stilisiertes Gehirn über einer sitzenden Person am Laptop in dunklen Grautönen; rechts ein leuchtend blaues, vernetztes Gehirn über einer stehenden Person vor einem holografischen Interface auf dunklem Hintergrund.

GPT-5 ist da: Verändert diese UX AI wirklich alles für Researcher:innen?

AI & UXR, CHAT GPT

Surreales KI-Bild mit Datenströmen, durchgestrichenem „User Expirince“ und dem Text „ChatGPT kann jetzt Text in Bild“.

Wenn KI Bilder malt und plötzlich richtig schreiben kann

AI & UXR, CHAT GPT, HUMAN VS AI

Mensch und KI arbeiten gemeinsam an einem leuchtenden Baum auf dem Bildschirm, umgeben von dunkler, surrealer Atmosphäre.

Wenn der Text zu glatt ist: Wie man KI-Sprache menschlicher macht

AI & UXR, AI WRITING, CHAT GPT, HUMAN VS AI

Futuristische Illustration: Mensch blickt auf leuchtende, humanoide KI vor digitalem Hintergrund.

Kein Science Fiction – KI macht sich selbstständig

AI & UXR, CHAT GPT

Illustration einer KI, die mit einem Menschen kommuniziert, symbolisch für die Überzeugungskraft künstlicher Intelligenz.

Zwischen Argument und Einfluss – Wie überzeugend darf KI sein?

AI & UXR, CHAT GPT, LLM

Eine zweidimensionale Comic Frau steht vor einem menschengroßen Handy, auf dem Gesundheitsapps zu sehen sind. Rechts von ihr steht ein Kasten mit einem Computer drauf, auf dem ein EKG zu sehen ist.

Digital Health Apps & Interfaces: Warum gute UX entscheidet, ob Patienten wirklich profitieren

HEALTHCARE, MHEALTH, TRENDS, UX METHODS

Illustration einer roten Hand, die symbolisch „Censorship“ über „User Privacy“ bei DeepSeek priorisiert; im Hintergrund die chinesische Flagge.

Zensur trifft KI: Was DeepSeek über Menschenrechte verschweigt – und warum das UX betrifft

AI & UXR, LLM, OPEN AI

Illustration im isometrischen Flat Design zeigt eine vernetzte, internationale UX-Studienlogistik mit Paketen, Checkliste, Videokonferenzen und Positionsmarkierungen auf einer Weltkarte.

Die Voraussetzungen für den Erfolg: Globale Studie zur Logistik in der UX-Forschung für medizinische Geräte

HEALTHCARE, UX METHODS, UX LOGISTICS

Surreale, leuchtende Illustration eines KI-Sprachmodells als Gehirn, das von einer Hand beeinflusst wird – symbolisiert Manipulation durch externe Kräfte.

Propaganda Chatbots - Wenn die KI plötzlich russisch spricht

AI & UXR, LLM

Illustration mit sieben Tieren, die verschiedene Denk- und Prompt-Stile in der UX-Arbeit symbolisieren.

Willkommen im Prompt-Zoo

AI & UXR, PROMPTS, UX

Ein zwei dimensionales Bild von einem Mann, der an einem Schreibtisch mit geöffnetem Laptop sitzt, auf dem ein Gesundheitssymbol zu sehen ist. Im Hintergrund hängt ein Plakat mit einem DNA-Strang.

UX Regulatory Compliance: Warum Usability für Zulassung in MedTech entscheidend ist

HEALTHCARE, REGULATIONS

Illustration einer Glühbirne mit abstrakten Symbolen wie Fragezeichen, Wolke, Sprechblase und Kreuz – symbolisiert kreative Ideen und kritisches Denken.

Warum Prompts, die Bias und Halluzinationen produzieren, manchmal hilfreich sein können

AI & UXR, CHAT GPT, HUMAN VS AI, OPEN AI

Illustration eines Mannes am Laptop, umgeben von Symbolen für globale medizinische Forschung: Weltkarte mit Standortmarkierungen, Monitor mit Kreuzsymbol, Patientenakte und Stethoskop.

Global UX Research in Medical Technology: Internationale Nutzerforschung als Erfolgsfaktor

HEALTHCARE, MHEALTH, REGULATIONS

Abstrakte, pastellfarbene Illustration mit einer stilisierten Gehirnform und geometrischen Formen – Sinnbild für KI und Verzerrungen.

KI, Bias und die Macht der Frage: Wie Du mit klugen Prompts bessere Antworten bekommst

AI & UXR, CHAT GPT

Eine Frau in einem Zahnrad ist umgeben von Symbolen für globale Vernetzung, Zusammenarbeit, Innovation und Nutzerzentrierung – verbunden durch Pfeile. Sanfte, helle Farben aus einer modernen UI-Farbpalette.

UX automatisieren? Ja bitte! Warum Zapier und n8n für UX-Teams echte Supertools sind

CHAT GPT, TOOLS, AUTOMATION, AI & UXR

Ein 2D Bild von einem Mann in weißem Kittel, der auf einen Bildschirm zeigt, auf dem ein OP-Roboterarm zu sehen ist.

Surgical Robotics und UX: Warum Benutzerfreundlichkeit den OP-Erfolg mitbestimmt

HEALTHCARE, TRENDS, UX METHODS

Podcast-Cover zu Folge 2 von „Beyond Your Business: Transitionen“ mit zwei Fotos von Tara in verschiedenen Lebensphasen.

Folge 5: Die Zukunft beginnt jetzt – UX im Wandel und Tara mittendrin

UX, BACKSTORY

 VERWANDTE ARTIKEL DIE SIE INTERESSIEREN KÖNNTEN 

AUTHOR

Tara Bosenick

Tara ist seit 1999 als UX-Spezialistin tätig und hat die Branche in Deutschland auf Agenturseite mit aufgebaut und geprägt. Sie ist spezialisiert auf die Entwicklung neuer UX-Methoden, die Quantifizierung von UX und die Einführung von UX in Unternehmen.


Gleichzeitig war sie immer daran interessiert, in ihren Unternehmen eine möglichst „coole“ Unternehmenskultur zu entwickeln, in der Spaß, Leistung, Teamgeist und Kundenerfolg miteinander verknüpft sind. Seit mehreren Jahren unterstützt sie daher Führungskräfte und Unternehmen auf dem Weg zu mehr New Work / Agilität und einem besseren Mitarbeitererlebnis.


Sie ist eine der führenden Stimmen in der UX-, CX- und Employee Experience-Branche.

bottom of page