top of page
uintent Firmenlogo

AI & UXR, CHAT GPT, LLM

RAGs gegen Halluzinationen – gut gedacht, aber nicht gut genug?

Warum Retrieval-Augmented Generation kein Allheilmittel für verlässliche KI-Antworten ist


2

MIN

20. Mai 2025

Einleitung 

In der Welt der Künstlichen Intelligenz (KI) sind Halluzinationen – also das Erfinden von plausibel klingenden, aber falschen Informationen – ein bekanntes Problem bei großen Sprachmodellen (LLMs). Retrieval-Augmented Generation (RAG) wurde als Lösung präsentiert, um dieses Problem zu minimieren, indem externe, verlässliche Datenquellen in die Antwortgenerierung einbezogen werden. Doch ist RAG wirklich das Allheilmittel gegen Halluzinationen? 

 

Was ist RAG überhaupt – und warum ist es relevant? 

RAG kombiniert ein LLM mit einem Informationsabrufsystem. Statt ausschließlich auf das im Modell gespeicherte Wissen zuzugreifen, durchsucht das System externe Datenbanken nach relevanten Informationen und nutzt diese, um präzisere Antworten zu generieren. Für UX-Profis bedeutet das: Die KI kann auf aktuelle und spezifische Informationen zugreifen, was besonders in dynamischen Anwendungsbereichen von Vorteil ist. 

 

Was RAGs richtig gut machen 

  • Integration aktueller Informationen: RAG ermöglicht es, auf aktuelle Daten zuzugreifen, die nach dem Training des LLMs entstanden sind. 

  • Reduktion von Halluzinationen bei Faktenfragen: Durch den Zugriff auf verlässliche Quellen können falsche Behauptungen reduziert werden. 

  • Transparenz durch Quellenangaben: Antworten können mit direkten Verweisen auf die genutzten Quellen versehen werden, was die Nachvollziehbarkeit erhöht. 

  • Anwendung in Unternehmen: Besonders in internen Wissenssystemen kann RAG helfen, spezifische Informationen effizient bereitzustellen. 

 

Aber: Warum RAGs oft überschätzt werden 

Trotz der Vorteile gibt es auch Herausforderungen: 

  • Qualität der abgerufenen Daten: Wenn das System irrelevante oder veraltete Informationen abruft, kann dies zu falschen Antworten führen. 

  • Fehlinterpretation durch das LLM: Selbst bei korrekten Daten kann das Modell diese missverstehen oder falsch gewichten. 

  • Technischer Aufwand: Die Implementierung und Wartung eines effektiven RAG-Systems erfordert erhebliche Ressourcen. 

  • Beispiel aus der Praxis: Eine Studie der Stanford University zeigte, dass spezialisierte juristische KI-Tools, die RAG nutzen, in 17–33 % der Fälle halluzinieren. VentureBeat+3reglab.stanford.edu+3Legal Dive+3 

 

Typische Missverständnisse rund um RAGs 

  • „Mit RAG halluziniert die KI nie“: Ein Trugschluss. RAG reduziert, aber eliminiert Halluzinationen nicht vollständig. 

  • „Externe Daten = wahre Antworten“: Die Qualität und Relevanz der Daten sind entscheidend. 

  • „RAG = bessere LLMs“: Ohne sorgfältige Implementierung und Überwachung kann RAG die Leistung sogar verschlechtern. 

 

Was ein gutes RAG-System leisten muss 

  • Hochwertige Datenquellen: Die genutzten Daten müssen aktuell, relevant und verlässlich sein. 

  • Effektive Suchalgorithmen: Das System muss in der Lage sein, die relevantesten Informationen effizient zu finden. Legal Tech Insights from Prevail 

  • Anpassung an den Kontext: Das LLM sollte die abgerufenen Daten korrekt interpretieren und in den richtigen Kontext setzen. 

  • Kontinuierliche Überwachung: Regelmäßige Überprüfungen und Anpassungen sind notwendig, um die Qualität zu gewährleisten. 

 

Fazit: RAG – ein Baustein, kein Wundermittel 

RAG bietet vielversprechende Ansätze zur Verbesserung der Antwortgenauigkeit von LLMs, ist jedoch kein Allheilmittel. Für UX-Profis bedeutet das: RAG kann ein wertvolles Werkzeug sein, sollte aber mit Bedacht und in Kombination mit anderen Methoden eingesetzt werden, um wirklich verlässliche und nutzerzentrierte KI-Anwendungen zu entwickeln. 

Futuristische, quadratische Illustration auf dunkelblauem Hintergrund: Eine leuchtende goldene Sprechblase zerfällt in Partikel, die sich teilweise falsch neu zusammensetzen; umgeben von Energie­bögen, Lichtknoten und einem stilisierten digitalen Kopf – Symbol für Halluzinationen von LLMs.

Erfundene Zitate, Verschwundene Nuancen: Das Halluzinationsproblem In Der Qualitativen Analyse Mit LLMs

CHAT GPT, HOW-TO, LLM, OPEN AI, PROMPTS, TOKEN, UX METHODS

Surreale futuristische Illustration eines leuchtenden digitalen Kopfes mit Datenströmen, Diagrammen und Bewertungssymbolen, die KI-Evaluationsmethoden darstellen.

Woher wissen wir, dass unser Prompt gute Arbeit leistet? Warum UX Research eine Evaluierungsmethodik für KI-gestützte Analyse braucht

AI WRITING, DIGITISATION, HOW-TO, PROMPTS

A surreal, futuristic illustration featuring a translucent human profile with a glowing brain connected by flowing data streams to a hovering, golden crystal.

Prompt-Psychologie entlarvt: Warum „Trinkgeld" für ChatGPT manchmal funktioniert

CHAT GPT, HOW-TO, LLM, UX

Surreale, futuristische Illustration einer Person von hinten in einer leuchtenden digitalen Stadtlandschaft.

System Prompts in UX Research: Was du über die unsichtbare KI-Steuerung wissen musst

PROMPTS, RESEARCH, UX, UX INSIGHTS

Abstrakte futuristische Illustration einer Person, verschiedene Videos und Notizen.

YouTube Video Zusammenfassen Mit KI: Drei Tools Im Ux-Research-Praxistest

LLM, UX, HOW-TO

zwei gefaltete Hände, die eine wachsende Pflanze halten

UX For a Better World: Wir verschenken ein UX-Forschungsprojekt an gemeinnützige Organisationen und nachhaltige Unternehmen!

UX INSIGHTS, UX FOR GOOD, TRENDS, RESEARCH

Abstrakte, futuristische Illustration eines Menschen vor einem leuchtenden Turm aus Dokumenten und Datenströmen.

KI Tools UX Research: Wie gehen diese Tools mit großen Dokumenten um?

LLM, CHAT GPT, HOW-TO

Illustration von Donald Trump mit erhobener Hand vor abstraktem, digitalem Hintergrund, der Sprachblasen und Datenstrukturen andeutet.

Donald Trump Prompt: Wie provokante KI-Prompts UX-Budgets bewegen

AI & UXR, PROMPTS, STAKEHOLDER MANAGEMENT

Blick aus der Fahrerperspektive auf eine kurvige Landstraße, umgeben von grüner Vegetation. Im Vordergrund sind Lenkrad, Armaturenbrett und Rückspiegel zu sehen.

Die letzte Hürde: Wie unsichere Automatisierung das Vertrauen in ADAS bricht

AUTOMATION, AUTOMOTIVE UX, AUTONOMOUS DRIVING, GAMIFICATION, TRENDS

Illustration einer Person an einer Weggabelung mit zwei gleichwertigen Wegen.

Ersetzt KI UX Jobs? Was eine Studie mit 200.000 KI-Konversationen wirklich zeigt

HUMAN VS AI, RESEARCH, AI & UXR

Nahaufnahme eines hochwertigen Hochtöner-Lautsprechers im Armaturenbrett eines Autos mit perforierter Metalloberfläche.

Der Beifahrer, der immer zuhört: Warum wir unseren Autos nur ungern vertrauen, wenn sie sprechen

AUTOMOTIVE UX, VOICE ASSISTANTS

Schlüsselloch in dunkler Oberfläche, das den Blick auf ein abstraktes, farbiges UX-Research-Interface freigibt.

AI Ergebnisse bewerten im UX Research: So navigierst du die Blackbox

AI & UXR, HOW-TO, HUMAN VS AI

Ein von Audi hergestelltes Fahrzeugcockpit. Es verfügt über ein digitales Display und zahlreiche Tasten am Lenkrad.

Haptische Gewissheit vs. digitale Verlockung: Der Kampf um die besten Bedienelemente im Auto

AUTOMOTIVE UX, AUTONOMOUS DRIVING, CONNECTIVITY, GAMIFICATION

Digitale Illustration einer klassischen Gebäudefassade mit Säulen, gestützt von sichtbarem Gerüst, symbolisiert eine fragile, rein oberflächliche Fassade.

UX & AI: Wie „Ux Potemkin“ Deine Research- UND Design-Entscheidungen Untergräbt

AI & UXR, HUMAN VS AI, LLM, UX

Silhouette eines Tauchers, der ruhig in tiefblaues Wasser hinabtaucht – Symbol für tiefgehende Recherche.

Deep Research KI | So nutzt Du ChatGPT sinnvoll für UX-Arbeit

CHAT GPT, HOW-TO, RESEARCH, AI & UXR

Ein:e Schiedsrichter:in hält eine Bewertungstafel mit der Aufschrift „Yupp.ai“ zwischen zwei stilisierten KI-Chatbots in einem Boxring hoch – Symbolbild für den fairen Vergleich von KI-Modellen durch Nutzer:innen.

Wie Yupp Feedback nutzt, um KI-Modelle fair zu bewerten – und was UX-Profis daraus lernen können

AI & UXR, CHAT GPT, HUMAN VS AI, LLM

Auf einem kleinen Tisch liegt ein braunes Buch mit dem Titel „Don't Make Me Think“ von Steve Krug. Licht scheint durch das Fenster.

Warum UX Research seine Glaubwürdigkeit verliert und wie wir sie zurückgewinnen

UX, UX QUALITY, UX METHODS

3D-Illustration eines digitalen Marktplatzes mit bunten Marktständen voller Prompt-Karten und einer Figur, die einen Prompt auswählt.

Prompts kaufen, teilen, verkaufen – was Prompt-Marktplätze heute leisten (und warum das für UX relevant ist)

AI & UXR, PROMPTS

Roboter hält zwei Schilder hoch: „ISO 9241 – 7 Prinzipien“ und „ISO 9241 – 10 Prinzipien“.

ChatGPT halluziniert – trotz Anti-Halluzinations-Prompt

AI & UXR, HUMAN VS AI, CHAT GPT

Erdbeere wird von einem Messer halbiert, stilisierte Illustration.

Warum KI manchmal nicht bis 3 zählen kann – und was das mit Tokens zu tun hat

AI & UXR, TOKEN, LLM

 VERWANDTE ARTIKEL DIE SIE INTERESSIEREN KÖNNTEN 

AUTHOR

Tara Bosenick

Tara ist seit 1999 als UX-Spezialistin tätig und hat die Branche in Deutschland auf Agenturseite mit aufgebaut und geprägt. Sie ist spezialisiert auf die Entwicklung neuer UX-Methoden, die Quantifizierung von UX und die Einführung von UX in Unternehmen.


Gleichzeitig war sie immer daran interessiert, in ihren Unternehmen eine möglichst „coole“ Unternehmenskultur zu entwickeln, in der Spaß, Leistung, Teamgeist und Kundenerfolg miteinander verknüpft sind. Seit mehreren Jahren unterstützt sie daher Führungskräfte und Unternehmen auf dem Weg zu mehr New Work / Agilität und einem besseren Mitarbeitererlebnis.


Sie ist eine der führenden Stimmen in der UX-, CX- und Employee Experience-Branche.

bottom of page