top of page
uintent Firmenlogo

AI & UXR, CHAT GPT, LLM

RAGs gegen Halluzinationen – gut gedacht, aber nicht gut genug?

Warum Retrieval-Augmented Generation kein Allheilmittel für verlässliche KI-Antworten ist


2

MIN

20. Mai 2025

Einleitung 

In der Welt der Künstlichen Intelligenz (KI) sind Halluzinationen – also das Erfinden von plausibel klingenden, aber falschen Informationen – ein bekanntes Problem bei großen Sprachmodellen (LLMs). Retrieval-Augmented Generation (RAG) wurde als Lösung präsentiert, um dieses Problem zu minimieren, indem externe, verlässliche Datenquellen in die Antwortgenerierung einbezogen werden. Doch ist RAG wirklich das Allheilmittel gegen Halluzinationen? 

 

Was ist RAG überhaupt – und warum ist es relevant? 

RAG kombiniert ein LLM mit einem Informationsabrufsystem. Statt ausschließlich auf das im Modell gespeicherte Wissen zuzugreifen, durchsucht das System externe Datenbanken nach relevanten Informationen und nutzt diese, um präzisere Antworten zu generieren. Für UX-Profis bedeutet das: Die KI kann auf aktuelle und spezifische Informationen zugreifen, was besonders in dynamischen Anwendungsbereichen von Vorteil ist. 

 

Was RAGs richtig gut machen 

  • Integration aktueller Informationen: RAG ermöglicht es, auf aktuelle Daten zuzugreifen, die nach dem Training des LLMs entstanden sind. 

  • Reduktion von Halluzinationen bei Faktenfragen: Durch den Zugriff auf verlässliche Quellen können falsche Behauptungen reduziert werden. 

  • Transparenz durch Quellenangaben: Antworten können mit direkten Verweisen auf die genutzten Quellen versehen werden, was die Nachvollziehbarkeit erhöht. 

  • Anwendung in Unternehmen: Besonders in internen Wissenssystemen kann RAG helfen, spezifische Informationen effizient bereitzustellen. 

 

Aber: Warum RAGs oft überschätzt werden 

Trotz der Vorteile gibt es auch Herausforderungen: 

  • Qualität der abgerufenen Daten: Wenn das System irrelevante oder veraltete Informationen abruft, kann dies zu falschen Antworten führen. 

  • Fehlinterpretation durch das LLM: Selbst bei korrekten Daten kann das Modell diese missverstehen oder falsch gewichten. 

  • Technischer Aufwand: Die Implementierung und Wartung eines effektiven RAG-Systems erfordert erhebliche Ressourcen. 

  • Beispiel aus der Praxis: Eine Studie der Stanford University zeigte, dass spezialisierte juristische KI-Tools, die RAG nutzen, in 17–33 % der Fälle halluzinieren. VentureBeat+3reglab.stanford.edu+3Legal Dive+3 

 

Typische Missverständnisse rund um RAGs 

  • „Mit RAG halluziniert die KI nie“: Ein Trugschluss. RAG reduziert, aber eliminiert Halluzinationen nicht vollständig. 

  • „Externe Daten = wahre Antworten“: Die Qualität und Relevanz der Daten sind entscheidend. 

  • „RAG = bessere LLMs“: Ohne sorgfältige Implementierung und Überwachung kann RAG die Leistung sogar verschlechtern. 

 

Was ein gutes RAG-System leisten muss 

  • Hochwertige Datenquellen: Die genutzten Daten müssen aktuell, relevant und verlässlich sein. 

  • Effektive Suchalgorithmen: Das System muss in der Lage sein, die relevantesten Informationen effizient zu finden. Legal Tech Insights from Prevail 

  • Anpassung an den Kontext: Das LLM sollte die abgerufenen Daten korrekt interpretieren und in den richtigen Kontext setzen. 

  • Kontinuierliche Überwachung: Regelmäßige Überprüfungen und Anpassungen sind notwendig, um die Qualität zu gewährleisten. 

 

Fazit: RAG – ein Baustein, kein Wundermittel 

RAG bietet vielversprechende Ansätze zur Verbesserung der Antwortgenauigkeit von LLMs, ist jedoch kein Allheilmittel. Für UX-Profis bedeutet das: RAG kann ein wertvolles Werkzeug sein, sollte aber mit Bedacht und in Kombination mit anderen Methoden eingesetzt werden, um wirklich verlässliche und nutzerzentrierte KI-Anwendungen zu entwickeln. 

Podcast-Cover zu Folge 2 von „Beyond Your Business: Transitionen“ mit zwei Fotos von Tara in verschiedenen Lebensphasen.

Folge 5: Die Zukunft beginnt jetzt – UX im Wandel und Tara mittendrin

UX, BACKSTORY

Podcast-Cover zu Folge 2 von „Beyond Your Business: Transitionen“ mit zwei Fotos von Tara in verschiedenen Lebensphasen.

Folge 4: Sichtbar werden – Tara, die Transition und ein neuer Blick aufs Leben

UX

Stilisierte Darstellung eines Gehirns und eines neuronalen Netzwerks als Symbol für KI und maschinelles Denken.

Wie ein Transformer denkt – und warum er halluziniert

AI & UXR, LLM, HUMAN VS AI, OPEN AI

Podcast-Cover zu Folge 2 von „Beyond Your Business: Transitionen“ mit zwei Fotos von Tara in verschiedenen Lebensphasen.

Folge 3: Vom Konzern zurück zur Freiheit: Wie aus Frust die Idee zu ReSight entstand

UX, BACKSTORY

Podcast-Cover zu Folge 2 von „Beyond Your Business: Transitionen“ mit zwei Fotos von Tara in verschiedenen Lebensphasen.

Folge 2: Selbstverleugnung, Wachstum und Krisen: Die zweite Phase von SirValUse – und von Tara

UX, BACKSTORY

Drei stilisierte Personen mit Sprechblasen vor blauem Hintergrund – „Chattable Personas“.

Künstliche Nutzer, echte Erkenntnisse? Wie generative Agenten das UX-Feld verändern könnten

AI & UXR, HUMAN VS AI, LLM, TRENDS, UX METHODS, PERSONAS

Farbenfrohe Illustration eines Roboters mit Dokument und Bleistift auf hellem Hintergrund.

Klarer schreiben mit der Wolf-Schneider-KI – ein Selbstversuch

AI & UXR, OPEN AI

Dunkel designtes Bild als Ankündigung für eine neue Podcastreihe. Auf  zwei Polaroidbildern sind ein Baby und ein Mann zu sehen.

„Innen wie außen“ – Eine Podcastreihe über Veränderung, Verantwortung und Selbstfindung

UX, BACKSTORY

Illustration mit fünf farbenfrohen Symbolen auf dunklem Hintergrund, die verschiedene KI-Systeme darstellen.
Links oben: Gehirn mit Glühbirne – „GenAI: Kreativität“.
Rechts daneben: Buch mit Lupe – „RAG: Wissen“.
Oben rechts: Organigramm – „MCP: Struktur“.
Unten links: Codefenster mit Pfeil – „Function Calling: Zugriff“.
Unten rechts: lächelnder Roboter – „Agenten: Assistenz“.

Fünf Arten von KI-Systemen – und was sie für uns tun

AI & UXR, CHAT GPT, LLM, OPEN AI

Illustration eines stilisierten Gehirns (LLM) zwischen einem menschlichen Profil und einem Bücherregal mit Lupe – symbolisiert den Zugriff von KI auf externes Wissen.

RAGs gegen Halluzinationen – gut gedacht, aber nicht gut genug?

AI & UXR, CHAT GPT, LLM

Zwei Personen sitzen an einem Frühstückstisch und nutzen ein Tablet mit der App „ZEITKOMPASS“ von Inclusys, die einen farbenfrohen Tagesplan und eine Uhr anzeigt. Auf dem Tisch stehen Brötchen, Obst und Kaffee.

UX for Good mit INCLUSYS: Wie wir Barrieren im Alltag besser verstehen lernten

ACCESSIBILITY, ADVANTAGES USER RESEARCH, RESEARCH, UX FOR GOOD

Frau in einem orangenen T-Shirt sitzt auf einer blauen Couch und lächelt einen Interviewer an.

UX im Gesundheitswesen: Worauf es bei Interviews mit Patient:innen wirklich ankommt

BEST PRACTICES, HEALTHCARE, RESEARCH, UX INSIGHTS

Illustration eines freundlichen Roboters, der aus Fehlern lernt.

Bessere Antworten, weniger Unsinn: Wie ChatGPT dazulernt

AI & UXR, CHAT GPT, HUMAN VS AI, OPEN AI

Eine visuelle Darstellung der ökologischen Auswirkungen von KI mit Rechenzentren, Energieverbrauch und Umweltauswirkungen.

Die ökologischen Auswirkungen von KI – Warum Nachhaltigkeit auch für digitale Innovationen zählt

AI & UXR, CHAT GPT

Bunte Illustration eines futuristischen Arbeitsplatzes mit holographischer KI-Interaktion und strukturierten Prompts.

Wie Du mit komplexen Prompts in KI arbeitest: Strukturierte Strategien und Best Practices

AI & UXR, CHAT GPT, OPEN AI

Ein humorvolles Bild zur KI-Qualitätsbewertung: Ein Roboter mit Datencharts betrachtet einen verwirrten Hamster vor einer Gesichtserkennung, eine Pizza mit Kleber und einen Stein als „Nahrung“.

Anekdotische Evidenz oder systematische KI-Forschung – Stand der Dinge und was noch zu tun ist.

AI & UXR, CHAT GPT, HUMAN VS AI, OPEN AI

Drei Businessmänner, die vor einer Fensterfront stehe und sich unterhalten.

Argumente für UX-Forschung: Stakeholder überzeugen

HOW-TO, OBJECTION HANDLING, STAKEHOLDER MANAGEMENT, UX

Futuristische, kosmische Szene mit der leuchtenden Zahl 42 im Zentrum, umgeben von abstrakten, technologischen und galaktischen Elementen.

Was "42" uns über Change-Management und UX lehrt

AI & UXR, CHAT GPT, OPEN AI, UX

Ein abstrakter humanoider Umriss aus handgeschriebenen Notizen, Büchern und fließenden Tintenlinien in weichen Pastelltönen, umgeben von einer gemütlichen Studioumgebung.

Mit wem reden wir eigentlich? Wie das Bild von ChatGPT unsere Kommunikation beeinflusst

AI & UXR, CHAT GPT, HUMAN VS AI, OPEN AI

Illustration zum Turing-Test mit menschlichem und robotischem Gesicht, verbunden durch Chat-Symbole.

Warum Künstliche Intelligenz den Turing-Test immer noch nicht besteht 

AI & UXR, CHAT GPT, HUMAN VS AI, OPEN AI

 VERWANDTE ARTIKEL DIE SIE INTERESSIEREN KÖNNTEN 

AUTHOR

Tara Bosenick

Tara ist seit 1999 als UX-Spezialistin tätig und hat die Branche in Deutschland auf Agenturseite mit aufgebaut und geprägt. Sie ist spezialisiert auf die Entwicklung neuer UX-Methoden, die Quantifizierung von UX und die Einführung von UX in Unternehmen.


Gleichzeitig war sie immer daran interessiert, in ihren Unternehmen eine möglichst „coole“ Unternehmenskultur zu entwickeln, in der Spaß, Leistung, Teamgeist und Kundenerfolg miteinander verknüpft sind. Seit mehreren Jahren unterstützt sie daher Führungskräfte und Unternehmen auf dem Weg zu mehr New Work / Agilität und einem besseren Mitarbeitererlebnis.


Sie ist eine der führenden Stimmen in der UX-, CX- und Employee Experience-Branche.

bottom of page