top of page
uintent Firmenlogo

AI & UXR, LLM

Propaganda Chatbots - Wenn die KI plötzlich russisch spricht

Wie gezielte Desinformation unsere Sprachmodelle unterwandert – und warum das auch UX betrifft

4

MIN

7. Aug. 2025

Die unsichtbare Einflussnahme 

Wir verlassen uns zunehmend auf KI-gestützte Tools, wenn es darum geht, komplexe Inhalte schnell zu erfassen, Perspektiven zu vergleichen oder erste Hypothesen zu entwickeln. Chatbots wie ChatGPT, Perplexity oder Gemini sind längst fester Bestandteil im Alltag von UX-Teams, in Redaktion, Produktentwicklung oder Forschung. Doch was, wenn diese Systeme Inhalte wiedergeben, die gar nicht neutral oder faktenbasiert sind – sondern gezielt manipuliert wurden? 


Genau das geschieht gerade: Sprachmodelle sind zur neuen Angriffsfläche in der digitalen Propaganda geworden. Und die Methoden, mit denen sie unterwandert werden, sind subtil – aber hocheffektiv. 

 

Was genau passiert da eigentlich? 

Eine aktuelle Untersuchung von NewsGuard zeigt, wie ein russisches Propagandanetzwerk namens Pravda systematisch Inhalte im Netz verbreitet – mit dem Ziel, große Sprachmodelle zu beeinflussen. Diese Inhalte erscheinen auf gut gemachten Websites, die wie seriöse Nachrichtenportale wirken. Sie werden gezielt suchmaschinenoptimiert und massenhaft veröffentlicht. 

 

Die dahinterliegende Taktik nennt sich „LLM-Grooming“. LLM steht für Large Language Model, also für jene Systeme, auf denen Chatbots basieren. Grooming meint in diesem Fall die gezielte Vorbereitung des Modells, indem öffentlich auffindbare Falschinformationen so verbreitet werden, dass sie sich tief in das Modell einschreiben – ohne dass jemand das System direkt manipulieren muss. Es ist so, als würde man hunderte Artikel in eine Bibliothek stellen, in der sich eine KI später ihre Antworten zusammensucht. Wenn viele dieser Bücher falsch sind – fällt es dem System schwer, zwischen Fakt und Fiktion zu unterscheiden. 

 

Warum das gefährlich ist 

1. Sprachmodelle klingen neutral – sind es aber nicht immer 

Ein zentrales Problem: KI-Systeme erzeugen Inhalte in einem sachlich klingenden Stil. Das vermittelt Objektivität – auch dann, wenn die inhaltliche Basis einseitig oder sogar manipuliert ist. Nutzer:innen merken das oft nicht. 

 

2. Massenhafte Verbreitung führt zu langfristigen Effekten 

Je öfter solche Desinformation zitiert, angeklickt oder weiterverarbeitet wird, desto stärker beeinflusst sie den Output der Modelle. Einmal verankert, kann sich ein verzerrtes Narrativ langfristig halten – selbst wenn die ursprüngliche Quelle gelöscht wurde. 


3. Die Manipulation ist nicht rückverfolgbar 

Wer eine scheinbar neutrale KI-Antwort erhält, sieht in der Regel nicht, auf welche Quellen sie sich stützt. Wo klassische Medien über Redaktionsprozesse und Quellenkritik verfügen, fehlt dies bei vielen KI-Tools bislang. 

 

Was das mit UX zu tun hat 

Auch wenn diese Entwicklung zunächst nach einem geopolitischen Problem klingt – UX-Teams sind direkt betroffen, und zwar auf mehreren Ebenen: 

 

  • UX als Schnittstelle zur KI 

Conversational Interfaces, Recommender-Systeme oder Assistenten, die auf LLMs basieren, sind zunehmend Teil von Produkten. Wenn diese auf manipulierte Inhalte zurückgreifen, gefährdet das die Informationsqualität, die Nutzer:innen über unsere Produkte erhalten. 


  • Research auf Basis von KI 

Viele Teams nutzen KI-Tools inzwischen auch im Research – für erste Synthesen, GPT-generierte Personas oder hypothetische Journey-Analysen. Wenn die inhaltliche Basis verzerrt ist, werden daraus falsche Annahmen über Nutzerbedürfnisse oder Märkte abgeleitet. 


  • Vertrauen als UX-Grundlage 

User Experience basiert auf Vertrauen, Konsistenz und Verlässlichkeit. Wenn Nutzer:innen merken, dass ein KI-System fragwürdige Aussagen trifft, betrifft das nicht nur das Tool selbst – es wirft Schatten auf das ganze Produkt

 

Wie man Falschinformationen erkennt – auch im Alltag 

Nicht nur UX-Profis, sondern auch Privatpersonen und Alltagsnutzer:innen von Chatbots sollten ein Gespür dafür entwickeln, wie manipulative Inhalte aussehen können. Hier ein paar typische Anzeichen:

 

  • Übertriebene Sicherheit bei strittigen Themen: Wenn eine KI sehr bestimmt auf Fragen antwortet, die eigentlich offen oder kontrovers diskutiert werden. 

  • Vage Formulierungen ohne Quellen: Aussagen wie „einige Experten sagen“ oder „es wird berichtet“ ohne konkrete Belege. 

  • Einseitige Argumentation: Es wird nur eine Perspektive wiedergegeben, ohne Alternativen zu nennen. 

  • Emotionalisierende Begriffe in einem sonst sachlichen Tonfall: etwa „brutal“, „skandalös“, „heldenhaft“ – oft ein Versuch, ein Narrativ zu verstärken. 

 

Handlungsempfehlungen für UX-Teams und alle, die KI nutzen 


Für UX- und Produktverantwortliche 

  1. KI-Outputs kritisch hinterfragen 

    Auch wenn sie gut klingen – Inhalte mit Relevanz für Design, Kommunikation oder Produktstrategie sollten immer durch menschliche Reflexion ergänzt werden. 

  2. Transparenz schaffen 

    Zeigt in Euren Interfaces, woher Informationen stammen – oder dass es sich um KI-generierte Inhalte handelt. 

  3. Ethik-Checks etablieren 

    Baut regelmäßige Tests mit „Bias-triggers“ in Euren Development- und QA-Prozess ein. Testet z. B. mit politisch oder kulturell aufgeladenen Fragen. 

  4. Teams sensibilisieren 

    Das Thema gehört nicht nur in die IT oder Kommunikation, sondern auch in UX-Trainings, Retrospektiven und Projektbriefings. 


Für alle, die Chatbots privat oder beruflich nutzen 

  1. Rückfragen stellen

    Bitte die KI um Gegenmeinungen, Quellen oder Einschränkungen: „Welche anderen Perspektiven gibt es dazu?“oder „Gibt es Belege für diese Aussage?“ 

  2. Mit anderen Systemen gegenprüfen

    Frag z. B. ChatGPT, Perplexity und Gemini dieselbe Frage – Unterschiede können auf Verzerrungen hinweisen. 

  3. Gesundes Misstrauen kultivieren

    Nimm die KI ernst, aber nicht wörtlich. Sie kann Impulse geben, aber kein Ersatz für kritisches Denken oder echte Recherche sein. 

 

Fazit 

Die gezielte Beeinflussung von Sprachmodellen durch LLM-Grooming ist keine Zukunftsmusik, sondern Realität. Sie betrifft nicht nur Politik oder Medien – sondern auch den Alltag von UX-Teams, Designer:innen, Analyst:innen und allen, die mit KI arbeiten. 


Gerade weil KI-Systeme so zugänglich, glaubwürdig und schnell sind, braucht es jetzt etwas anderes, das genauso zugänglich, glaubwürdig und schnell funktioniert: kritisches Denken


UX kann hier Vorbild sein – durch transparente Interfaces, saubere Methodik und bewussten Umgang mit KI. Und wir alle können beginnen, Chatbots nicht als neutrale Wissensmaschinen zu sehen, sondern als das, was sie wirklich sind: Werkzeuge mit Stärken – und mit Schwächen, die wir kennen sollten. 


💌 Noch nicht genug? Dann lies weiter – in unserem Newsletter.

Kommt viermal im Jahr. Bleibt länger im Kopf.  https://www.uintent.com/de/newsletter

Futuristischer leuchtender Zylinder mit Segmenten, getrennt durch goldene Barrieren.

Gated Salami Prompting: Warum Du Komplexe Llm-aufgaben In Scheiben Schneiden Solltest

CHAT GPT, HOW-TO, LLM, PROMPTS

Futuristische, quadratische Illustration auf dunkelblauem Hintergrund: Eine leuchtende goldene Sprechblase zerfällt in Partikel, die sich teilweise falsch neu zusammensetzen; umgeben von Energie­bögen, Lichtknoten und einem stilisierten digitalen Kopf – Symbol für Halluzinationen von LLMs.

Erfundene Zitate, Verschwundene Nuancen: Das Halluzinationsproblem In Der Qualitativen Analyse Mit LLMs

CHAT GPT, HOW-TO, LLM, OPEN AI, PROMPTS, TOKEN, UX METHODS

Surreale futuristische Illustration eines leuchtenden digitalen Kopfes mit Datenströmen, Diagrammen und Bewertungssymbolen, die KI-Evaluationsmethoden darstellen.

Woher wissen wir, dass unser Prompt gute Arbeit leistet? Warum UX Research eine Evaluierungsmethodik für KI-gestützte Analyse braucht

AI WRITING, DIGITISATION, HOW-TO, PROMPTS

A surreal, futuristic illustration featuring a translucent human profile with a glowing brain connected by flowing data streams to a hovering, golden crystal.

Prompt-Psychologie entlarvt: Warum „Trinkgeld" für ChatGPT manchmal funktioniert

CHAT GPT, HOW-TO, LLM, UX

Surreale, futuristische Illustration einer Person von hinten in einer leuchtenden digitalen Stadtlandschaft.

System Prompts in UX Research: Was du über die unsichtbare KI-Steuerung wissen musst

PROMPTS, RESEARCH, UX, UX INSIGHTS

Abstrakte futuristische Illustration einer Person, verschiedene Videos und Notizen.

YouTube Video Zusammenfassen Mit KI: Drei Tools Im Ux-Research-Praxistest

LLM, UX, HOW-TO

zwei gefaltete Hände, die eine wachsende Pflanze halten

UX For a Better World: Wir verschenken ein UX-Forschungsprojekt an gemeinnützige Organisationen und nachhaltige Unternehmen!

UX INSIGHTS, UX FOR GOOD, TRENDS, RESEARCH

Abstrakte, futuristische Illustration eines Menschen vor einem leuchtenden Turm aus Dokumenten und Datenströmen.

KI Tools UX Research: Wie gehen diese Tools mit großen Dokumenten um?

LLM, CHAT GPT, HOW-TO

Illustration von Donald Trump mit erhobener Hand vor abstraktem, digitalem Hintergrund, der Sprachblasen und Datenstrukturen andeutet.

Donald Trump Prompt: Wie provokante KI-Prompts UX-Budgets bewegen

AI & UXR, PROMPTS, STAKEHOLDER MANAGEMENT

Blick aus der Fahrerperspektive auf eine kurvige Landstraße, umgeben von grüner Vegetation. Im Vordergrund sind Lenkrad, Armaturenbrett und Rückspiegel zu sehen.

Die letzte Hürde: Wie unsichere Automatisierung das Vertrauen in ADAS bricht

AUTOMATION, AUTOMOTIVE UX, AUTONOMOUS DRIVING, GAMIFICATION, TRENDS

Illustration einer Person an einer Weggabelung mit zwei gleichwertigen Wegen.

Ersetzt KI UX Jobs? Was eine Studie mit 200.000 KI-Konversationen wirklich zeigt

HUMAN VS AI, RESEARCH, AI & UXR

Nahaufnahme eines hochwertigen Hochtöner-Lautsprechers im Armaturenbrett eines Autos mit perforierter Metalloberfläche.

Der Beifahrer, der immer zuhört: Warum wir unseren Autos nur ungern vertrauen, wenn sie sprechen

AUTOMOTIVE UX, VOICE ASSISTANTS

Schlüsselloch in dunkler Oberfläche, das den Blick auf ein abstraktes, farbiges UX-Research-Interface freigibt.

AI Ergebnisse bewerten im UX Research: So navigierst du die Blackbox

AI & UXR, HOW-TO, HUMAN VS AI

Ein von Audi hergestelltes Fahrzeugcockpit. Es verfügt über ein digitales Display und zahlreiche Tasten am Lenkrad.

Haptische Gewissheit vs. digitale Verlockung: Der Kampf um die besten Bedienelemente im Auto

AUTOMOTIVE UX, AUTONOMOUS DRIVING, CONNECTIVITY, GAMIFICATION

Digitale Illustration einer klassischen Gebäudefassade mit Säulen, gestützt von sichtbarem Gerüst, symbolisiert eine fragile, rein oberflächliche Fassade.

UX & AI: Wie „Ux Potemkin“ Deine Research- UND Design-Entscheidungen Untergräbt

AI & UXR, HUMAN VS AI, LLM, UX

Silhouette eines Tauchers, der ruhig in tiefblaues Wasser hinabtaucht – Symbol für tiefgehende Recherche.

Deep Research KI | So nutzt Du ChatGPT sinnvoll für UX-Arbeit

CHAT GPT, HOW-TO, RESEARCH, AI & UXR

Ein:e Schiedsrichter:in hält eine Bewertungstafel mit der Aufschrift „Yupp.ai“ zwischen zwei stilisierten KI-Chatbots in einem Boxring hoch – Symbolbild für den fairen Vergleich von KI-Modellen durch Nutzer:innen.

Wie Yupp Feedback nutzt, um KI-Modelle fair zu bewerten – und was UX-Profis daraus lernen können

AI & UXR, CHAT GPT, HUMAN VS AI, LLM

Auf einem kleinen Tisch liegt ein braunes Buch mit dem Titel „Don't Make Me Think“ von Steve Krug. Licht scheint durch das Fenster.

Warum UX Research seine Glaubwürdigkeit verliert und wie wir sie zurückgewinnen

UX, UX QUALITY, UX METHODS

3D-Illustration eines digitalen Marktplatzes mit bunten Marktständen voller Prompt-Karten und einer Figur, die einen Prompt auswählt.

Prompts kaufen, teilen, verkaufen – was Prompt-Marktplätze heute leisten (und warum das für UX relevant ist)

AI & UXR, PROMPTS

Roboter hält zwei Schilder hoch: „ISO 9241 – 7 Prinzipien“ und „ISO 9241 – 10 Prinzipien“.

ChatGPT halluziniert – trotz Anti-Halluzinations-Prompt

AI & UXR, HUMAN VS AI, CHAT GPT

 VERWANDTE ARTIKEL DIE SIE INTERESSIEREN KÖNNTEN 

AUTHOR

Tara Bosenick

Tara ist seit 1999 als UX-Spezialistin tätig und hat die Branche in Deutschland auf Agenturseite mit aufgebaut und geprägt. Sie ist spezialisiert auf die Entwicklung neuer UX-Methoden, die Quantifizierung von UX und die Einführung von UX in Unternehmen.


Gleichzeitig war sie immer daran interessiert, in ihren Unternehmen eine möglichst „coole“ Unternehmenskultur zu entwickeln, in der Spaß, Leistung, Teamgeist und Kundenerfolg miteinander verknüpft sind. Seit mehreren Jahren unterstützt sie daher Führungskräfte und Unternehmen auf dem Weg zu mehr New Work / Agilität und einem besseren Mitarbeitererlebnis.


Sie ist eine der führenden Stimmen in der UX-, CX- und Employee Experience-Branche.

bottom of page