
AI & UXR, LLM
Propaganda Chatbots - Wenn die KI plötzlich russisch spricht
Wie gezielte Desinformation unsere Sprachmodelle unterwandert – und warum das auch UX betrifft
4
MIN
7. Aug. 2025
Die unsichtbare Einflussnahme
Wir verlassen uns zunehmend auf KI-gestützte Tools, wenn es darum geht, komplexe Inhalte schnell zu erfassen, Perspektiven zu vergleichen oder erste Hypothesen zu entwickeln. Chatbots wie ChatGPT, Perplexity oder Gemini sind längst fester Bestandteil im Alltag von UX-Teams, in Redaktion, Produktentwicklung oder Forschung. Doch was, wenn diese Systeme Inhalte wiedergeben, die gar nicht neutral oder faktenbasiert sind – sondern gezielt manipuliert wurden?
Genau das geschieht gerade: Sprachmodelle sind zur neuen Angriffsfläche in der digitalen Propaganda geworden. Und die Methoden, mit denen sie unterwandert werden, sind subtil – aber hocheffektiv.
Was genau passiert da eigentlich?
Eine aktuelle Untersuchung von NewsGuard zeigt, wie ein russisches Propagandanetzwerk namens Pravda systematisch Inhalte im Netz verbreitet – mit dem Ziel, große Sprachmodelle zu beeinflussen. Diese Inhalte erscheinen auf gut gemachten Websites, die wie seriöse Nachrichtenportale wirken. Sie werden gezielt suchmaschinenoptimiert und massenhaft veröffentlicht.
Die dahinterliegende Taktik nennt sich „LLM-Grooming“. LLM steht für Large Language Model, also für jene Systeme, auf denen Chatbots basieren. Grooming meint in diesem Fall die gezielte Vorbereitung des Modells, indem öffentlich auffindbare Falschinformationen so verbreitet werden, dass sie sich tief in das Modell einschreiben – ohne dass jemand das System direkt manipulieren muss. Es ist so, als würde man hunderte Artikel in eine Bibliothek stellen, in der sich eine KI später ihre Antworten zusammensucht. Wenn viele dieser Bücher falsch sind – fällt es dem System schwer, zwischen Fakt und Fiktion zu unterscheiden.
Warum das gefährlich ist
1. Sprachmodelle klingen neutral – sind es aber nicht immer
Ein zentrales Problem: KI-Systeme erzeugen Inhalte in einem sachlich klingenden Stil. Das vermittelt Objektivität – auch dann, wenn die inhaltliche Basis einseitig oder sogar manipuliert ist. Nutzer:innen merken das oft nicht.
2. Massenhafte Verbreitung führt zu langfristigen Effekten
Je öfter solche Desinformation zitiert, angeklickt oder weiterverarbeitet wird, desto stärker beeinflusst sie den Output der Modelle. Einmal verankert, kann sich ein verzerrtes Narrativ langfristig halten – selbst wenn die ursprüngliche Quelle gelöscht wurde.
3. Die Manipulation ist nicht rückverfolgbar
Wer eine scheinbar neutrale KI-Antwort erhält, sieht in der Regel nicht, auf welche Quellen sie sich stützt. Wo klassische Medien über Redaktionsprozesse und Quellenkritik verfügen, fehlt dies bei vielen KI-Tools bislang.
Was das mit UX zu tun hat
Auch wenn diese Entwicklung zunächst nach einem geopolitischen Problem klingt – UX-Teams sind direkt betroffen, und zwar auf mehreren Ebenen:
UX als Schnittstelle zur KI
Conversational Interfaces, Recommender-Systeme oder Assistenten, die auf LLMs basieren, sind zunehmend Teil von Produkten. Wenn diese auf manipulierte Inhalte zurückgreifen, gefährdet das die Informationsqualität, die Nutzer:innen über unsere Produkte erhalten.
Research auf Basis von KI
Viele Teams nutzen KI-Tools inzwischen auch im Research – für erste Synthesen, GPT-generierte Personas oder hypothetische Journey-Analysen. Wenn die inhaltliche Basis verzerrt ist, werden daraus falsche Annahmen über Nutzerbedürfnisse oder Märkte abgeleitet.
Vertrauen als UX-Grundlage
User Experience basiert auf Vertrauen, Konsistenz und Verlässlichkeit. Wenn Nutzer:innen merken, dass ein KI-System fragwürdige Aussagen trifft, betrifft das nicht nur das Tool selbst – es wirft Schatten auf das ganze Produkt.
Wie man Falschinformationen erkennt – auch im Alltag
Nicht nur UX-Profis, sondern auch Privatpersonen und Alltagsnutzer:innen von Chatbots sollten ein Gespür dafür entwickeln, wie manipulative Inhalte aussehen können. Hier ein paar typische Anzeichen:
Übertriebene Sicherheit bei strittigen Themen: Wenn eine KI sehr bestimmt auf Fragen antwortet, die eigentlich offen oder kontrovers diskutiert werden.
Vage Formulierungen ohne Quellen: Aussagen wie „einige Experten sagen“ oder „es wird berichtet“ ohne konkrete Belege.
Einseitige Argumentation: Es wird nur eine Perspektive wiedergegeben, ohne Alternativen zu nennen.
Emotionalisierende Begriffe in einem sonst sachlichen Tonfall: etwa „brutal“, „skandalös“, „heldenhaft“ – oft ein Versuch, ein Narrativ zu verstärken.
Handlungsempfehlungen für UX-Teams und alle, die KI nutzen
Für UX- und Produktverantwortliche
KI-Outputs kritisch hinterfragen
Auch wenn sie gut klingen – Inhalte mit Relevanz für Design, Kommunikation oder Produktstrategie sollten immer durch menschliche Reflexion ergänzt werden.
Transparenz schaffen
Zeigt in Euren Interfaces, woher Informationen stammen – oder dass es sich um KI-generierte Inhalte handelt.
Ethik-Checks etablieren
Baut regelmäßige Tests mit „Bias-triggers“ in Euren Development- und QA-Prozess ein. Testet z. B. mit politisch oder kulturell aufgeladenen Fragen.
Teams sensibilisieren
Das Thema gehört nicht nur in die IT oder Kommunikation, sondern auch in UX-Trainings, Retrospektiven und Projektbriefings.
Für alle, die Chatbots privat oder beruflich nutzen
Rückfragen stellen
Bitte die KI um Gegenmeinungen, Quellen oder Einschränkungen: „Welche anderen Perspektiven gibt es dazu?“oder „Gibt es Belege für diese Aussage?“
Mit anderen Systemen gegenprüfen
Frag z. B. ChatGPT, Perplexity und Gemini dieselbe Frage – Unterschiede können auf Verzerrungen hinweisen.
Gesundes Misstrauen kultivieren
Nimm die KI ernst, aber nicht wörtlich. Sie kann Impulse geben, aber kein Ersatz für kritisches Denken oder echte Recherche sein.
Fazit
Die gezielte Beeinflussung von Sprachmodellen durch LLM-Grooming ist keine Zukunftsmusik, sondern Realität. Sie betrifft nicht nur Politik oder Medien – sondern auch den Alltag von UX-Teams, Designer:innen, Analyst:innen und allen, die mit KI arbeiten.
Gerade weil KI-Systeme so zugänglich, glaubwürdig und schnell sind, braucht es jetzt etwas anderes, das genauso zugänglich, glaubwürdig und schnell funktioniert: kritisches Denken.
UX kann hier Vorbild sein – durch transparente Interfaces, saubere Methodik und bewussten Umgang mit KI. Und wir alle können beginnen, Chatbots nicht als neutrale Wissensmaschinen zu sehen, sondern als das, was sie wirklich sind: Werkzeuge mit Stärken – und mit Schwächen, die wir kennen sollten.
💌 Noch nicht genug? Dann lies weiter – in unserem Newsletter.
Kommt viermal im Jahr. Bleibt länger im Kopf. https://www.uintent.com/de/newsletter
VERWANDTE ARTIKEL DIE SIE INTERESSIEREN KÖNNTEN
AUTHOR
Tara Bosenick
Tara ist seit 1999 als UX-Spezialistin tätig und hat die Branche in Deutschland auf Agenturseite mit aufgebaut und geprägt. Sie ist spezialisiert auf die Entwicklung neuer UX-Methoden, die Quantifizierung von UX und die Einführung von UX in Unternehmen.
Gleichzeitig war sie immer daran interessiert, in ihren Unternehmen eine möglichst „coole“ Unternehmenskultur zu entwickeln, in der Spaß, Leistung, Teamgeist und Kundenerfolg miteinander verknüpft sind. Seit mehreren Jahren unterstützt sie daher Führungskräfte und Unternehmen auf dem Weg zu mehr New Work / Agilität und einem besseren Mitarbeitererlebnis.
Sie ist eine der führenden Stimmen in der UX-, CX- und Employee Experience-Branche.





.png)














