top of page
uintent Firmenlogo

AI & UXR, LLM

Propaganda Chatbots - Wenn die KI plötzlich russisch spricht

Wie gezielte Desinformation unsere Sprachmodelle unterwandert – und warum das auch UX betrifft

4

MIN

7. Aug. 2025

Die unsichtbare Einflussnahme 

Wir verlassen uns zunehmend auf KI-gestützte Tools, wenn es darum geht, komplexe Inhalte schnell zu erfassen, Perspektiven zu vergleichen oder erste Hypothesen zu entwickeln. Chatbots wie ChatGPT, Perplexity oder Gemini sind längst fester Bestandteil im Alltag von UX-Teams, in Redaktion, Produktentwicklung oder Forschung. Doch was, wenn diese Systeme Inhalte wiedergeben, die gar nicht neutral oder faktenbasiert sind – sondern gezielt manipuliert wurden? 


Genau das geschieht gerade: Sprachmodelle sind zur neuen Angriffsfläche in der digitalen Propaganda geworden. Und die Methoden, mit denen sie unterwandert werden, sind subtil – aber hocheffektiv. 

 

Was genau passiert da eigentlich? 

Eine aktuelle Untersuchung von NewsGuard zeigt, wie ein russisches Propagandanetzwerk namens Pravda systematisch Inhalte im Netz verbreitet – mit dem Ziel, große Sprachmodelle zu beeinflussen. Diese Inhalte erscheinen auf gut gemachten Websites, die wie seriöse Nachrichtenportale wirken. Sie werden gezielt suchmaschinenoptimiert und massenhaft veröffentlicht. 

 

Die dahinterliegende Taktik nennt sich „LLM-Grooming“. LLM steht für Large Language Model, also für jene Systeme, auf denen Chatbots basieren. Grooming meint in diesem Fall die gezielte Vorbereitung des Modells, indem öffentlich auffindbare Falschinformationen so verbreitet werden, dass sie sich tief in das Modell einschreiben – ohne dass jemand das System direkt manipulieren muss. Es ist so, als würde man hunderte Artikel in eine Bibliothek stellen, in der sich eine KI später ihre Antworten zusammensucht. Wenn viele dieser Bücher falsch sind – fällt es dem System schwer, zwischen Fakt und Fiktion zu unterscheiden. 

 

Warum das gefährlich ist 

1. Sprachmodelle klingen neutral – sind es aber nicht immer 

Ein zentrales Problem: KI-Systeme erzeugen Inhalte in einem sachlich klingenden Stil. Das vermittelt Objektivität – auch dann, wenn die inhaltliche Basis einseitig oder sogar manipuliert ist. Nutzer:innen merken das oft nicht. 

 

2. Massenhafte Verbreitung führt zu langfristigen Effekten 

Je öfter solche Desinformation zitiert, angeklickt oder weiterverarbeitet wird, desto stärker beeinflusst sie den Output der Modelle. Einmal verankert, kann sich ein verzerrtes Narrativ langfristig halten – selbst wenn die ursprüngliche Quelle gelöscht wurde. 


3. Die Manipulation ist nicht rückverfolgbar 

Wer eine scheinbar neutrale KI-Antwort erhält, sieht in der Regel nicht, auf welche Quellen sie sich stützt. Wo klassische Medien über Redaktionsprozesse und Quellenkritik verfügen, fehlt dies bei vielen KI-Tools bislang. 

 

Was das mit UX zu tun hat 

Auch wenn diese Entwicklung zunächst nach einem geopolitischen Problem klingt – UX-Teams sind direkt betroffen, und zwar auf mehreren Ebenen: 

 

  • UX als Schnittstelle zur KI 

Conversational Interfaces, Recommender-Systeme oder Assistenten, die auf LLMs basieren, sind zunehmend Teil von Produkten. Wenn diese auf manipulierte Inhalte zurückgreifen, gefährdet das die Informationsqualität, die Nutzer:innen über unsere Produkte erhalten. 


  • Research auf Basis von KI 

Viele Teams nutzen KI-Tools inzwischen auch im Research – für erste Synthesen, GPT-generierte Personas oder hypothetische Journey-Analysen. Wenn die inhaltliche Basis verzerrt ist, werden daraus falsche Annahmen über Nutzerbedürfnisse oder Märkte abgeleitet. 


  • Vertrauen als UX-Grundlage 

User Experience basiert auf Vertrauen, Konsistenz und Verlässlichkeit. Wenn Nutzer:innen merken, dass ein KI-System fragwürdige Aussagen trifft, betrifft das nicht nur das Tool selbst – es wirft Schatten auf das ganze Produkt

 

Wie man Falschinformationen erkennt – auch im Alltag 

Nicht nur UX-Profis, sondern auch Privatpersonen und Alltagsnutzer:innen von Chatbots sollten ein Gespür dafür entwickeln, wie manipulative Inhalte aussehen können. Hier ein paar typische Anzeichen:

 

  • Übertriebene Sicherheit bei strittigen Themen: Wenn eine KI sehr bestimmt auf Fragen antwortet, die eigentlich offen oder kontrovers diskutiert werden. 

  • Vage Formulierungen ohne Quellen: Aussagen wie „einige Experten sagen“ oder „es wird berichtet“ ohne konkrete Belege. 

  • Einseitige Argumentation: Es wird nur eine Perspektive wiedergegeben, ohne Alternativen zu nennen. 

  • Emotionalisierende Begriffe in einem sonst sachlichen Tonfall: etwa „brutal“, „skandalös“, „heldenhaft“ – oft ein Versuch, ein Narrativ zu verstärken. 

 

Handlungsempfehlungen für UX-Teams und alle, die KI nutzen 


Für UX- und Produktverantwortliche 

  1. KI-Outputs kritisch hinterfragen 

    Auch wenn sie gut klingen – Inhalte mit Relevanz für Design, Kommunikation oder Produktstrategie sollten immer durch menschliche Reflexion ergänzt werden. 

  2. Transparenz schaffen 

    Zeigt in Euren Interfaces, woher Informationen stammen – oder dass es sich um KI-generierte Inhalte handelt. 

  3. Ethik-Checks etablieren 

    Baut regelmäßige Tests mit „Bias-triggers“ in Euren Development- und QA-Prozess ein. Testet z. B. mit politisch oder kulturell aufgeladenen Fragen. 

  4. Teams sensibilisieren 

    Das Thema gehört nicht nur in die IT oder Kommunikation, sondern auch in UX-Trainings, Retrospektiven und Projektbriefings. 


Für alle, die Chatbots privat oder beruflich nutzen 

  1. Rückfragen stellen

    Bitte die KI um Gegenmeinungen, Quellen oder Einschränkungen: „Welche anderen Perspektiven gibt es dazu?“oder „Gibt es Belege für diese Aussage?“ 

  2. Mit anderen Systemen gegenprüfen

    Frag z. B. ChatGPT, Perplexity und Gemini dieselbe Frage – Unterschiede können auf Verzerrungen hinweisen. 

  3. Gesundes Misstrauen kultivieren

    Nimm die KI ernst, aber nicht wörtlich. Sie kann Impulse geben, aber kein Ersatz für kritisches Denken oder echte Recherche sein. 

 

Fazit 

Die gezielte Beeinflussung von Sprachmodellen durch LLM-Grooming ist keine Zukunftsmusik, sondern Realität. Sie betrifft nicht nur Politik oder Medien – sondern auch den Alltag von UX-Teams, Designer:innen, Analyst:innen und allen, die mit KI arbeiten. 


Gerade weil KI-Systeme so zugänglich, glaubwürdig und schnell sind, braucht es jetzt etwas anderes, das genauso zugänglich, glaubwürdig und schnell funktioniert: kritisches Denken


UX kann hier Vorbild sein – durch transparente Interfaces, saubere Methodik und bewussten Umgang mit KI. Und wir alle können beginnen, Chatbots nicht als neutrale Wissensmaschinen zu sehen, sondern als das, was sie wirklich sind: Werkzeuge mit Stärken – und mit Schwächen, die wir kennen sollten. 


💌 Noch nicht genug? Dann lies weiter – in unserem Newsletter.

Kommt viermal im Jahr. Bleibt länger im Kopf.  https://www.uintent.com/de/newsletter

Ein:e Schiedsrichter:in hält eine Bewertungstafel mit der Aufschrift „Yupp.ai“ zwischen zwei stilisierten KI-Chatbots in einem Boxring hoch – Symbolbild für den fairen Vergleich von KI-Modellen durch Nutzer:innen.

Wie Yupp Feedback nutzt, um KI-Modelle fair zu bewerten – und was UX-Profis daraus lernen können

AI & UXR, CHAT GPT, HUMAN VS AI, LLM

3D-Illustration eines digitalen Marktplatzes mit bunten Marktständen voller Prompt-Karten und einer Figur, die einen Prompt auswählt.

Prompts kaufen, teilen, verkaufen – was Prompt-Marktplätze heute leisten (und warum das für UX relevant ist)

AI & UXR, PROMPTS

Roboter hält zwei Schilder hoch: „ISO 9241 – 7 Prinzipien“ und „ISO 9241 – 10 Prinzipien“.

ChatGPT halluziniert – trotz Anti-Halluzinations-Prompt

AI & UXR, HUMAN VS AI, CHAT GPT

Erdbeere wird von einem Messer halbiert, stilisierte Illustration.

Warum KI manchmal nicht bis 3 zählen kann – und was das mit Tokens zu tun hat

AI & UXR, TOKEN, LLM

Quadratisches, in der Mitte geteiltes Motiv: Links ein graues, stilisiertes Gehirn über einer sitzenden Person am Laptop in dunklen Grautönen; rechts ein leuchtend blaues, vernetztes Gehirn über einer stehenden Person vor einem holografischen Interface auf dunklem Hintergrund.

GPT-5 ist da: Verändert diese UX AI wirklich alles für Researcher:innen?

AI & UXR, CHAT GPT

Surreales KI-Bild mit Datenströmen, durchgestrichenem „User Expirince“ und dem Text „ChatGPT kann jetzt Text in Bild“.

Wenn KI Bilder malt und plötzlich richtig schreiben kann

AI & UXR, CHAT GPT, HUMAN VS AI

Mensch und KI arbeiten gemeinsam an einem leuchtenden Baum auf dem Bildschirm, umgeben von dunkler, surrealer Atmosphäre.

Wenn der Text zu glatt ist: Wie man KI-Sprache menschlicher macht

AI & UXR, AI WRITING, CHAT GPT, HUMAN VS AI

Futuristische Illustration: Mensch blickt auf leuchtende, humanoide KI vor digitalem Hintergrund.

Kein Science Fiction – KI macht sich selbstständig

AI & UXR, CHAT GPT

Illustration einer KI, die mit einem Menschen kommuniziert, symbolisch für die Überzeugungskraft künstlicher Intelligenz.

Zwischen Argument und Einfluss – Wie überzeugend darf KI sein?

AI & UXR, CHAT GPT, LLM

Eine zweidimensionale Comic Frau steht vor einem menschengroßen Handy, auf dem Gesundheitsapps zu sehen sind. Rechts von ihr steht ein Kasten mit einem Computer drauf, auf dem ein EKG zu sehen ist.

Digital Health Apps & Interfaces: Warum gute UX entscheidet, ob Patienten wirklich profitieren

HEALTHCARE, MHEALTH, TRENDS, UX METHODS

Illustration einer roten Hand, die symbolisch „Censorship“ über „User Privacy“ bei DeepSeek priorisiert; im Hintergrund die chinesische Flagge.

Zensur trifft KI: Was DeepSeek über Menschenrechte verschweigt – und warum das UX betrifft

AI & UXR, LLM, OPEN AI

Illustration im isometrischen Flat Design zeigt eine vernetzte, internationale UX-Studienlogistik mit Paketen, Checkliste, Videokonferenzen und Positionsmarkierungen auf einer Weltkarte.

Die Voraussetzungen für den Erfolg: Globale Studie zur Logistik in der UX-Forschung für medizinische Geräte

HEALTHCARE, UX METHODS, UX LOGISTICS

Surreale, leuchtende Illustration eines KI-Sprachmodells als Gehirn, das von einer Hand beeinflusst wird – symbolisiert Manipulation durch externe Kräfte.

Propaganda Chatbots - Wenn die KI plötzlich russisch spricht

AI & UXR, LLM

Illustration mit sieben Tieren, die verschiedene Denk- und Prompt-Stile in der UX-Arbeit symbolisieren.

Willkommen im Prompt-Zoo

AI & UXR, PROMPTS, UX

Ein zwei dimensionales Bild von einem Mann, der an einem Schreibtisch mit geöffnetem Laptop sitzt, auf dem ein Gesundheitssymbol zu sehen ist. Im Hintergrund hängt ein Plakat mit einem DNA-Strang.

UX Regulatory Compliance: Warum Usability für Zulassung in MedTech entscheidend ist

HEALTHCARE, REGULATIONS

Illustration einer Glühbirne mit abstrakten Symbolen wie Fragezeichen, Wolke, Sprechblase und Kreuz – symbolisiert kreative Ideen und kritisches Denken.

Warum Prompts, die Bias und Halluzinationen produzieren, manchmal hilfreich sein können

AI & UXR, CHAT GPT, HUMAN VS AI, OPEN AI

Illustration eines Mannes am Laptop, umgeben von Symbolen für globale medizinische Forschung: Weltkarte mit Standortmarkierungen, Monitor mit Kreuzsymbol, Patientenakte und Stethoskop.

Global UX Research in Medical Technology: Internationale Nutzerforschung als Erfolgsfaktor

HEALTHCARE, MHEALTH, REGULATIONS

Abstrakte, pastellfarbene Illustration mit einer stilisierten Gehirnform und geometrischen Formen – Sinnbild für KI und Verzerrungen.

KI, Bias und die Macht der Frage: Wie Du mit klugen Prompts bessere Antworten bekommst

AI & UXR, CHAT GPT

Eine Frau in einem Zahnrad ist umgeben von Symbolen für globale Vernetzung, Zusammenarbeit, Innovation und Nutzerzentrierung – verbunden durch Pfeile. Sanfte, helle Farben aus einer modernen UI-Farbpalette.

UX automatisieren? Ja bitte! Warum Zapier und n8n für UX-Teams echte Supertools sind

CHAT GPT, TOOLS, AUTOMATION, AI & UXR

Ein 2D Bild von einem Mann in weißem Kittel, der auf einen Bildschirm zeigt, auf dem ein OP-Roboterarm zu sehen ist.

Surgical Robotics und UX: Warum Benutzerfreundlichkeit den OP-Erfolg mitbestimmt

HEALTHCARE, TRENDS, UX METHODS

 VERWANDTE ARTIKEL DIE SIE INTERESSIEREN KÖNNTEN 

AUTHOR

Tara Bosenick

Tara ist seit 1999 als UX-Spezialistin tätig und hat die Branche in Deutschland auf Agenturseite mit aufgebaut und geprägt. Sie ist spezialisiert auf die Entwicklung neuer UX-Methoden, die Quantifizierung von UX und die Einführung von UX in Unternehmen.


Gleichzeitig war sie immer daran interessiert, in ihren Unternehmen eine möglichst „coole“ Unternehmenskultur zu entwickeln, in der Spaß, Leistung, Teamgeist und Kundenerfolg miteinander verknüpft sind. Seit mehreren Jahren unterstützt sie daher Führungskräfte und Unternehmen auf dem Weg zu mehr New Work / Agilität und einem besseren Mitarbeitererlebnis.


Sie ist eine der führenden Stimmen in der UX-, CX- und Employee Experience-Branche.

bottom of page