
AI & UXR, CHAT GPT, LLM
Zwischen Argument und Einfluss – Wie überzeugend darf KI sein?
2
MIN
21. Aug. 2025
KI-Systeme argumentieren höflich, strukturiert, fehlerfrei und meist ohne emotionale Schlagseite. Sie widersprechen nicht, sie verpacken komplexe Themen in einfache Sprache, und sie sind rund um die Uhr verfügbar. Diese Eigenschaften sorgen dafür, dass viele Nutzer:innen KIs als besonders kompetent, vertrauenswürdig – und eben auch: überzeugend wahrnehmen.
Zwei aktuelle Beispiele aus Forschung und Medien zeigen, welche Risiken entstehen, wenn diese Überzeugungskraft mit gezielter Manipulation kombiniert wird – und welche Rolle UX dabei spielt.
Was ist passiert?
Eine Studie der École polytechnique f édérale de Lausanne (EPFL) zeigt: ChatGPT konnte in 64 % der Fälle Testpersonen stärker überzeugen als reale Menschen. Besonders ausgeprägt war dieser Effekt, wenn die KI personalisierte Informationen über die Zielperson kannte – etwa Alter, Beruf oder politische Einstellung. Die Argumentation wurde damit gezielter, anschlussfähiger und erfolgreicher.
Parallel dazu berichtete Der Spiegel über eine russische Desinformationskampagne, bei der gezielt Inhalte über ein Netzwerk namens „Prawda“ in den digitalen Raum eingespeist wurden – mit dem Ziel, sie in das Training oder Verhalten westlicher KI-Systeme einzuschleusen. In Stichproben enthielten etwa ein Drittel der Chatbot-Antworten Narrative aus diesem Netzwerk, ohne diese als solche zu kennzeichnen.
Überzeugungskraft als Risiko
Psychologische Wirkung
Große Sprachmodelle (LLMs) wie ChatGPT sind nicht nur in der Lage, korrekte Informationen zu liefern – sie können diese auch in einer Weise präsentieren, die besonders einnehmend ist. Die Kombination aus ruhiger Sprache, logischer Argumentation und vermeintlicher Objektivität führt dazu, dass Aussagen von KI-Systemen häufig weniger hinterfragt
