top of page
uintent Firmenlogo

AI & UXR, HUMAN VS AI, LLM, TRENDS, UX METHODS, PERSONAS

Künstliche Nutzer, echte Erkenntnisse? Wie generative Agenten das UX-Feld verändern könnten

3

MIN

26. Juni 2025

Was wäre, wenn wir Nutzer:innen simulieren könnten – glaubhaft, differenziert, jederzeit verfügbar? Wenn wir Interviews führen könnten, ohne zu rekrutieren?  Wenn wir Feedback auf Prototypen erhielten, noch bevor jemand den Prototyp gesehen hat? 


Diese Fragen klingen nach Science-Fiction – aber genau in diese Richtung bewegt sich die aktuelle Forschung rund um generative Agenten. Ein Trend, der auch in der Welt von UX & User Research zunehmend an Bedeutung gewinnt. 

 

Was ist Generative Agent-Based Modeling (GABM)? 

Generative Agent-Based Modeling, kurz GABM, verbindet zwei Entwicklungen: 

  1. Agentenbasierte Modellierung (ABM) – das sind Simulationen, bei denen einzelne Einheiten (Agenten) einfache Regeln befolgen und durch ihre Interaktionen komplexe Phänomene erzeugen. Das kennt man z. B. aus Stadtplanung, Verkehrsmodellen oder Epidemieforschung. 

  2. Generative KI (LLMs) – z. B. ChatGPT, Claude oder Gemini – Systeme, die Text generieren, Fragen beantworten oder sich wie Menschen verhalten können. 

 

In klassischen ABMs definieren Modellierer:innen die Entscheidungslogik. In GABM jedoch trifft ein Large Language Model diese Entscheidungen – auf Basis von Sprache, Kontext und Persönlichkeit. Der Agent wird dadurch generativ: Er entscheidet nicht nach festen Regeln, sondern situativ, kontextsensitiv, manchmal überraschend menschlich. 

 

Forschung trifft Realität 

Zwei wissenschaftliche Arbeiten geben derzeit den Ton an: 

  • 🧪 Virginia Tech (Ghaffarzadegan et al., 2024) zeigt, wie man mithilfe von GPT soziale Systeme modelliert – z. B. wie sich soziale Normen in Organisationen ausbreiten. Das LLM wird Teil eines Entscheidungsprozesses im Modell: Agenten lesen morgens eine „Nachricht“ über den Pandemiestatus und entscheiden dann via ChatGPT, ob sie zur Arbeit gehen oder zu Hause bleiben. 

  • 🧑‍🤝‍🧑 Stanford (Park et al., 2024) hat über 1.000 reale Menschen interviewt, daraus generative Agenten gebildet und dann geprüft, wie gut diese Agenten die Einstellungen, Werte und Verhaltensweisen der realen Menschen vorhersagen können. Ergebnis: beeindruckende Übereinstimmungen, teilweise auf dem Niveau der Selbstkonsistenz echter Personen zwei Wochen später. 

 

Und was hat das mit UX zu tun? 

Ziemlich viel. Denn was diese Studien zeigen, ist Folgendes: Wir können heute realistisch simulierte Menschen erzeugen – mit psychologischem Profil, Hintergrundgeschichte, Verhaltenslogik – und sie in unterschiedlichste Situationen bringen. 

In der UX-Welt sind das z. B.: 

  • Prototyp-Tests 

  • Persona-Validierung 

  • Frühe Hypothesenbildung 

  • Simulierte Interviews 

  • Konzeptreaktionen 

 

Erste Tools und Ansätze im UX-Kontext 

Hier eine Auswahl von Tools und Methoden, die heute schon verfügbar oder im Entstehen sind: 

 

Generative Personas mit LLMs 

Diese Tools erzeugen individuelle, glaubwürdig wirkende Nutzer:innen – oft auf Basis von Zielgruppensegmenten, Interviewdaten oder Prompt-Bausteinen: 

  • UXPin Persona AI: Generiert dynamische Personas mit Zielen, Ängsten und Verhaltensweisen. 

  • ChatGPT mit Prompt-Vorlagen: Durch strukturierte Prompts lassen sich auf Knopfdruck Personas erzeugen („Erstelle eine 35-jährige Mutter mit geringer Technikaffinität, die eine Banking-App nutzt“). 

  • Fictive Kin's Synthetic Users: Open-Source-Ansatz zur Erzeugung von KI-basierten Testpersonen. 


🟢 Nützlich für: Ideenfindung, Team-Alignment, Workshop-Simulationen 

🔴 Einschränkungen: oft generisch, abhängig vom Prompting, keine echten Daten 

 

Simulierte Usability-Tests 

Einige experimentelle Tools versuchen, das Verhalten von Nutzer:innen direkt zu simulieren – z. B. wie sie durch eine App navigieren oder auf UI-Elemente reagieren: 

  • Figma Plug-ins mit GPT: Agent „klickt“ sich durch Screens, kommentiert Verständlichkeit. 

  • SimulAItor (Forschung): GPT-basierte Agenten analysieren Prototypen und geben Verbesserungsvorschläge. 

  • Forethought AI: Kombiniert historische UX-Daten mit prädiktiven LLMs. 

🟢 Nützlich für: Frühes Design-Feedback, Verständlichkeitsprüfung 

🔴 Einschränkungen: Keine realen kognitiven Prozesse oder motorischen Interaktionen 

 

AI als Interviewpartner:in 

LLMs können so trainiert werden, dass sie sich wie Nutzer:innen verhalten – inkl. Antworten auf Leitfragen, Spontanreaktionen und Follow-ups. 

  • AI-basierte Interview-„Bots“: Spielen realistische Gesprächssituationen nach. 

  • KI-Coaching für UX Researcher: Interviewtraining mit simulierten Zielgruppen. 

  • OpenPrompt-Projekte: Sammlung von Prompts für spezifische Zielgruppenverhalten. 


🟢 Nützlich für: Interviewtraining, Leitfaden-Validierung, schnelle Reaktionsszenarien 

🔴 Einschränkungen: Emotionale Tiefe und situative Kontextualisierung noch begrenzt 

 

Verhaltenssimulation mit Agentennetzwerken 

Ähnlich wie bei GABM werden hier nicht Einzelpersonen simuliert, sondern ganze Gruppen – z. B. um Netzwerkdynamiken, Meinungsänderung oder Feature-Adoption zu beobachten. 

  • Marktdiffusions-Modelle mit GPT-Agenten (z. B. in Python, NetLogo oder AnyLogic): Wie verbreitet sich ein neues Feature in einer Nutzerbasis? 

  • AI-Simulationen für Service Design: Simulierte Kund:innen reagieren auf unterschiedliche Touchpoints. 


🟢 Nützlich für: strategische UX-Entscheidungen, Feature-Rollout-Planung 

🔴 Einschränkungen: Hohe Komplexität, erfordert gute Modellierungskenntnisse 

 

Zwischenfazit: Keine Konkurrenz, sondern Ergänzung 

Wird generative KI UX Research ersetzen? Nein. Wird sie es erweitern, beschleunigen, vielleicht auch zugänglicher machen? Ja, absolut. 

Diese Tools sind keine Alternative zu echten Nutzer:innen, aber sie sind ein wertvoller Baustein: 

  • Für Phasen, in denen keine echten Interviews möglich sind. 

  • Für frühe Explorationen, wenn es noch keine konkreten Hypothesen gibt. 

  • Für Diskussionen im Team, wenn man sich dem Nutzerbild nähern will. 

 

Ausblick: Was jetzt schon geht – und was (bald) kommt 

🔍 Du kannst heute schon: 

  • mit generativen Personas brainstormen 

  • Interviewfragen an simulierte Nutzer:innen testen 

  • erste Reaktionen auf Prototypen von synthetischen „Usern“ erhalten 

🚀 Bald möglich: 

  • automatisierte UX-Tests mit simulierten Nutzern 

  • „lebendige“ Personas, die sich weiterentwickeln 

  • virtuelle Fokusgruppen mit unterschiedlichen Agententypen 

 

Fazit: Jetzt ist der richtige Moment zum Einsteigen 

Für uns UX-Menschen ist es der perfekte Zeitpunkt, sich spielerisch und kritisch mit diesem Thema auseinanderzusetzen. Wer heute ein bisschen ausprobiert, versteht morgen, was diese Technologie kann – und was nicht. Und vor allem: was sie im eigenen Kontext nützen kann. 


Denn am Ende geht es wie immer darum: Menschen besser zu verstehen, Entscheidungen zu verbessern – und die richtige Balance aus Empirie, Empathie und Effizienz zu finden. 


Ein:e Schiedsrichter:in hält eine Bewertungstafel mit der Aufschrift „Yupp.ai“ zwischen zwei stilisierten KI-Chatbots in einem Boxring hoch – Symbolbild für den fairen Vergleich von KI-Modellen durch Nutzer:innen.

Wie Yupp Feedback nutzt, um KI-Modelle fair zu bewerten – und was UX-Profis daraus lernen können

AI & UXR, CHAT GPT, HUMAN VS AI, LLM

3D-Illustration eines digitalen Marktplatzes mit bunten Marktständen voller Prompt-Karten und einer Figur, die einen Prompt auswählt.

Prompts kaufen, teilen, verkaufen – was Prompt-Marktplätze heute leisten (und warum das für UX relevant ist)

AI & UXR, PROMPTS

Roboter hält zwei Schilder hoch: „ISO 9241 – 7 Prinzipien“ und „ISO 9241 – 10 Prinzipien“.

ChatGPT halluziniert – trotz Anti-Halluzinations-Prompt

AI & UXR, HUMAN VS AI, CHAT GPT

Erdbeere wird von einem Messer halbiert, stilisierte Illustration.

Warum KI manchmal nicht bis 3 zählen kann – und was das mit Tokens zu tun hat

AI & UXR, TOKEN, LLM

Quadratisches, in der Mitte geteiltes Motiv: Links ein graues, stilisiertes Gehirn über einer sitzenden Person am Laptop in dunklen Grautönen; rechts ein leuchtend blaues, vernetztes Gehirn über einer stehenden Person vor einem holografischen Interface auf dunklem Hintergrund.

GPT-5 ist da: Verändert diese UX AI wirklich alles für Researcher:innen?

AI & UXR, CHAT GPT

Surreales KI-Bild mit Datenströmen, durchgestrichenem „User Expirince“ und dem Text „ChatGPT kann jetzt Text in Bild“.

Wenn KI Bilder malt und plötzlich richtig schreiben kann

AI & UXR, CHAT GPT, HUMAN VS AI

Mensch und KI arbeiten gemeinsam an einem leuchtenden Baum auf dem Bildschirm, umgeben von dunkler, surrealer Atmosphäre.

Wenn der Text zu glatt ist: Wie man KI-Sprache menschlicher macht

AI & UXR, AI WRITING, CHAT GPT, HUMAN VS AI

Futuristische Illustration: Mensch blickt auf leuchtende, humanoide KI vor digitalem Hintergrund.

Kein Science Fiction – KI macht sich selbstständig

AI & UXR, CHAT GPT

Illustration einer KI, die mit einem Menschen kommuniziert, symbolisch für die Überzeugungskraft künstlicher Intelligenz.

Zwischen Argument und Einfluss – Wie überzeugend darf KI sein?

AI & UXR, CHAT GPT, LLM

Eine zweidimensionale Comic Frau steht vor einem menschengroßen Handy, auf dem Gesundheitsapps zu sehen sind. Rechts von ihr steht ein Kasten mit einem Computer drauf, auf dem ein EKG zu sehen ist.

Digital Health Apps & Interfaces: Warum gute UX entscheidet, ob Patienten wirklich profitieren

HEALTHCARE, MHEALTH, TRENDS, UX METHODS

Illustration einer roten Hand, die symbolisch „Censorship“ über „User Privacy“ bei DeepSeek priorisiert; im Hintergrund die chinesische Flagge.

Zensur trifft KI: Was DeepSeek über Menschenrechte verschweigt – und warum das UX betrifft

AI & UXR, LLM, OPEN AI

Illustration im isometrischen Flat Design zeigt eine vernetzte, internationale UX-Studienlogistik mit Paketen, Checkliste, Videokonferenzen und Positionsmarkierungen auf einer Weltkarte.

Die Voraussetzungen für den Erfolg: Globale Studie zur Logistik in der UX-Forschung für medizinische Geräte

HEALTHCARE, UX METHODS, UX LOGISTICS

Surreale, leuchtende Illustration eines KI-Sprachmodells als Gehirn, das von einer Hand beeinflusst wird – symbolisiert Manipulation durch externe Kräfte.

Propaganda Chatbots - Wenn die KI plötzlich russisch spricht

AI & UXR, LLM

Illustration mit sieben Tieren, die verschiedene Denk- und Prompt-Stile in der UX-Arbeit symbolisieren.

Willkommen im Prompt-Zoo

AI & UXR, PROMPTS, UX

Ein zwei dimensionales Bild von einem Mann, der an einem Schreibtisch mit geöffnetem Laptop sitzt, auf dem ein Gesundheitssymbol zu sehen ist. Im Hintergrund hängt ein Plakat mit einem DNA-Strang.

UX Regulatory Compliance: Warum Usability für Zulassung in MedTech entscheidend ist

HEALTHCARE, REGULATIONS

Illustration einer Glühbirne mit abstrakten Symbolen wie Fragezeichen, Wolke, Sprechblase und Kreuz – symbolisiert kreative Ideen und kritisches Denken.

Warum Prompts, die Bias und Halluzinationen produzieren, manchmal hilfreich sein können

AI & UXR, CHAT GPT, HUMAN VS AI, OPEN AI

Illustration eines Mannes am Laptop, umgeben von Symbolen für globale medizinische Forschung: Weltkarte mit Standortmarkierungen, Monitor mit Kreuzsymbol, Patientenakte und Stethoskop.

Global UX Research in Medical Technology: Internationale Nutzerforschung als Erfolgsfaktor

HEALTHCARE, MHEALTH, REGULATIONS

Abstrakte, pastellfarbene Illustration mit einer stilisierten Gehirnform und geometrischen Formen – Sinnbild für KI und Verzerrungen.

KI, Bias und die Macht der Frage: Wie Du mit klugen Prompts bessere Antworten bekommst

AI & UXR, CHAT GPT

Eine Frau in einem Zahnrad ist umgeben von Symbolen für globale Vernetzung, Zusammenarbeit, Innovation und Nutzerzentrierung – verbunden durch Pfeile. Sanfte, helle Farben aus einer modernen UI-Farbpalette.

UX automatisieren? Ja bitte! Warum Zapier und n8n für UX-Teams echte Supertools sind

CHAT GPT, TOOLS, AUTOMATION, AI & UXR

Ein 2D Bild von einem Mann in weißem Kittel, der auf einen Bildschirm zeigt, auf dem ein OP-Roboterarm zu sehen ist.

Surgical Robotics und UX: Warum Benutzerfreundlichkeit den OP-Erfolg mitbestimmt

HEALTHCARE, TRENDS, UX METHODS

 VERWANDTE ARTIKEL DIE SIE INTERESSIEREN KÖNNTEN 

AUTHOR

Tara Bosenick

Tara ist seit 1999 als UX-Spezialistin tätig und hat die Branche in Deutschland auf Agenturseite mit aufgebaut und geprägt. Sie ist spezialisiert auf die Entwicklung neuer UX-Methoden, die Quantifizierung von UX und die Einführung von UX in Unternehmen.


Gleichzeitig war sie immer daran interessiert, in ihren Unternehmen eine möglichst „coole“ Unternehmenskultur zu entwickeln, in der Spaß, Leistung, Teamgeist und Kundenerfolg miteinander verknüpft sind. Seit mehreren Jahren unterstützt sie daher Führungskräfte und Unternehmen auf dem Weg zu mehr New Work / Agilität und einem besseren Mitarbeitererlebnis.


Sie ist eine der führenden Stimmen in der UX-, CX- und Employee Experience-Branche.

bottom of page