top of page
uintent Firmenlogo

PROMPTS, RESEARCH, UX, UX INSIGHTS

System Prompts in UX Research: Was du über die unsichtbare KI-Steuerung wissen musst


12

MIN

12. Feb. 2026

Stell dir vor: Zwei UX-Research-Teams analysieren dieselben Interview-Transkripte. Team A nutzt ChatGPT, Team B arbeitet mit Claude. Die Ergebnisse? Völlig unterschiedlich. Team A präsentiert strukturierte Insights in übersichtlichen Tabellen. Team B liefert narrative Synthesen in Fließtext. Beide Teams sind überzeugt, die "wahren" Erkenntnisse gefunden zu haben.


Das Problem liegt nicht in der Kompetenz der Researcher:innen – sondern in den System Prompts der KI-Tools. Diese unsichtbaren Steuerungsmechanismen beeinflussen, wie KI deine Research-Daten interpretiert, strukturiert und präsentiert. Und die meisten von uns haben keine Ahnung, dass sie existieren.


In diesem Artikel zeige ich dir, was System Prompts sind, wie stark sie sich zwischen verschiedenen KI-Modellen unterscheiden und welche konkreten Auswirkungen das auf deine UX-Research hat. Nach fast 25 Jahren als UX-Beraterin habe ich in den letzten zwei Jahren intensiv mit verschiedenen KI-Tools experimentiert – und dabei festgestellt, dass wir als Research-Community dringend über diese Thematik sprechen müssen.


📌 Das Wichtigste in Kürze:

• System Prompts steuern KI-Verhalten unsichtbar – du siehst nur die Ergebnisse, nicht die Anweisungen dahinter

• Claudes System Prompt ist 7,5-mal länger als ChatGPTs – das führt zu fundamental unterschiedlichem Verhalten

• Verschiedene Tools haben verschiedene Biases – Claude vermeidet Listen, ChatGPT liebt Tabellen

• Deine Research-Ergebnisse werden beeinflusst – ohne dass du es merkst oder kontrollieren kannst

• User-definierte Prompts sind dein wichtigstes Gegenmittel – Custom Instructions helfen dir, die Kontrolle zurückzugewinnen

• Dokumentation ist Pflicht – welches Tool du wann und warum nutzt, muss nachvollziehbar sein

• Multi-Tool-Validierung erhöht Qualität – kritische Analysen solltest du mit mindestens zwei verschiedenen Modellen durchführen


Was sind System Prompts überhaupt ?

Wenn du mit ChatGPT, Claude oder anderen KI-Tools arbeitest, gibt es zwei völlig verschiedene Arten von Anweisungen:


Deine User-Prompts sind das, was du ins Chat-Fenster tippst: "Analysiere diese Interview-Transkripte und identifiziere die wichtigsten Pain Points." Diese Prompts sind sichtbar, bewusst und unter deiner Kontrolle.


System Prompts hingegen sind Anweisungen, die der Anbieter (Anthropic, OpenAI, Google) dem Modell gibt, bevordu überhaupt anfängst zu tippen. Sie definieren die grundlegende "Persönlichkeit", Verhaltensweisen und Einschränkungen der KI. Und sie sind für dich als Nutzerin komplett unsichtbar.


Die Schauspieler-Analogie

Stell dir vor, die KI ist ein:e Schauspieler:in:

  • Der System Prompt ist das Drehbuch plus alle Regieanweisungen ("Du spielst eine höfliche, hilfsbereite Assistentin, die niemals Listen in narrativen Texten verwendet")

  • Dein User-Prompt ist der Dialog, den andere Charaktere (also du) mit dieser Figur führen


Die Schauspielerin kann nur innerhalb der Rolle agieren, die ihr das Drehbuch vorgibt – selbst wenn du als Nutzerin etwas völlig anderes möchtest.


Warum sind System Prompts meist unsichtbar?

Es gibt mehrere Gründe, warum Anbieter ihre System Prompts nicht veröffentlichen:


Geschäftsgeheimnisse: Die Prompts sind Teil des Wettbewerbsvorteils. Wie genau Anthropic Claude "trainiert" hat, höflich aber nicht übertrieben schmeichelhaft zu sein, ist wertvolles Know-how.


Sicherheit: Wenn Menschen die genauen Anweisungen kennen, könnten sie gezielt versuchen, diese zu umgehen ("Jailbreaking").


User Experience: Die meisten Nutzer:innen würden von 16.000 Wörtern technischer Anweisungen eher verwirrt als informiert werden.


Vermeidung von Manipulation: Wenn du genau weißt, wie die KI programmiert ist, könntest du deine Fragen so formulieren, dass sie die gewünschte Antwort liefert – unabhängig davon, ob sie korrekt ist.


User-definierte Prompts: Was du selbst steuern kannst

Bevor wir tiefer in die unsichtbaren System Prompts eintauchen, noch ein wichtiger Hinweis: Du bist nicht völlig machtlos.


Die meisten KI-Tools bieten mittlerweile Möglichkeiten, eigene Anweisungen zu definieren:

  • ChatGPT: "Custom Instructions" in den Einstellungen

  • Claude: "Project Instructions" oder direkt im Chat

  • Gemini: "Personalisierung" in den Einstellungen


Diese user-definierten Prompts sind transparent, kontrollierbar und sollten dein wichtigstes Werkzeug sein, um die Kontrolle über KI-unterstützte Research zu behalten. Dazu später mehr.


Konkrete Unterschiede zwischen den Modellen – und warum sie relevant sind

Dank geleakter System Prompts (verfügbar in öffentlichen GitHub-Repositories) wissen wir mittlerweile ziemlich genau, wie unterschiedlich die großen Anbieter ihre Modelle instruieren. Die Unterschiede sind erheblich – und haben direkte Auswirkungen auf deine Research-Arbeit.


1. Länge und Komplexität: Das Ausmaß der Steuerung

Claudes System Prompt umfasst 16.739 Wörter (110 KB). Das entspricht etwa 60 Seiten Text – ein kleines Handbuch voller Verhaltensregeln.


ChatGPTs o4-mini System Prompt hat dagegen nur 2.218 Wörter (15,1 KB) – also gerade mal 13% der Länge von Claude.


Was bedeutet das für dich? Claude hat wesentlich detailliertere Anweisungen zu spezifischen Situationen. Das kann zu vorhersehbarerem, aber auch starrer wirkendem Verhalten führen. ChatGPT ist flexibler, kann aber auch inkonsistenter reagieren.


2. Der Schmeichelei-Blocker: Wie Lob gefiltert wird

Claude 4 wurde explizit angewiesen: "Starte niemals mit positiven Adjektiven wie 'gut', 'großartig', 'faszinierend' oder 'ausgezeichnet'. Überspringe die Schmeicheleien und antworte direkt."


Diese Anweisung war eine direkte Reaktion auf ChatGPTs GPT-4o, das dazu neigte, jede Nutzerfrage übermäßig zu loben ("Das ist eine wirklich faszinierende Frage!").


Warum ist das für UX Research relevant?

Wenn du Interview-Transkripte analysieren lässt und nach emotionalen Nuancen suchst, könnte Claude positive Aussagen systematisch herunterspielen. Sätze wie "Das finde ich wirklich großartig an eurem Produkt" könnten in der Synthese weniger Gewicht bekommen als bei ChatGPT – einfach weil Claude darauf trainiert wurde, Lob zu überspringen.


3. Formatierung: Listen vs. Fließtext

Claude wird angewiesen: "Für Berichte, Dokumente und technische Dokumentationen schreibe in Prosa und Absätzen ohne Listen. Die Prosa darf niemals Aufzählungszeichen, nummerierte Listen oder übermäßig fetten Text enthalten."


ChatGPT hingegen tendiert stark zu strukturierten Formaten – selbst einfache Fragen werden oft in Tabellenform beantwortet.


Praxis-Beispiel aus meiner Arbeit:

Ich habe denselben Auftrag beiden Tools gegeben: "Fasse die wichtigsten Erkenntnisse aus diesen 15 Nutzerinterviews zusammen."


Claude lieferte drei gut lesbare Absätze in narrativer Form. ChatGPT präsentierte eine Tabelle mit Kategorien, Häufigkeiten und direkten Zitaten.


Beide Formate haben Vor- und Nachteile – aber für Stakeholder-Präsentationen macht es einen enormen Unterschied, welches Format du verwendest. Und dieser Unterschied kommt nicht von dir, sondern vom System Prompt.


4. Design-Bias: Modern vs. Neutral

Claude hat explizite Design-Anweisungen: "Tendiere zu zeitgenössischen Design-Trends und modernen ästhetischen Entscheidungen. Berücksichtige, was in aktuellem Webdesign cutting-edge ist (Dark Modes, Glassmorphismus, Mikroanimationen, 3D-Elemente, mutige Typografie, lebendige Farbverläufe). Statische Designs sollten die Ausnahme sein."


ChatGPT hat keine vergleichbar spezifischen Design-Vorgaben.


Warum das problematisch ist:

Wenn du Design-Feedback aus Usability-Tests analysierst und ein User sagt: "Ich finde die Oberfläche zu unruhig, ich bevorzuge klassische Buttons", könnte Claude dieses Feedback als weniger wichtig einstufen – weil es gegen die einprogrammierte Präferenz für "mutige" und "cutting-edge" Designs verstößt.

Bei der Persona-Entwicklung könnten konservative Nutzer:innen-Segmente systematisch unterrepräsentiert werden.


5. Such-Verhalten: Proaktiv vs. Zurückhaltend

In neueren Versionen wird Claude ermutigt, sofort zu suchen, wenn nötig – ohne vorher um Erlaubnis zu fragen. Das ist eine Änderung gegenüber früheren Versionen und zeigt, dass Anthropic mehr Vertrauen in sein Such-Tool hat.

Andere Modelle sind tendenziell zurückhaltender bei der automatischen Web-Suche.


Für Research bedeutet das:

Claude könnte bei der Analyse von Nutzer-Aussagen eher externe Quellen hinzuziehen (z.B. aktuelle UX-Best-Practices oder Statistiken), während andere Tools sich stärker auf die vorliegenden Daten beschränken.


6. Persönlichkeit und Tonalität

Die verschiedenen Modelle haben unterschiedliche "Grundtemperamente":

  • Claude: Warm, menschlich, eher empathisch

  • GPT-4: Neutral, sachlich, manchmal robotisch wirkend

  • Mistral: Professionell, kurz, direkt

  • Gemini: Faktenorientiert, objektiv, zurückhaltend


Praxis-Auswirkung:

Für empathie-getriebene Interview-Analysen ("Was sind die emotionalen Treiber hinter diesem Verhalten?") tendiere ich zu Claude. Für quantitative Daten-Synthesen ("Wie verteilen sich die Pain Points über die Nutzer:innen-Segmente?") bevorzuge ich ChatGPT.


Diese Tool-Auswahl ist aber eine methodische Vorentscheidung, die ich dokumentieren muss – genau wie ich dokumentieren würde, ob ich qualitative oder quantitative Methoden verwende.


Was bedeutet das für deine UX Research?

Problem 1: Methoden-Validität ist gefährdet

Die wissenschaftliche Qualität von Research steht und fällt mit der Reproduzierbarkeit und Nachvollziehbarkeit der Methoden. Wenn unsichtbare System Prompts deine Ergebnisse beeinflussen, ohne dass du es merkst oder kontrollieren kannst, ist beides gefährdet.


Konkrete Szenarien:

Szenario A: Formatierungs-Bias Du analysierst Usability-Test-Ergebnisse. Claude fasst die Insights in Fließtext zusammen, ChatGPT erstellt eine Tabelle. Deine Stakeholder bekommen unterschiedliche Eindrücke davon, wie strukturiert und "valide" deine Erkenntnisse sind – einfach wegen der Darstellung.


Szenario B: Design-Präferenz-Bias Bei der Auswertung von Design-Feedback gewichtet Claude moderne, mutige Vorschläge höher als konservative. Du präsentierst "die wichtigsten Insights" – aber in Wirklichkeit sind es nur die Insights, die zu Claudes Design-Präferenzen passen.


Szenario C: Schmeichelei-Filter Du lässt positive Nutzer-Zitate zusammenfassen. Claude überspringt Lob systematisch, weil es darauf trainiert wurde, Schmeicheleien zu vermeiden. In deiner Synthese erscheinen positive Stimmen weniger prominent als negative – nicht weil die Daten das hergeben, sondern weil der System Prompt es so vorgibt.


Das Kern-Problem: Du verlierst die Kontrolle über einen kritischen Teil deiner Methodik, ohne es zu merken.


Problem 2: Tool-Auswahl als methodische Entscheidung

In meiner Arbeit habe ich folgende Faustregel entwickelt:


Research-Aufgabe

Potenziell besseres Tool

Grund

Empathie-getriebene Interview-Analyse

Claude

Wärmerer, menschlicherer Ton

Quantitative Daten-Synthese

ChatGPT

Strukturierte Formate, Tabellen

Compliance-kritische Dokumentation

Claude

Stärkerer Fokus auf Sicherheit

Schnelle explorative Analysen

Mistral

Kürzere, direktere Antworten


Aber: Diese Tabelle ist keine neutrale Empfehlung. Sie ist eine methodische Vorentscheidung, die du transparent machen musst.


Wenn du in deinem Research-Report schreibst "Ich habe die Interviews mit Claude analysiert", solltest du auch erklären, warum – und welche potentiellen Biases das mit sich bringt.


Das machen aktuell die wenigsten. Dabei würden wir das bei jeder anderen methodischen Entscheidung auch tun ("Ich habe qualitative Interviews statt quantitative Umfragen gemacht, weil...").


Problem 3: Qualitative Forschung ist besonders verletzlich

Bei quantitativen Daten (Zahlen, Statistiken, Klickraten) ist der Einfluss von System Prompts meist geringer. Zahlen bleiben Zahlen.


Bei qualitativer Forschung – wo es um Nuancen, Kontext und Mehrdeutigkeiten geht – können System Prompts massive Auswirkungen haben:


Theme-Erkennung: ChatGPT wird angewiesen, "diverse, inklusive und explorative Szenarien" zu schaffen. Das ist grundsätzlich positiv – könnte aber dazu führen, dass Diversity-bezogene Themen in deiner Analyse überbetont werden, während andere Aspekte untergehen.


Sentiment-Analyse: Wenn Claude Schmeicheleien überspringt, könnten positive Sentiment-Signale systematisch unterschätzt werden. Deine "objektive" Sentiment-Analyse wäre dann verzerrt – ohne dass du es bemerkst.


Persona-Entwicklung: Wenn Claude moderne, mutige Designs favorisiert, könnten konservative Nutzer:innen-Segmente in deinen Personas unterrepräsentiert sein. Du denkst, du hast die "typischen User" abgebildet – dabei hast du nur die User abgebildet, die zu Claudes Präferenzen passen.


Problem 4: Datenschutz und Verantwortung

Datenschutz-Unterschiede:

Anthropic nutzt Nutzer-Interaktionen nicht automatisch fürs Training – außer du entscheidest dich aktiv dafür (Opt-in). Interessanterweise gilt das Bewerten von Antworten (Thumbs up/down) bereits als Opt-in.


ChatGPT hat andere Policies – je nach Abo-Modell und Region.

Wenn du sensible Research-Daten (z.B. Interviews aus dem Healthcare-Bereich) analysierst, ist das ein kritischer Unterschied.


Bias-Verantwortung:

Wenn deine Research-Insights von unsichtbaren System-Prompt-Biases beeinflusst sind – wer trägt dann die Verantwortung?


  • Du als Researcher:in, weil du das Tool gewählt hast?

  • Das Tool, weil es die Biases eingebaut hat?

  • Der Anbieter, weil er die System Prompts definiert hat?


Diese Frage ist nicht geklärt – und sie wird immer relevanter, je mehr wir uns auf KI-gestützte Research-Methoden verlassen.


Praktische Handlungsempfehlungen: So behältst du die Kontrolle

Die gute Nachricht: Du bist dem nicht hilflos ausgeliefert. Es gibt konkrete Strategien, um die Kontrolle über KI-gestützte Research zurückzugewinnen.


1. Nutze user-definierte Prompts als Kontrollmechanismus

Custom Instructions sind deine wichtigste Waffe gegen unsichtbare Biases.


Beispiel einer Research-Persona für Custom Instructions:

Du bist ein UX-Research-Assistent mit folgenden Grundsätzen:

 

DESKRIPTIV, NICHT PRÄSKRIPTIV

- Beschreibe, was in den Daten steht

- Gib keine Design-Empfehlungen, außer ich frage explizit danach

 

TRENNUNG: BEOBACHTUNG VS. INTERPRETATION

- Markiere klar, was direkte Beobachtung ist

- Kennzeichne Interpretationen immer als solche

 

KONFIDENZ-LEVEL

- Sage mir, wie sicher du dir bei jedem Insight bist

- Benenne Datenlücken und Unsicherheiten

 

NEUTRALITÄT

- Keine Präferenz für moderne vs. konservative Designs

- Alle Nutzer-Aussagen gleichwertig behandeln

 

FORMATIERUNG

- Nutze Listen, wenn sie die Klarheit erhöhen

- Nutze Fließtext, wenn Kontext wichtig ist

- Frage mich bei Unsicherheit, welches Format ich bevorzuge


Tool-spezifische Kompensationen:

Bei Claude füge ich oft hinzu:

"Nutze Listen und Aufzählungen, wenn sie die Übersichtlichkeit verbessern. Fließtext ist nicht immer besser."


Bei ChatGPT schreibe ich:

"Vermeide Tabellen bei narrativen Insights. Nicht alles muss strukturiert werden."


2. Multi-Tool-Triangulation für kritische Analysen

Grundregel: Jede Analyse, die wichtige Entscheidungen beeinflusst, solltest du mit mindestens zwei verschiedenen Tools durchführen.


Mein Workflow:

  1. Erste Analyse mit meinem Standard-Tool (meist Claude, weil ich den Ton mag)

  2. Zweite Analyse mit ChatGPT zur Gegenprüfung

  3. Abgleich: Wo stimmen die Ergebnisse überein? Wo weichen sie ab?

  4. Interpretation: Warum könnten die Abweichungen entstanden sein? Welche Tool-Biases spielen eine Rolle?

  5. Synthese: Erstelle finale Insights basierend auf beiden Analysen


Ja, das ist mehr Aufwand. Aber bei wichtigen Research-Projekten ist diese zusätzliche Validierung die Zeit wert.


3. Etabliere ein Research-Protokoll

Dokumentation ist in der Research schon immer wichtig gewesen – bei KI-gestützter Research wird sie essentiell.


Beispiel-Template:

RESEARCH-LOG: [Projekt-Name]

 

TOOL-AUSWAHL

- Primäres Tool: Claude Sonnet 4

- Sekundäres Tool (Validierung): ChatGPT 4

 

CUSTOM INSTRUCTIONS VERWENDET

- Research-Persona (siehe oben)

- Spezielle Anweisungen: "Behandle alle Design-Präferenzen gleichwertig"

 

BEKANNTE TOOL-BIASES

- Claude: Präferenz für moderne Designs, keine Listen in Prosa, überspringt Schmeicheleien

- ChatGPT: Tendenz zu Tabellen und strukturierten Formaten

 

KONTROLLMASSNAHMEN

- Kritische Insights mit beiden Tools validiert

- Positive Nutzer-Aussagen manuell auf Unterrepräsentation geprüft

- Design-Feedback gegen Roh-Daten abgeglichen

 

ABWEICHUNGEN ZWISCHEN TOOLS

- [Dokumentiere konkrete Unterschiede in den Ergebnissen]

- [Interpretation: Warum könnten diese entstanden sein?]

 

FINALE ENTSCHEIDUNG

- [Welche Insights wurden in den finalen Report aufgenommen und warum?]


4. Human-in-the-Loop bleibt essentiell

KI ist ein Werkzeug zur Effizienzsteigerung – kein Ersatz für menschliches Urteilsvermögen.


Mein Workflow:

  1. KI macht erste Synthese (schneller Überblick)

  2. Ich validiere gegen Roh-Daten (Stichproben aus den Transkripten)

  3. Kritische Interpretation durch mich (Kontext, der der KI fehlt)

  4. KI hilft bei Formulierung (finale Insights ausformulieren)


Die KI beschleunigt den Prozess – aber die kritischen Entscheidungen treffe ich.


5. Transparenz gegenüber Stakeholdern

Kommuniziere KI-Nutzung offen:

Schwache Formulierung:

"Wir haben die User-Interviews analysiert und folgende Insights identifiziert..."


Bessere Formulierung:

"Wir haben die User-Interviews mit Unterstützung von Claude 4 analysiert. Um Tool-spezifische Biases zu minimieren, haben wir kritische Insights zusätzlich mit ChatGPT validiert und stichprobenartig gegen die Original-Transkripte geprüft. Die finalen Insights basieren auf dieser Multi-Tool-Validierung."


Das schafft Vertrauen und zeigt methodische Sorgfalt.


6. Entwickle ein team-weites KI-Tool-Profil

In meinem Team haben wir ein gemeinsames Dokument, das wir regelmäßig aktualisieren:


"KI-Tools in UX Research: Stärken, Schwächen, Best Practices"


Darin dokumentieren wir:

  • Welches Tool eignet sich für welche Research-Aufgabe?

  • Welche bekannten Biases hat jedes Tool?

  • Welche Custom Instructions haben sich bewährt?

  • Lessons Learned aus vergangenen Projekten


Das Dokument ist ein lebendes Artefact – wir lernen ständig dazu und passen unsere Praktiken an.


Checkliste: KI-gestützte UX Research verantwortungsvoll durchführen


✅ Vor dem Research

  • [ ] Tool-Auswahl dokumentieren und begründen

  • [ ] Custom Instructions für den Research-Kontext definieren

  • [ ] Bekannte Tool-Biases identifizieren

  • [ ] Datenschutz-Compliance prüfen (besonders bei sensiblen Daten)

  • [ ] Entscheiden: Single-Tool oder Multi-Tool-Validierung?


✅ Während des Research

  • [ ] Bei kritischen Analysen: Multi-Tool-Vergleich durchführen

  • [ ] Research-Log führen (Tool, Biases, Kontrollmaßnahmen)

  • [ ] KI-Output immer gegen Roh-Daten validieren (Stichproben)

  • [ ] Unsicherheiten und Interpretationen klar markieren

  • [ ] Abweichungen zwischen Tools dokumentieren


✅ Nach dem Research

  • [ ] Methodik transparent dokumentieren

  • [ ] Tool-Einfluss auf Ergebnisse reflektieren

  • [ ] Stakeholder über KI-Nutzung informieren

  • [ ] Learnings für zukünftige Projekte festhalten

  • [ ] Team-Knowledge-Base aktualisieren


Häufige Fragen

Muss ich bei jeder Research-Aufgabe mehrere Tools nutzen?

Nein. Bei explorativen Analysen oder internen Zwischenberichten reicht meist ein Tool. Bei wichtigen Entscheidungen (z.B. strategische Produkt-Pivots basierend auf Research) solltest du aber Multi-Tool-Validierung einsetzen.


Wie finde ich heraus, welche System Prompts ein Tool nutzt?

Die offiziellen System Prompts sind meist nicht veröffentlicht. Es gibt aber geleakte Versionen auf GitHub (z.B. Repository "system_prompts_leaks"). Diese sind nicht immer aktuell, geben aber einen guten Eindruck von den Unterschieden.


Sind Custom Instructions genug, um Tool-Biases zu kompensieren?

Teilweise. Custom Instructions helfen, aber sie können nicht alle System-Prompt-Effekte überschreiben. Daher ist Multi-Tool-Validierung bei kritischen Analysen trotzdem sinnvoll.


Welches Tool ist "am besten" für UX Research?

Es gibt kein "bestes" Tool – nur Tools, die für spezifische Aufgaben besser geeignet sind. Claude hat Vorteile bei empathie-getriebener Analyse, ChatGPT bei strukturierten Daten-Synthesen. Die Tool-Auswahl sollte zur Research-Aufgabe passen.


Darf ich KI-Tools bei DSGVO-sensiblen Daten nutzen?

Das hängt vom Tool und deinem Use-Case ab. Anthropic bietet beispielsweise Enterprise-Versionen mit DSGVO-Compliance. Bei sensiblen Daten solltest du mit deiner Rechtsabteilung die spezifischen Tools und deren Datenschutz-Policies prüfen.


Fazit: KI-Tools sind Werkzeuge – behandle sie als solche

System Prompts sind die unsichtbare Hand, die KI-gestützte Research steuert. Sie beeinflussen, wie Tools deine Daten interpretieren, strukturieren und präsentieren – ohne dass du es siehst oder vollständig kontrollieren kannst.


Die Kernbotschaft:

Unsichtbare System Prompts sind eine Black Box mit Bias-Potenzial. User-definierte Prompts (Custom Instructions) sind dein wichtigstes Kontrollwerkzeug. Behandle KI-Tools wie jedes andere Forschungsinstrument: kritisch, dokumentiert, transparent.


Drei Sofortmaßnahmen für heute:

  1. Definiere deine Research-Persona als Custom Instruction in deinem bevorzugten Tool

  2. Starte ein Research-Log für dein nächstes Projekt (nutze das Template oben)

  3. Probiere Multi-Tool-Validierung bei deiner nächsten wichtigen Analyse


Die KI-Revolution in UX Research ist nicht aufzuhalten – und das ist auch gut so. Aber wir müssen sie verantwortungsvoll gestalten. Das bedeutet: Transparenz über Tool-Nutzung, Bewusstsein für Biases und methodische Sorgfalt.


Je mehr wir als UX-Community über diese Themen sprechen, desto besser werden unsere Praktiken. Teile deine Erfahrungen, experimentiere mit verschiedenen Tools und dokumentiere deine Learnings.


Die besten Research-Insights entstehen nicht, wenn wir KI blind vertrauen – sondern wenn wir sie als das behandeln, was sie ist: ein mächtiges, aber nicht neutrales Werkzeug.


Stand: Februar 2026




Weiterführende Ressourcen

  • GitHub: system_prompts_leaks – Sammlung geleakter System Prompts von ChatGPT, Claude, Gemini

  • Anthropic System Prompt Release Notes – Offizielle Dokumentation zu Claude

  • Simon Willison: "Highlights from the Claude 4 system prompt" – Detaillierte Analyse

  • Fortelabs: "A Guide to the Claude 4 and ChatGPT 5 System Prompts" – Praktischer Vergleich


Hast du Erfahrungen mit KI-Tools in der UX Research? Welche Herausforderungen begegnen dir? Lass uns in den Kommentaren diskutieren.



💌 Noch nicht genug? Dann lies weiter – in unserem Newsletter.

Kommt viermal im Jahr. Bleibt länger im Kopf.  https://www.uintent.com/de/newsletter

Surreale, futuristische Illustration einer Person von hinten in einer leuchtenden digitalen Stadtlandschaft.

System Prompts in UX Research: Was du über die unsichtbare KI-Steuerung wissen musst

PROMPTS, RESEARCH, UX, UX INSIGHTS

Abstrakte futuristische Illustration einer Person, verschiedene Videos und Notizen.

YouTube Video Zusammenfassen Mit KI: Drei Tools Im Ux-Research-Praxistest

LLM, UX, HOW-TO

zwei gefaltete Hände, die eine wachsende Pflanze halten

UX For a Better World: Wir verschenken ein UX-Forschungsprojekt an gemeinnützige Organisationen und nachhaltige Unternehmen!

UX INSIGHTS, UX FOR GOOD, TRENDS, RESEARCH

Abstrakte, futuristische Illustration eines Menschen vor einem leuchtenden Turm aus Dokumenten und Datenströmen.

KI Tools UX Research: Wie gehen diese Tools mit großen Dokumenten um?

LLM, CHAT GPT, HOW-TO

Illustration von Donald Trump mit erhobener Hand vor abstraktem, digitalem Hintergrund, der Sprachblasen und Datenstrukturen andeutet.

Donald Trump Prompt: Wie provokante KI-Prompts UX-Budgets bewegen

AI & UXR, PROMPTS, STAKEHOLDER MANAGEMENT

Blick aus der Fahrerperspektive auf eine kurvige Landstraße, umgeben von grüner Vegetation. Im Vordergrund sind Lenkrad, Armaturenbrett und Rückspiegel zu sehen.

Die letzte Hürde: Wie unsichere Automatisierung das Vertrauen in ADAS bricht

AUTOMATION, AUTOMOTIVE UX, AUTONOMOUS DRIVING, GAMIFICATION, TRENDS

Illustration einer Person an einer Weggabelung mit zwei gleichwertigen Wegen.

Ersetzt KI UX Jobs? Was eine Studie mit 200.000 KI-Konversationen wirklich zeigt

HUMAN VS AI, RESEARCH, AI & UXR

Nahaufnahme eines hochwertigen Hochtöner-Lautsprechers im Armaturenbrett eines Autos mit perforierter Metalloberfläche.

Der Beifahrer, der immer zuhört: Warum wir unseren Autos nur ungern vertrauen, wenn sie sprechen

AUTOMOTIVE UX, VOICE ASSISTANTS

Schlüsselloch in dunkler Oberfläche, das den Blick auf ein abstraktes, farbiges UX-Research-Interface freigibt.

AI Ergebnisse bewerten im UX Research: So navigierst du die Blackbox

AI & UXR, HOW-TO, HUMAN VS AI

Ein von Audi hergestelltes Fahrzeugcockpit. Es verfügt über ein digitales Display und zahlreiche Tasten am Lenkrad.

Haptische Gewissheit vs. digitale Verlockung: Der Kampf um die besten Bedienelemente im Auto

AUTOMOTIVE UX, AUTONOMOUS DRIVING, CONNECTIVITY, GAMIFICATION

Digitale Illustration einer klassischen Gebäudefassade mit Säulen, gestützt von sichtbarem Gerüst, symbolisiert eine fragile, rein oberflächliche Fassade.

UX & AI: Wie „Ux Potemkin“ Deine Research- UND Design-Entscheidungen Untergräbt

AI & UXR, HUMAN VS AI, LLM, UX

Silhouette eines Tauchers, der ruhig in tiefblaues Wasser hinabtaucht – Symbol für tiefgehende Recherche.

Deep Research KI | So nutzt Du ChatGPT sinnvoll für UX-Arbeit

CHAT GPT, HOW-TO, RESEARCH, AI & UXR

Ein:e Schiedsrichter:in hält eine Bewertungstafel mit der Aufschrift „Yupp.ai“ zwischen zwei stilisierten KI-Chatbots in einem Boxring hoch – Symbolbild für den fairen Vergleich von KI-Modellen durch Nutzer:innen.

Wie Yupp Feedback nutzt, um KI-Modelle fair zu bewerten – und was UX-Profis daraus lernen können

AI & UXR, CHAT GPT, HUMAN VS AI, LLM

Auf einem kleinen Tisch liegt ein braunes Buch mit dem Titel „Don't Make Me Think“ von Steve Krug. Licht scheint durch das Fenster.

Warum UX Research seine Glaubwürdigkeit verliert und wie wir sie zurückgewinnen

UX, UX QUALITY, UX METHODS

3D-Illustration eines digitalen Marktplatzes mit bunten Marktständen voller Prompt-Karten und einer Figur, die einen Prompt auswählt.

Prompts kaufen, teilen, verkaufen – was Prompt-Marktplätze heute leisten (und warum das für UX relevant ist)

AI & UXR, PROMPTS

Roboter hält zwei Schilder hoch: „ISO 9241 – 7 Prinzipien“ und „ISO 9241 – 10 Prinzipien“.

ChatGPT halluziniert – trotz Anti-Halluzinations-Prompt

AI & UXR, HUMAN VS AI, CHAT GPT

Erdbeere wird von einem Messer halbiert, stilisierte Illustration.

Warum KI manchmal nicht bis 3 zählen kann – und was das mit Tokens zu tun hat

AI & UXR, TOKEN, LLM

Quadratisches, in der Mitte geteiltes Motiv: Links ein graues, stilisiertes Gehirn über einer sitzenden Person am Laptop in dunklen Grautönen; rechts ein leuchtend blaues, vernetztes Gehirn über einer stehenden Person vor einem holografischen Interface auf dunklem Hintergrund.

GPT-5 ist da: Verändert diese UX AI wirklich alles für Researcher:innen?

AI & UXR, CHAT GPT

Surreales KI-Bild mit Datenströmen, durchgestrichenem „User Expirince“ und dem Text „ChatGPT kann jetzt Text in Bild“.

Wenn KI Bilder malt und plötzlich richtig schreiben kann

AI & UXR, CHAT GPT, HUMAN VS AI

Mensch und KI arbeiten gemeinsam an einem leuchtenden Baum auf dem Bildschirm, umgeben von dunkler, surrealer Atmosphäre.

Wenn der Text zu glatt ist: Wie man KI-Sprache menschlicher macht

AI & UXR, AI WRITING, CHAT GPT, HUMAN VS AI

 VERWANDTE ARTIKEL DIE SIE INTERESSIEREN KÖNNTEN 

AUTHOR

Tara Bosenick

Tara ist seit 1999 als UX-Spezialistin tätig und hat die Branche in Deutschland auf Agenturseite mit aufgebaut und geprägt. Sie ist spezialisiert auf die Entwicklung neuer UX-Methoden, die Quantifizierung von UX und die Einführung von UX in Unternehmen.


Gleichzeitig war sie immer daran interessiert, in ihren Unternehmen eine möglichst „coole“ Unternehmenskultur zu entwickeln, in der Spaß, Leistung, Teamgeist und Kundenerfolg miteinander verknüpft sind. Seit mehreren Jahren unterstützt sie daher Führungskräfte und Unternehmen auf dem Weg zu mehr New Work / Agilität und einem besseren Mitarbeitererlebnis.


Sie ist eine der führenden Stimmen in der UX-, CX- und Employee Experience-Branche.

bottom of page