
PROMPTS, RESEARCH, UX, UX INSIGHTS
System Prompts in UX Research: Was du über die unsichtbare KI-Steuerung wissen musst
12
MIN
12. Feb. 2026
Stell dir vor: Zwei UX-Research-Teams analysieren dieselben Interview-Transkripte. Team A nutzt ChatGPT, Team B arbeitet mit Claude. Die Ergebnisse? Völlig unterschiedlich. Team A präsentiert strukturierte Insights in übersichtlichen Tabellen. Team B liefert narrative Synthesen in Fließtext. Beide Teams sind überzeugt, die "wahren" Erkenntnisse gefunden zu haben.
Das Problem liegt nicht in der Kompetenz der Researcher:innen – sondern in den System Prompts der KI-Tools. Diese unsichtbaren Steuerungsmechanismen beeinflussen, wie KI deine Research-Daten interpretiert, strukturiert und präsentiert. Und die meisten von uns haben keine Ahnung, dass sie existieren.
In diesem Artikel zeige ich dir, was System Prompts sind, wie stark sie sich zwischen verschiedenen KI-Modellen unterscheiden und welche konkreten Auswirkungen das auf deine UX-Research hat. Nach fast 25 Jahren als UX-Beraterin habe ich in den letzten zwei Jahren intensiv mit verschiedenen KI-Tools experimentiert – und dabei festgestellt, dass wir als Research-Community dringend über diese Thematik sprechen müssen.
📌 Das Wichtigste in Kürze:
• System Prompts steuern KI-Verhalten unsichtbar – du siehst nur die Ergebnisse, nicht die Anweisungen dahinter
• Claudes System Prompt ist 7,5-mal länger als ChatGPTs – das führt zu fundamental unterschiedlichem Verhalten
• Verschiedene Tools haben verschiedene Biases – Claude vermeidet Listen, ChatGPT liebt Tabellen
• Deine Research-Ergebnisse werden beeinflusst – ohne dass du es merkst oder kontrollieren kannst
• User-definierte Prompts sind dein wichtigstes Gegenmittel – Custom Instructions helfen dir, die Kontrolle zurückzugewinnen
• Dokumentation ist Pflicht – welches Tool du wann und warum nutzt, muss nachvollziehbar sein
• Multi-Tool-Validierung erhöht Qualität – kritische Analysen solltest du mit mindestens zwei verschiedenen Modellen durchführen
Was sind System Prompts überhaupt ?
Wenn du mit ChatGPT, Claude oder anderen KI-Tools arbeitest, gibt es zwei völlig verschiedene Arten von Anweisungen:
Deine User-Prompts sind das, was du ins Chat-Fenster tippst: "Analysiere diese Interview-Transkripte und identifiziere die wichtigsten Pain Points." Diese Prompts sind sichtbar, bewusst und unter deiner Kontrolle.
System Prompts hingegen sind Anweisungen, die der Anbieter (Anthropic, OpenAI, Google) dem Modell gibt, bevordu überhaupt anfängst zu tippen. Sie definieren die grundlegende "Persönlichkeit", Verhaltensweisen und Einschränkungen der KI. Und sie sind für dich als Nutzerin komplett unsichtbar.
Die Schauspieler-Analogie
Stell dir vor, die KI ist ein:e Schauspieler:in:
Der System Prompt ist das Drehbuch plus alle Regieanweisungen ("Du spielst eine höfliche, hilfsbereite Assistentin, die niemals Listen in narrativen Texten verwendet")
Dein User-Prompt ist der Dialog, den andere Charaktere (also du) mit dieser Figur führen
Die Schauspielerin kann nur innerhalb der Rolle agieren, die ihr das Drehbuch vorgibt – selbst wenn du als Nutzerin etwas völlig anderes möchtest.
Warum sind System Prompts meist unsichtbar?
Es gibt mehrere Gründe, warum Anbieter ihre System Prompts nicht veröffentlichen:
Geschäftsgeheimnisse: Die Prompts sind Teil des Wettbewerbsvorteils. Wie genau Anthropic Claude "trainiert" hat, höflich aber nicht übertrieben schmeichelhaft zu sein, ist wertvolles Know-how.
Sicherheit: Wenn Menschen die genauen Anweisungen kennen, könnten sie gezielt versuchen, diese zu umgehen ("Jailbreaking").
User Experience: Die meisten Nutzer:innen würden von 16.000 Wörtern technischer Anweisungen eher verwirrt als informiert werden.
Vermeidung von Manipulation: Wenn du genau weißt, wie die KI programmiert ist, könntest du deine Fragen so formulieren, dass sie die gewünschte Antwort liefert – unabhängig davon, ob sie korrekt ist.
User-definierte Prompts: Was du selbst steuern kannst
Bevor wir tiefer in die unsichtbaren System Prompts eintauchen, noch ein wichtiger Hinweis: Du bist nicht völlig machtlos.
Die meisten KI-Tools bieten mittlerweile Möglichkeiten, eigene Anweisungen zu definieren:
ChatGPT: "Custom Instructions" in den Einstellungen
Claude: "Project Instructions" oder direkt im Chat
Gemini: "Personalisierung" in den Einstellungen
Diese user-definierten Prompts sind transparent, kontrollierbar und sollten dein wichtigstes Werkzeug sein, um die Kontrolle über KI-unterstützte Research zu behalten. Dazu später mehr.
Konkrete Unterschiede zwischen den Modellen – und warum sie relevant sind
Dank geleakter System Prompts (verfügbar in öffentlichen GitHub-Repositories) wissen wir mittlerweile ziemlich genau, wie unterschiedlich die großen Anbieter ihre Modelle instruieren. Die Unterschiede sind erheblich – und haben direkte Auswirkungen auf deine Research-Arbeit.
1. Länge und Komplexität: Das Ausmaß der Steuerung
Claudes System Prompt umfasst 16.739 Wörter (110 KB). Das entspricht etwa 60 Seiten Text – ein kleines Handbuch voller Verhaltensregeln.
ChatGPTs o4-mini System Prompt hat dagegen nur 2.218 Wörter (15,1 KB) – also gerade mal 13% der Länge von Claude.
Was bedeutet das für dich? Claude hat wesentlich detailliertere Anweisungen zu spezifischen Situationen. Das kann zu vorhersehbarerem, aber auch starrer wirkendem Verhalten führen. ChatGPT ist flexibler, kann aber auch inkonsistenter reagieren.
2. Der Schmeichelei-Blocker: Wie Lob gefiltert wird
Claude 4 wurde explizit angewiesen: "Starte niemals mit positiven Adjektiven wie 'gut', 'großartig', 'faszinierend' oder 'ausgezeichnet'. Überspringe die Schmeicheleien und antworte direkt."
Diese Anweisung war eine direkte Reaktion auf ChatGPTs GPT-4o, das dazu neigte, jede Nutzerfrage übermäßig zu loben ("Das ist eine wirklich faszinierende Frage!").
Warum ist das für UX Research relevant?
Wenn du Interview-Transkripte analysieren lässt und nach emotionalen Nuancen suchst, könnte Claude positive Aussagen systematisch herunterspielen. Sätze wie "Das finde ich wirklich großartig an eurem Produkt" könnten in der Synthese weniger Gewicht bekommen als bei ChatGPT – einfach weil Claude darauf trainiert wurde, Lob zu überspringen.
3. Formatierung: Listen vs. Fließtext
Claude wird angewiesen: "Für Berichte, Dokumente und technische Dokumentationen schreibe in Prosa und Absätzen ohne Listen. Die Prosa darf niemals Aufzählungszeichen, nummerierte Listen oder übermäßig fetten Text enthalten."
ChatGPT hingegen tendiert stark zu strukturierten Formaten – selbst einfache Fragen werden oft in Tabellenform beantwortet.
Praxis-Beispiel aus meiner Arbeit:
Ich habe denselben Auftrag beiden Tools gegeben: "Fasse die wichtigsten Erkenntnisse aus diesen 15 Nutzerinterviews zusammen."
Claude lieferte drei gut lesbare Absätze in narrativer Form. ChatGPT präsentierte eine Tabelle mit Kategorien, Häufigkeiten und direkten Zitaten.
Beide Formate haben Vor- und Nachteile – aber für Stakeholder-Präsentationen macht es einen enormen Unterschied, welches Format du verwendest. Und dieser Unterschied kommt nicht von dir, sondern vom System Prompt.
4. Design-Bias: Modern vs. Neutral
Claude hat explizite Design-Anweisungen: "Tendiere zu zeitgenössischen Design-Trends und modernen ästhetischen Entscheidungen. Berücksichtige, was in aktuellem Webdesign cutting-edge ist (Dark Modes, Glassmorphismus, Mikroanimationen, 3D-Elemente, mutige Typografie, lebendige Farbverläufe). Statische Designs sollten die Ausnahme sein."
ChatGPT hat keine vergleichbar spezifischen Design-Vorgaben.
Warum das problematisch ist:
Wenn du Design-Feedback aus Usability-Tests analysierst und ein User sagt: "Ich finde die Oberfläche zu unruhig, ich bevorzuge klassische Buttons", könnte Claude dieses Feedback als weniger wichtig einstufen – weil es gegen die einprogrammierte Präferenz für "mutige" und "cutting-edge" Designs verstößt.
Bei der Persona-Entwicklung könnten konservative Nutzer:innen-Segmente systematisch unterrepräsentiert werden.
5. Such-Verhalten: Proaktiv vs. Zurückhaltend
In neueren Versionen wird Claude ermutigt, sofort zu suchen, wenn nötig – ohne vorher um Erlaubnis zu fragen. Das ist eine Änderung gegenüber früheren Versionen und zeigt, dass Anthropic mehr Vertrauen in sein Such-Tool hat.
Andere Modelle sind tendenziell zurückhaltender bei der automatischen Web-Suche.
Für Research bedeutet das:
Claude könnte bei der Analyse von Nutzer-Aussagen eher externe Quellen hinzuziehen (z.B. aktuelle UX-Best-Practices oder Statistiken), während andere Tools sich stärker auf die vorliegenden Daten beschränken.
6. Persönlichkeit und Tonalität
Die verschiedenen Modelle haben unterschiedliche "Grundtemperamente":
Claude: Warm, menschlich, eher empathisch
GPT-4: Neutral, sachlich, manchmal robotisch wirkend
Mistral: Professionell, kurz, direkt
Gemini: Faktenorientiert, objektiv, zurückhaltend
Praxis-Auswirkung:
Für empathie-getriebene Interview-Analysen ("Was sind die emotionalen Treiber hinter diesem Verhalten?") tendiere ich zu Claude. Für quantitative Daten-Synthesen ("Wie verteilen sich die Pain Points über die Nutzer:innen-Segmente?") bevorzuge ich ChatGPT.
Diese Tool-Auswahl ist aber eine methodische Vorentscheidung, die ich dokumentieren muss – genau wie ich dokumentieren würde, ob ich qualitative oder quantitative Methoden verwende.
Was bedeutet das für deine UX Research?
Problem 1: Methoden-Validität ist gefährdet
Die wissenschaftliche Qualität von Research steht und fällt mit der Reproduzierbarkeit und Nachvollziehbarkeit der Methoden. Wenn unsichtbare System Prompts deine Ergebnisse beeinflussen, ohne dass du es merkst oder kontrollieren kannst, ist beides gefährdet.
Konkrete Szenarien:
Szenario A: Formatierungs-Bias Du analysierst Usability-Test-Ergebnisse. Claude fasst die Insights in Fließtext zusammen, ChatGPT erstellt eine Tabelle. Deine Stakeholder bekommen unterschiedliche Eindrücke davon, wie strukturiert und "valide" deine Erkenntnisse sind – einfach wegen der Darstellung.
Szenario B: Design-Präferenz-Bias Bei der Auswertung von Design-Feedback gewichtet Claude moderne, mutige Vorschläge höher als konservative. Du präsentierst "die wichtigsten Insights" – aber in Wirklichkeit sind es nur die Insights, die zu Claudes Design-Präferenzen passen.
Szenario C: Schmeichelei-Filter Du lässt positive Nutzer-Zitate zusammenfassen. Claude überspringt Lob systematisch, weil es darauf trainiert wurde, Schmeicheleien zu vermeiden. In deiner Synthese erscheinen positive Stimmen weniger prominent als negative – nicht weil die Daten das hergeben, sondern weil der System Prompt es so vorgibt.
Das Kern-Problem: Du verlierst die Kontrolle über einen kritischen Teil deiner Methodik, ohne es zu merken.
Problem 2: Tool-Auswahl als methodische Entscheidung
In meiner Arbeit habe ich folgende Faustregel entwickelt:
Research-Aufgabe | Potenziell besseres Tool | Grund |
Empathie-getriebene Interview-Analyse | Claude | Wärmerer, menschlicherer Ton |
Quantitative Daten-Synthese | ChatGPT | Strukturierte Formate, Tabellen |
Compliance-kritische Dokumentation | Claude | Stärkerer Fokus auf Sicherheit |
Schnelle explorative Analysen | Mistral | Kürzere, direktere Antworten |
Aber: Diese Tabelle ist keine neutrale Empfehlung. Sie ist eine methodische Vorentscheidung, die du transparent machen musst.
Wenn du in deinem Research-Report schreibst "Ich habe die Interviews mit Claude analysiert", solltest du auch erklären, warum – und welche potentiellen Biases das mit sich bringt.
Das machen aktuell die wenigsten. Dabei würden wir das bei jeder anderen methodischen Entscheidung auch tun ("Ich habe qualitative Interviews statt quantitative Umfragen gemacht, weil...").
Problem 3: Qualitative Forschung ist besonders verletzlich
Bei quantitativen Daten (Zahlen, Statistiken, Klickraten) ist der Einfluss von System Prompts meist geringer. Zahlen bleiben Zahlen.
Bei qualitativer Forschung – wo es um Nuancen, Kontext und Mehrdeutigkeiten geht – können System Prompts massive Auswirkungen haben:
Theme-Erkennung: ChatGPT wird angewiesen, "diverse, inklusive und explorative Szenarien" zu schaffen. Das ist grundsätzlich positiv – könnte aber dazu führen, dass Diversity-bezogene Themen in deiner Analyse überbetont werden, während andere Aspekte untergehen.
Sentiment-Analyse: Wenn Claude Schmeicheleien überspringt, könnten positive Sentiment-Signale systematisch unterschätzt werden. Deine "objektive" Sentiment-Analyse wäre dann verzerrt – ohne dass du es bemerkst.
Persona-Entwicklung: Wenn Claude moderne, mutige Designs favorisiert, könnten konservative Nutzer:innen-Segmente in deinen Personas unterrepräsentiert sein. Du denkst, du hast die "typischen User" abgebildet – dabei hast du nur die User abgebildet, die zu Claudes Präferenzen passen.
Problem 4: Datenschutz und Verantwortung
Datenschutz-Unterschiede:
Anthropic nutzt Nutzer-Interaktionen nicht automatisch fürs Training – außer du entscheidest dich aktiv dafür (Opt-in). Interessanterweise gilt das Bewerten von Antworten (Thumbs up/down) bereits als Opt-in.
ChatGPT hat andere Policies – je nach Abo-Modell und Region.
Wenn du sensible Research-Daten (z.B. Interviews aus dem Healthcare-Bereich) analysierst, ist das ein kritischer Unterschied.
Bias-Verantwortung:
Wenn deine Research-Insights von unsichtbaren System-Prompt-Biases beeinflusst sind – wer trägt dann die Verantwortung?
Du als Researcher:in, weil du das Tool gewählt hast?
Das Tool, weil es die Biases eingebaut hat?
Der Anbieter, weil er die System Prompts definiert hat?
Diese Frage ist nicht geklärt – und sie wird immer relevanter, je mehr wir uns auf KI-gestützte Research-Methoden verlassen.
Praktische Handlungsempfehlungen: So behältst du die Kontrolle
Die gute Nachricht: Du bist dem nicht hilflos ausgeliefert. Es gibt konkrete Strategien, um die Kontrolle über KI-gestützte Research zurückzugewinnen.
1. Nutze user-definierte Prompts als Kontrollmechanismus
Custom Instructions sind deine wichtigste Waffe gegen unsichtbare Biases.
Beispiel einer Research-Persona für Custom Instructions:
Du bist ein UX-Research-Assistent mit folgenden Grundsätzen:
DESKRIPTIV, NICHT PRÄSKRIPTIV
- Beschreibe, was in den Daten steht
- Gib keine Design-Empfehlungen, außer ich frage explizit danach
TRENNUNG: BEOBACHTUNG VS. INTERPRETATION
- Markiere klar, was direkte Beobachtung ist
- Kennzeichne Interpretationen immer als solche
KONFIDENZ-LEVEL
- Sage mir, wie sicher du dir bei jedem Insight bist
- Benenne Datenlücken und Unsicherheiten
NEUTRALITÄT
- Keine Präferenz für moderne vs. konservative Designs
- Alle Nutzer-Aussagen gleichwertig behandeln
FORMATIERUNG
- Nutze Listen, wenn sie die Klarheit erhöhen
- Nutze Fließtext, wenn Kontext wichtig ist
- Frage mich bei Unsicherheit, welches Format ich bevorzuge
Tool-spezifische Kompensationen:
Bei Claude füge ich oft hinzu:
"Nutze Listen und Aufzählungen, wenn sie die Übersichtlichkeit verbessern. Fließtext ist nicht immer besser."
Bei ChatGPT schreibe ich:
"Vermeide Tabellen bei narrativen Insights. Nicht alles muss strukturiert werden."
2. Multi-Tool-Triangulation für kritische Analysen
Grundregel: Jede Analyse, die wichtige Entscheidungen beeinflusst, solltest du mit mindestens zwei verschiedenen Tools durchführen.
Mein Workflow:
Erste Analyse mit meinem Standard-Tool (meist Claude, weil ich den Ton mag)
Zweite Analyse mit ChatGPT zur Gegenprüfung
Abgleich: Wo stimmen die Ergebnisse überein? Wo weichen sie ab?
Interpretation: Warum könnten die Abweichungen entstanden sein? Welche Tool-Biases spielen eine Rolle?
Synthese: Erstelle finale Insights basierend auf beiden Analysen
Ja, das ist mehr Aufwand. Aber bei wichtigen Research-Projekten ist diese zusätzliche Validierung die Zeit wert.
3. Etabliere ein Research-Protokoll
Dokumentation ist in der Research schon immer wichtig gewesen – bei KI-gestützter Research wird sie essentiell.
Beispiel-Template:
RESEARCH-LOG: [Projekt-Name]
TOOL-AUSWAHL
- Primäres Tool: Claude Sonnet 4
- Sekundäres Tool (Validierung): ChatGPT 4
CUSTOM INSTRUCTIONS VERWENDET
- Research-Persona (siehe oben)
- Spezielle Anweisungen: "Behandle alle Design-Präferenzen gleichwertig"
BEKANNTE TOOL-BIASES
- Claude: Präferenz für moderne Designs, keine Listen in Prosa, überspringt Schmeicheleien
- ChatGPT: Tendenz zu Tabellen und strukturierten Formaten
KONTROLLMASSNAHMEN
- Kritische Insights mit beiden Tools validiert
- Positive Nutzer-Aussagen manuell auf Unterrepräsentation geprüft
- Design-Feedback gegen Roh-Daten abgeglichen
ABWEICHUNGEN ZWISCHEN TOOLS
- [Dokumentiere konkrete Unterschiede in den Ergebnissen]
- [Interpretation: Warum könnten diese entstanden sein?]
FINALE ENTSCHEIDUNG
- [Welche Insights wurden in den finalen Report aufgenommen und warum?]
4. Human-in-the-Loop bleibt essentiell
KI ist ein Werkzeug zur Effizienzsteigerung – kein Ersatz für menschliches Urteilsvermögen.
Mein Workflow:
KI macht erste Synthese (schneller Überblick)
Ich validiere gegen Roh-Daten (Stichproben aus den Transkripten)
Kritische Interpretation durch mich (Kontext, der der KI fehlt)
KI hilft bei Formulierung (finale Insights ausformulieren)
Die KI beschleunigt den Prozess – aber die kritischen Entscheidungen treffe ich.
5. Transparenz gegenüber Stakeholdern
Kommuniziere KI-Nutzung offen:
Schwache Formulierung:
"Wir haben die User-Interviews analysiert und folgende Insights identifiziert..."
Bessere Formulierung:
"Wir haben die User-Interviews mit Unterstützung von Claude 4 analysiert. Um Tool-spezifische Biases zu minimieren, haben wir kritische Insights zusätzlich mit ChatGPT validiert und stichprobenartig gegen die Original-Transkripte geprüft. Die finalen Insights basieren auf dieser Multi-Tool-Validierung."
Das schafft Vertrauen und zeigt methodische Sorgfalt.
6. Entwickle ein team-weites KI-Tool-Profil
In meinem Team haben wir ein gemeinsames Dokument, das wir regelmäßig aktualisieren:
"KI-Tools in UX Research: Stärken, Schwächen, Best Practices"
Darin dokumentieren wir:
Welches Tool eignet sich für welche Research-Aufgabe?
Welche bekannten Biases hat jedes Tool?
Welche Custom Instructions haben sich bewährt?
Lessons Learned aus vergangenen Projekten
Das Dokument ist ein lebendes Artefact – wir lernen ständig dazu und passen unsere Praktiken an.
Checkliste: KI-gestützte UX Research verantwortungsvoll durchführen
✅ Vor dem Research
[ ] Tool-Auswahl dokumentieren und begründen
[ ] Custom Instructions für den Research-Kontext definieren
[ ] Bekannte Tool-Biases identifizieren
[ ] Datenschutz-Compliance prüfen (besonders bei sensiblen Daten)
[ ] Entscheiden: Single-Tool oder Multi-Tool-Validierung?
✅ Während des Research
[ ] Bei kritischen Analysen: Multi-Tool-Vergleich durchführen
[ ] Research-Log führen (Tool, Biases, Kontrollmaßnahmen)
[ ] KI-Output immer gegen Roh-Daten validieren (Stichproben)
[ ] Unsicherheiten und Interpretationen klar markieren
[ ] Abweichungen zwischen Tools dokumentieren
✅ Nach dem Research
[ ] Methodik transparent dokumentieren
[ ] Tool-Einfluss auf Ergebnisse reflektieren
[ ] Stakeholder über KI-Nutzung informieren
[ ] Learnings für zukünftige Projekte festhalten
[ ] Team-Knowledge-Base aktualisieren
Häufige Fragen
Muss ich bei jeder Research-Aufgabe mehrere Tools nutzen?
Nein. Bei explorativen Analysen oder internen Zwischenberichten reicht meist ein Tool. Bei wichtigen Entscheidungen (z.B. strategische Produkt-Pivots basierend auf Research) solltest du aber Multi-Tool-Validierung einsetzen.
Wie finde ich heraus, welche System Prompts ein Tool nutzt?
Die offiziellen System Prompts sind meist nicht veröffentlicht. Es gibt aber geleakte Versionen auf GitHub (z.B. Repository "system_prompts_leaks"). Diese sind nicht immer aktuell, geben aber einen guten Eindruck von den Unterschieden.
Sind Custom Instructions genug, um Tool-Biases zu kompensieren?
Teilweise. Custom Instructions helfen, aber sie können nicht alle System-Prompt-Effekte überschreiben. Daher ist Multi-Tool-Validierung bei kritischen Analysen trotzdem sinnvoll.
Welches Tool ist "am besten" für UX Research?
Es gibt kein "bestes" Tool – nur Tools, die für spezifische Aufgaben besser geeignet sind. Claude hat Vorteile bei empathie-getriebener Analyse, ChatGPT bei strukturierten Daten-Synthesen. Die Tool-Auswahl sollte zur Research-Aufgabe passen.
Darf ich KI-Tools bei DSGVO-sensiblen Daten nutzen?
Das hängt vom Tool und deinem Use-Case ab. Anthropic bietet beispielsweise Enterprise-Versionen mit DSGVO-Compliance. Bei sensiblen Daten solltest du mit deiner Rechtsabteilung die spezifischen Tools und deren Datenschutz-Policies prüfen.
Fazit: KI-Tools sind Werkzeuge – behandle sie als solche
System Prompts sind die unsichtbare Hand, die KI-gestützte Research steuert. Sie beeinflussen, wie Tools deine Daten interpretieren, strukturieren und präsentieren – ohne dass du es siehst oder vollständig kontrollieren kannst.
Die Kernbotschaft:
Unsichtbare System Prompts sind eine Black Box mit Bias-Potenzial. User-definierte Prompts (Custom Instructions) sind dein wichtigstes Kontrollwerkzeug. Behandle KI-Tools wie jedes andere Forschungsinstrument: kritisch, dokumentiert, transparent.
Drei Sofortmaßnahmen für heute:
Definiere deine Research-Persona als Custom Instruction in deinem bevorzugten Tool
Starte ein Research-Log für dein nächstes Projekt (nutze das Template oben)
Probiere Multi-Tool-Validierung bei deiner nächsten wichtigen Analyse
Die KI-Revolution in UX Research ist nicht aufzuhalten – und das ist auch gut so. Aber wir müssen sie verantwortungsvoll gestalten. Das bedeutet: Transparenz über Tool-Nutzung, Bewusstsein für Biases und methodische Sorgfalt.
Je mehr wir als UX-Community über diese Themen sprechen, desto besser werden unsere Praktiken. Teile deine Erfahrungen, experimentiere mit verschiedenen Tools und dokumentiere deine Learnings.
Die besten Research-Insights entstehen nicht, wenn wir KI blind vertrauen – sondern wenn wir sie als das behandeln, was sie ist: ein mächtiges, aber nicht neutrales Werkzeug.
Stand: Februar 2026
Weiterführende Ressourcen
GitHub: system_prompts_leaks – Sammlung geleakter System Prompts von ChatGPT, Claude, Gemini
Anthropic System Prompt Release Notes – Offizielle Dokumentation zu Claude
Simon Willison: "Highlights from the Claude 4 system prompt" – Detaillierte Analyse
Fortelabs: "A Guide to the Claude 4 and ChatGPT 5 System Prompts" – Praktischer Vergleich
Hast du Erfahrungen mit KI-Tools in der UX Research? Welche Herausforderungen begegnen dir? Lass uns in den Kommentaren diskutieren.
💌 Noch nicht genug? Dann lies weiter – in unserem Newsletter.
Kommt viermal im Jahr. Bleibt länger im Kopf. https://www.uintent.com/de/newsletter
VERWANDTE ARTIKEL DIE SIE INTERESSIEREN KÖNNTEN
AUTHOR
Tara Bosenick
Tara ist seit 1999 als UX-Spezialistin tätig und hat die Branche in Deutschland auf Agenturseite mit aufgebaut und geprägt. Sie ist spezialisiert auf die Entwicklung neuer UX-Methoden, die Quantifizierung von UX und die Einführung von UX in Unternehmen.
Gleichzeitig war sie immer daran interessiert, in ihren Unternehmen eine möglichst „coole“ Unternehmenskultur zu entwickeln, in der Spaß, Leistung, Teamgeist und Kundenerfolg miteinander verknüpft sind. Seit mehreren Jahren unterstützt sie daher Führungskräfte und Unternehmen auf dem Weg zu mehr New Work / Agilität und einem besseren Mitarbeitererlebnis.
Sie ist eine der führenden Stimmen in der UX-, CX- und Employee Experience-Branche.

















.png)


