top of page
uintent Firmenlogo

UX, UX QUALITY, UX METHODS

Warum UX Research seine Glaubwürdigkeit verliert und wie wir sie zurückgewinnen

5

MIN

22. Okt. 2025

Seit Jahren predigen wir die Wichtigkeit nutzerzentrischer Produktentwicklung. UX Research ist zum Buzzword geworden, jedes Unternehmen will "datengetrieben" entscheiden. Designteams schwören auf User Journeys, Product Owner zitieren Nutzerfeedback, und in jeder Produktpräsentation finden sich bunte Charts mit Research-Insights.

Doch hinter den schönen Präsentationen und fundierten Empfehlungen verbirgt sich eine unbequeme Wahrheit: Die Qualität unserer Forschung bröckelt systematisch.


Während die Nachfrage nach UX Research explodiert, sinkt paradoxerweise das Vertrauen der Entscheider in unsere Ergebnisse. Projekte werden trotz Research-Empfehlungen anders umgesetzt. Budgets gekürzt. Timelines verkürzt. Der CEO spielt seine Chef-Karte und ignoriert alle Nutzertests: "Ich weiß, was unsere Kunden wollen."


Die Branche steht vor einer Glaubwürdigkeitskrise – und wir sind selbst schuld daran.


Der Methodenkoffer schrumpft dramatisch

UX Research sollte ein vielfältiges Methodenspektrum umfassen, das von ethnografischen Studien bis zu statistischen Analysen reicht. Stattdessen erleben wir eine dramatische Verengung auf wenige, vertraute Techniken. Usability-Tests und qualitative Interviews dominieren – nicht, weil sie immer die richtige Wahl sind, sondern weil sie das einzige sind, was viele Researcher beherrschen.


Wann haben Sie das letzte Mal eine Contextual Inquiry durchgeführt? Tagebuchstudien über mehrere Wochen begleitet? Card Sorting für Informationsarchitektur eingesetzt? Quantitative Methoden werden völlig vernachlässigt, obwohl sie bei vielen Forschungsfragen unverzichtbar wären.


Ein typisches Beispiel: Ein E-Commerce-Unternehmen will verstehen, warum Nutzer im Checkout abbrechen. Statt einer quantitativen Analyse der Abbruchpunkte kombiniert mit qualitativen Interviews wird ausschließlich ein Usability-Test mit fünf Nutzern durchgeführt. Das Ergebnis? Oberflächliche Insights, die das echte Problem verfehlen.


Diese methodische Verarmung führt zu einem gefährlichen Tunnelblick: Wir beantworten nur noch die Fragen, die unsere begrenzten Methoden beantworten können – statt die Fragen, die das Business wirklich bewegen. Quantitative Validierung? "Brauchen wir nicht." Triangulation verschiedener Methoden? "Zu aufwendig." Mixed-Methods-Ansätze? "Kenne ich nicht."


Der Nielsen-Mythos und seine fatalen Folgen

"Fünf User reichen" – Jakob Nielsens Regel aus den 90ern geistert immer noch durch unsere Branche wie ein untoter Zombie. Völlig aus dem Kontext gerissen, wird sie als Universalwahrheit für jede Art von Research behandelt. Dabei bezog sich Nielsen auf iterative Usability-Tests zur Identifikation von Interface-Problemen, nicht auf grundlegende Nutzerforschung oder Marktvalidierung.


Doch diese Pseudo-Wissenschaftlichkeit gibt uns ein trügerisches Gefühl der Sicherheit. Wir testen fünf sorgfältig ausgewählte Nutzer und glauben, die Wahrheit über alle Zielgruppen gepachtet zu haben. Statistische Signifikanz? "Überbewertet." Repräsentative Stichproben? "Zu teuer." Konfidenzintervalle? "Was ist das?"


Ein konkretes Beispiel: Ein Fintech-Startup testet seine neue Investment-App mit fünf technikaffinen Millennials aus Berlin. Basierend auf diesem "Research" wird die App für den gesamten deutschsprachigen Markt gelauncht – und flopped bei älteren Zielgruppen komplett. Überraschung? Kaum.


Das Ergebnis sind Insights, die auf erschreckend dünnem Eis stehen – und trotzdem als fundierte Entscheidungsgrundlage für millionenschwere Produktentscheidungen verkauft werden.


Die Beobachtungsblindheit der digitalen Generation

Effizienz ist wichtig. Skalierung ist notwendig. Aber unser Drang nach Automatisierung und Remote-Research kostet uns das Wertvollste, was wir haben: die Fähigkeit zur nuancierten Beobachtung.


Online-Tools erfassen nur explizite Aussagen. Unmoderierte Tests liefern nur Oberflächendaten. Screen-Recordings zeigen Klicks, aber nicht die Emotionen dahinter. Chatbots sammeln Feedback, aber verstehen nicht die Frustration in der Stimme.


Dabei passiert das Entscheidende zwischen den Zeilen: Die Mikro-Geste der Verwirrung, wenn ein Button nicht dort ist, wo erwartet. Die Pause vor der Antwort, die Unsicherheit verrät. Der Moment, in dem der Nutzer unbewusst nach einer Alternative sucht. Das nervöse Lachen, wenn etwas nicht funktioniert. Die Körpersprache, die sagt: "Das würde ich niemals kaufen."


Wenn wir nur auf das hören, was gesagt wird, haben wir als UXer bereits verloren. Die tiefsten Insights entstehen durch Beobachtung – eine Kompetenz, die wir systematisch verlernen, während wir uns in digitale Tools verlieben.


Verzerrte Realitäten und selbstgemachte Filterblasen

Rekrutierung ist teuer, zeitaufwendig und komplex. Also greifen viele Unternehmen zu verführerischen Shortcuts: eigene Mitarbeiter, bestehende Kundenpools, Online-Plattformen mit fragwürdigen Qualitätsstandards. Das Problem? Diese Stichproben sind systematisch verzerrt.


Der Mitarbeiter-Bias: Ein Software-Unternehmen testet seine neue CRM-Software mit eigenen Sales-Mitarbeitern. Wie sollen Menschen, die das Produkt täglich nutzen und deren Gehalt davon abhängt, dass es erfolgreich ist, neutral bewerten? Sie kennen alle Workarounds, übersehen grundlegende Usability-Probleme und bewerten Funktionen positiver, als externe Nutzer es würden.


Der Loyalitäts-Bias: Ein E-Commerce-Portal rekrutiert für Tests ausschließlich aus seinem Newsletter-Verteiler. Diese Nutzer sind bereits emotional investiert, nutzen das Portal regelmäßig und sind deutlich toleranter gegenüber Problemen als Neukunden.


Der Designer-testet-eigenes-Interface-Bias: Noch schlimmer wird es, wenn Designer ihre eigenen Interfaces testen. Ownership Bias, Sunk Cost Fallacy und Cognitive Dissonance greifen gleichzeitig. Unbewusst "helfen" sie den Probanden, lenken Gespräche in positive Richtungen und interpretieren Kritik als "Nutzer hat es nicht verstanden" statt als valides Feedback.


Wir schaffen uns unsere eigene Filterblase und nennen es Research.


KI-Halluzinationen als neue Qualitätsfalle

Die neueste Bedrohung für Research-Qualität kommt aus einer unerwarteten Ecke: Künstliche Intelligenz. KI-Tools versprechen schnellere Auswertungen, automatisierte Insights und skalierbare Analysen. Doch sie bringen auch neue Risiken mit sich.


KI kann überzeugend falsche Patterns "erkennen", die gar nicht existieren. Sentiment-Analysen interpretieren Ironie als positive Bewertung. Automatisierte Clustering-Algorithmen finden Nutzergruppen, die nur im Computer existieren. Transkriptions-KI erfindet Zitate, die nie gesagt wurden.


Das Perfide: Diese Halluzinationen wirken oft überzeugender als echte Daten, weil sie exakt das liefern, was wir hören wollen. Confirmation Bias trifft auf algorithmische Verzerrung – eine explosive Mischung für jeden, der die Grenzen der Technologie nicht versteht.


Das Briefing-Desaster: Forschung ohne Ziel

Bevor auch nur die erste Frage gestellt wird, scheitern viele Research-Projekte bereits am Briefing. "Wir wollen wissen, wie Nutzer unser Produkt finden" ist kein Forschungsauftrag – es ist ein Wunsch.

Konkrete Forschungsfragen fehlen. Hypothesen werden nicht formuliert. Success-Metriken bleiben vage. Das Ergebnis? Research wird zur Beschäftigungstherapie, die zwar Daten produziert, aber keine verwertbaren Insights liefert.


Ein klassisches Szenario: Das Marketing-Team beauftragt eine "Nutzerstudie" für die neue Website. Drei Wochen später liegt ein 50-seitiger Report vor, der bestätigt, dass "Nutzer eine intuitive Navigation bevorzugen". Geld verbrannt, Zeit verschwendet, Erkenntnisgewinn gleich null.


Interviewing ist nicht gleich Interviewing

"Jeder kann Interviews führen" – ein gefährlicher Mythos unserer Branche. Zwischen einem lockeren Gespräch und professioneller Interviewführung liegen Welten, die viele Researcher unterschätzen.

Suggestivfragen produzieren gewünschte Antworten: "Finden Sie diese Funktion nicht auch großartig?" Leading Questions verzerren Ergebnisse: "Würden Sie dieses Produkt kaufen oder nicht?" Fehlende Nachfragen lassen wichtige Insights unentdeckt.


Das Ergebnis sind Pseudo-Daten, die gefährlicher sind als gar keine Daten – weil sie eine falsche Sicherheit vermitteln. Schlechte Interviews liefern trotzdem Antworten, nur eben die falschen.


Die HiPPO-Falle: Wenn Hierarchie Research überstimmt

Der klassische "Highest Paid Person's Opinion"-Effekt (HiPPO) ist vielleicht das frustrierendste Qualitätsproblem überhaupt. Da investiert ein Team Wochen in sorgfältige Forschung, liefert fundierte Empfehlungen ab – und der CEO entscheidet trotzdem anders, weil er "ein Gefühl" hat.


Noch perfider: Research wird als Alibifunktion missbraucht. Die Entscheidung steht bereits fest, aber man lässt trotzdem "forschen", um wissenschaftlich zu wirken. Ergebnisse werden cherry-picked, unbequeme Insights unter den Teppich gekehrt.


Das Timing wird manipuliert: Research wird so spät angesetzt, dass nur noch bestätigende Ergebnisse "hilfreich" sind. Kritische Erkenntnisse kommen zu einem Zeitpunkt, wo Änderungen "leider nicht mehr möglich" sind.


Die Qualitätsspirale nach unten

Diese Probleme verstärken sich gegenseitig und schaffen eine Abwärtsspirale der Research-Qualität. Schlechte Methodik liefert schwache Insights. Schwache Insights führen zu schlechten Produktentscheidungen. Schlechte Entscheidungen untergraben das Vertrauen in UX Research. Geringeres Vertrauen führt zu weniger Budget und Zeit für ordentliche Forschung.


Die Konsequenz: Research wird zum Ritual degradiert, das man halt macht, weil es "dazugehört". Insights verschwinden in PowerPoint-Friedhöfen. Nutzererkenntnisse werden nicht in systematischen Repositories gesammelt, sondern gehen von Projekt zu Projekt verloren.


Das Tragische: Je schlechter unsere Forschung wird, desto mehr rechtfertigen Entscheider ihre Bauchgefühl-Entscheidungen. "Research bringt sowieso nichts Neues" wird zur selbsterfüllenden Prophezeiung, wenn wir tatsächlich nur noch oberflächliche Bestätigungen liefern statt überraschender Erkenntnisse.


Weitere systematische Qualitätsfallen

Survivorship Bias: Wir reden nur mit aktuellen Nutzern, nie mit denen, die abgesprungen sind. Dabei liegen dort oft die wertvollsten Insights über Produktschwächen.


Timing-Probleme: Research findet zu spät statt, wenn Entscheidungen bereits gefallen sind. Oder zu früh, wenn noch gar nicht klar ist, was erforscht werden soll.


Mangelnde Intercoder-Reliabilität: Qualitative Daten werden nur von einer Person ausgewertet, ohne Validierung durch andere Researcher. Subjektive Interpretationen werden als objektive Erkenntnisse verkauft.


Fehlende Baseline-Messungen: Verbesserungen können nicht gemessen werden, weil der Ausgangszustand nicht dokumentiert wurde. War die Conversion-Rate vor dem Redesign wirklich schlechter?


Zeitdruck-bedingte Shortcuts: "Wir haben nur zwei Wochen" führt zu methodischen Kompromissen, die die Ergebnisse wertlos machen. Statt einer ordentlichen Studie gibt es einen "Quick & Dirty"-Test, der niemandem hilft.


Der Weg zurück zur Glaubwürdigkeit

Die Lösung liegt nicht in mehr Tools, schnelleren Methoden oder günstigeren Alternativen. Sie liegt in fundamentaler Qualitätssteigerung und der Rückbesinnung auf handwerkliche Exzellenz:


Methodenkompetenz radikal erweitern: Investieren Sie in Weiterbildung. Lernen Sie quantitative Methoden. Verstehen Sie, wann welche Methode angemessen ist. Ein UX Researcher sollte genauso selbstverständlich eine statistische Signifikanzprüfung durchführen können wie ein qualitatives Interview.


Strikte Objektivität durchsetzen: Keine Selbsttests. Keine Gefälligkeitsforschung. Keine Tests mit Mitarbeitern für externe Produkte. Externe Perspektiven sind unbezahlbar – auch wenn sie teurer sind.


Beobachtungskultur stärken: Nicht alles muss skalieren. Manchmal braucht es den aufwendigen, aber aufschlussreichen Weg. In-Person-Research mag teurer sein, aber liefert Insights, die kein Online-Tool erfassen kann.


Triangulation als Standard etablieren: Eine Methode reicht nie. Validieren Sie quantitative Daten durch qualitative Insights. Bestätigen Sie Einzelmeinungen durch breitere Erhebungen. Kombinieren Sie verschiedene Datenquellen.


Klare Forschungsfragen definieren: Definieren Sie präzise, was Sie wissen wollen – bevor Sie anfangen zu forschen. Formulieren Sie testbare Hypothesen. Legen Sie Success-Metriken fest.


Langfristige Research-Strategie entwickeln: Bauen Sie auf vorherigen Erkenntnissen auf. Schaffen Sie ein organisationales Research-Gedächtnis. Dokumentieren Sie nicht nur Ergebnisse, sondern auch Methoden und Limitationen.


KI kritisch einsetzen: Nutzen Sie KI als Werkzeug, nicht als Ersatz für menschliche Analyse. Validieren Sie automatisierte Insights durch manuelle Überprüfung. Verstehen Sie die Grenzen der Technologie.


Research-Kommunikation professionalisieren: Bereiten Sie Insights handlungsorientiert auf. Sprechen Sie die Sprache des Business. Quantifizieren Sie Probleme: Nicht "Nutzer sind frustriert", sondern "68% brechen an dieser Stelle ab".


Die Entscheidung liegt bei uns

UX Research steht an einem Scheideweg. Entweder wir akzeptieren die Qualitätserosion und werden zu Lieferanten von Pseudo-Insights, die niemand ernst nimmt. Oder wir besinnen uns auf handwerkliche Exzellenz und kämpfen um die Glaubwürdigkeit unserer Disziplin.


Die Wahl liegt bei jedem einzelnen von uns. Bei jedem Projekt, bei dem wir entscheiden, ob wir den einfachen oder den richtigen Weg gehen. Bei jeder Methodenentscheidung, bei der wir zwischen "schnell" und "fundiert" wählen müssen. Bei jeder Stichprobe, bei der wir zwischen "verfügbar" und "repräsentativ" entscheiden.


Denn eines ist klar: Eine Branche, die ihre eigenen Standards nicht ernst nimmt, kann nicht erwarten, dass andere sie ernst nehmen. Wenn wir weiterhin methodische Shortcuts als "agile Research" verkaufen und oberflächliche Insights als "datengetriebene Entscheidungen" präsentieren, werden wir unsere Glaubwürdigkeit endgültig verspielen.

Die Frage ist nicht, ob wir uns Qualität leisten können. Die Frage ist, ob wir uns Qualitätsverlust leisten können.


Können wir uns wirklich schlechte Forschung leisten?


Illustration von Donald Trump mit erhobener Hand vor abstraktem, digitalem Hintergrund, der Sprachblasen und Datenstrukturen andeutet.

Donald Trump Prompt: Wie provokante KI-Prompts UX-Budgets bewegen

AI & UXR, PROMPTS, STAKEHOLDER MANAGEMENT

Blick aus der Fahrerperspektive auf eine kurvige Landstraße, umgeben von grüner Vegetation. Im Vordergrund sind Lenkrad, Armaturenbrett und Rückspiegel zu sehen.

Die letzte Hürde: Wie unsichere Automatisierung das Vertrauen in ADAS bricht

AUTOMATION, AUTOMOTIVE UX, AUTONOMOUS DRIVING, GAMIFICATION, TRENDS

Illustration einer Person an einer Weggabelung mit zwei gleichwertigen Wegen.

Ersetzt KI UX Jobs? Was eine Studie mit 200.000 KI-Konversationen wirklich zeigt

HUMAN VS AI, RESEARCH, AI & UXR

Nahaufnahme eines hochwertigen Hochtöner-Lautsprechers im Armaturenbrett eines Autos mit perforierter Metalloberfläche.

Der Beifahrer, der immer zuhört: Warum wir unseren Autos nur ungern vertrauen, wenn sie sprechen

AUTOMOTIVE UX, VOICE ASSISTANTS

Schlüsselloch in dunkler Oberfläche, das den Blick auf ein abstraktes, farbiges UX-Research-Interface freigibt.

AI Ergebnisse bewerten im UX Research: So navigierst du die Blackbox

AI & UXR, HOW-TO, HUMAN VS AI

Ein von Audi hergestelltes Fahrzeugcockpit. Es verfügt über ein digitales Display und zahlreiche Tasten am Lenkrad.

Haptische Gewissheit vs. digitale Verlockung: Der Kampf um die besten Bedienelemente im Auto

AUTOMOTIVE UX, AUTONOMOUS DRIVING, CONNECTIVITY, GAMIFICATION

Digitale Illustration einer klassischen Gebäudefassade mit Säulen, gestützt von sichtbarem Gerüst, symbolisiert eine fragile, rein oberflächliche Fassade.

UX & AI: Wie „Ux Potemkin“ Deine Research- UND Design-Entscheidungen Untergräbt

AI & UXR, HUMAN VS AI, LLM, UX

Silhouette eines Tauchers, der ruhig in tiefblaues Wasser hinabtaucht – Symbol für tiefgehende Recherche.

Deep Research KI | So nutzt Du ChatGPT sinnvoll für UX-Arbeit

CHAT GPT, HOW-TO, RESEARCH, AI & UXR

Ein:e Schiedsrichter:in hält eine Bewertungstafel mit der Aufschrift „Yupp.ai“ zwischen zwei stilisierten KI-Chatbots in einem Boxring hoch – Symbolbild für den fairen Vergleich von KI-Modellen durch Nutzer:innen.

Wie Yupp Feedback nutzt, um KI-Modelle fair zu bewerten – und was UX-Profis daraus lernen können

AI & UXR, CHAT GPT, HUMAN VS AI, LLM

Auf einem kleinen Tisch liegt ein braunes Buch mit dem Titel „Don't Make Me Think“ von Steve Krug. Licht scheint durch das Fenster.

Warum UX Research seine Glaubwürdigkeit verliert und wie wir sie zurückgewinnen

UX, UX QUALITY, UX METHODS

3D-Illustration eines digitalen Marktplatzes mit bunten Marktständen voller Prompt-Karten und einer Figur, die einen Prompt auswählt.

Prompts kaufen, teilen, verkaufen – was Prompt-Marktplätze heute leisten (und warum das für UX relevant ist)

AI & UXR, PROMPTS

Roboter hält zwei Schilder hoch: „ISO 9241 – 7 Prinzipien“ und „ISO 9241 – 10 Prinzipien“.

ChatGPT halluziniert – trotz Anti-Halluzinations-Prompt

AI & UXR, HUMAN VS AI, CHAT GPT

Erdbeere wird von einem Messer halbiert, stilisierte Illustration.

Warum KI manchmal nicht bis 3 zählen kann – und was das mit Tokens zu tun hat

AI & UXR, TOKEN, LLM

Quadratisches, in der Mitte geteiltes Motiv: Links ein graues, stilisiertes Gehirn über einer sitzenden Person am Laptop in dunklen Grautönen; rechts ein leuchtend blaues, vernetztes Gehirn über einer stehenden Person vor einem holografischen Interface auf dunklem Hintergrund.

GPT-5 ist da: Verändert diese UX AI wirklich alles für Researcher:innen?

AI & UXR, CHAT GPT

Surreales KI-Bild mit Datenströmen, durchgestrichenem „User Expirince“ und dem Text „ChatGPT kann jetzt Text in Bild“.

Wenn KI Bilder malt und plötzlich richtig schreiben kann

AI & UXR, CHAT GPT, HUMAN VS AI

Mensch und KI arbeiten gemeinsam an einem leuchtenden Baum auf dem Bildschirm, umgeben von dunkler, surrealer Atmosphäre.

Wenn der Text zu glatt ist: Wie man KI-Sprache menschlicher macht

AI & UXR, AI WRITING, CHAT GPT, HUMAN VS AI

Futuristische Illustration: Mensch blickt auf leuchtende, humanoide KI vor digitalem Hintergrund.

Kein Science Fiction – KI macht sich selbstständig

AI & UXR, CHAT GPT

Illustration einer KI, die mit einem Menschen kommuniziert, symbolisch für die Überzeugungskraft künstlicher Intelligenz.

Zwischen Argument und Einfluss – Wie überzeugend darf KI sein?

AI & UXR, CHAT GPT, LLM

Eine zweidimensionale Comic Frau steht vor einem menschengroßen Handy, auf dem Gesundheitsapps zu sehen sind. Rechts von ihr steht ein Kasten mit einem Computer drauf, auf dem ein EKG zu sehen ist.

Digital Health Apps & Interfaces: Warum gute UX entscheidet, ob Patienten wirklich profitieren

HEALTHCARE, MHEALTH, TRENDS, UX METHODS

Illustration einer roten Hand, die symbolisch „Censorship“ über „User Privacy“ bei DeepSeek priorisiert; im Hintergrund die chinesische Flagge.

Zensur trifft KI: Was DeepSeek über Menschenrechte verschweigt – und warum das UX betrifft

AI & UXR, LLM, OPEN AI

 VERWANDTE ARTIKEL DIE SIE INTERESSIEREN KÖNNTEN 

AUTHOR

Tara Bosenick

Tara ist seit 1999 als UX-Spezialistin tätig und hat die Branche in Deutschland auf Agenturseite mit aufgebaut und geprägt. Sie ist spezialisiert auf die Entwicklung neuer UX-Methoden, die Quantifizierung von UX und die Einführung von UX in Unternehmen.


Gleichzeitig war sie immer daran interessiert, in ihren Unternehmen eine möglichst „coole“ Unternehmenskultur zu entwickeln, in der Spaß, Leistung, Teamgeist und Kundenerfolg miteinander verknüpft sind. Seit mehreren Jahren unterstützt sie daher Führungskräfte und Unternehmen auf dem Weg zu mehr New Work / Agilität und einem besseren Mitarbeitererlebnis.


Sie ist eine der führenden Stimmen in der UX-, CX- und Employee Experience-Branche.

bottom of page