
UX, UX QUALITY, UX METHODS
Warum UX Research seine Glaubwürdigkeit verliert und wie wir sie zurückgewinnen
5
MIN
22. Okt. 2025
Seit Jahren predigen wir die Wichtigkeit nutzerzentrischer Produktentwicklung. UX Research ist zum Buzzword geworden, jedes Unternehmen will "datengetrieben" entscheiden. Designteams schwören auf User Journeys, Product Owner zitieren Nutzerfeedback, und in jeder Produktpräsentation finden sich bunte Charts mit Research-Insights.
Doch hinter den schönen Präsentationen und fundierten Empfehlungen verbirgt sich eine unbequeme Wahrheit: Die Qualität unserer Forschung bröckelt systematisch.
Während die Nachfrage nach UX Research explodiert, sinkt paradoxerweise das Vertrauen der Entscheider in unsere Ergebnisse. Projekte werden trotz Research-Empfehlungen anders umgesetzt. Budgets gekürzt. Timelines verkürzt. Der CEO spielt seine Chef-Karte und ignoriert alle Nutzertests: "Ich weiß, was unsere Kunden wollen."
Die Branche steht vor einer Glaubwürdigkeitskrise – und wir sind selbst schuld daran.
Der Methodenkoffer schrumpft dramatisch
UX Research sollte ein vielfältiges Methodenspektrum umfassen, das von ethnografischen Studien bis zu statistischen Analysen reicht. Stattdessen erleben wir eine dramatische Verengung auf wenige, vertraute Techniken. Usability-Tests und qualitative Interviews dominieren – nicht, weil sie immer die richtige Wahl sind, sondern weil sie das einzige sind, was viele Researcher beherrschen.
Wann haben Sie das letzte Mal eine Contextual Inquiry durchgeführt? Tagebuchstudien über mehrere Wochen begleitet? Card Sorting für Informationsarchitektur eingesetzt? Quantitative Methoden werden völlig vernachlässigt, obwohl sie bei vielen Forschungsfragen unverzichtbar wären.
Ein typisches Beispiel: Ein E-Commerce-Unternehmen will verstehen, warum Nutzer im Checkout abbrechen. Statt einer quantitativen Analyse der Abbruchpunkte kombiniert mit qualitativen Interviews wird ausschließlich ein Usability-Test mit fünf Nutzern durchgeführt. Das Ergebnis? Oberflächliche Insights, die das echte Problem verfehlen.
Diese methodische Verarmung führt zu einem gefährlichen Tunnelblick: Wir beantworten nur noch die Fragen, die unsere begrenzten Methoden beantworten können – statt die Fragen, die das Business wirklich bewegen. Quantitative Validierung? "Brauchen wir nicht." Triangulation verschiedener Methoden? "Zu aufwendig." Mixed-Methods-Ansätze? "Kenne ich nicht."
Der Nielsen-Mythos und seine fatalen Folgen
"Fünf User reichen" – Jakob Nielsens Regel aus den 90ern geistert immer noch durch unsere Branche wie ein untoter Zombie. Völlig aus dem Kontext gerissen, wird sie als Universalwahrheit für jede Art von Research behandelt. Dabei bezog sich Nielsen auf iterative Usability-Tests zur Identifikation von Interface-Problemen, nicht auf grundlegende Nutzerforschung oder Marktvalidierung.
Doch diese Pseudo-Wissenschaftlichkeit gibt uns ein trügerisches Gefühl der Sicherheit. Wir testen fünf sorgfältig ausgewählte Nutzer und glauben, die Wahrheit über alle Zielgruppen gepachtet zu haben. Statistische Signifikanz? "Überbewertet." Repräsentative Stichproben? "Zu teuer." Konfidenzintervalle? "Was ist das?"
Ein konkretes Beispiel: Ein Fintech-Startup testet seine neue Investment-App mit fünf technikaffinen Millennials aus Berlin. Basierend auf diesem "Research" wird die App für den gesamten deutschsprachigen Markt gelauncht – und flopped bei älteren Zielgruppen komplett. Überraschung? Kaum.
Das Ergebnis sind Insights, die auf erschreckend dünnem Eis stehen – und trotzdem als fundierte Entscheidungsgrundlage für millionenschwere Produktentscheidungen verkauft werden.
Die Beobachtungsblindheit der digitalen Generation
Effizienz ist wichtig. Skalierung ist notwendig. Aber unser Drang nach Automatisierung und Remote-Research kostet uns das Wertvollste, was wir haben: die Fähigkeit zur nuancierten Beobachtung.
Online-Tools erfassen nur explizite Aussagen. Unmoderierte Tests liefern nur Oberflächendaten. Screen-Recordings zeigen Klicks, aber nicht die Emotionen dahinter. Chatbots sammeln Feedback, aber verstehen nicht die Frustration in der Stimme.
Dabei passiert das Entscheidende zwischen den Zeilen: Die Mikro-Geste der Verwirrung, wenn ein Button nicht dort ist, wo erwartet. Die Pause vor der Antwort, die Unsicherheit verrät. Der Moment, in dem der Nutzer unbewusst nach einer Alternative sucht. Das nervöse Lachen, wenn etwas nicht funktioniert. Die Körpersprache, die sagt: "Das würde ich niemals kaufen."
Wenn wir nur auf das hören, was gesagt wird, haben wir als UXer bereits verloren. Die tiefsten Insights entstehen durch Beobachtung – eine Kompetenz, die wir systematisch verlernen, während wir uns in digitale Tools verlieben.
Verzerrte Realitäten und selbstgemachte Filterblasen
Rekrutierung ist teuer, zeitaufwendig und komplex. Also greifen viele Unternehmen zu verführerischen Shortcuts: eigene Mitarbeiter, bestehende Kundenpools, Online-Plattformen mit fragwürdigen Qualitätsstandards. Das Problem? Diese Stichproben sind systematisch verzerrt.
Der Mitarbeiter-Bias: Ein Software-Unternehmen testet seine neue CRM-Software mit eigenen Sales-Mitarbeitern. Wie sollen Menschen, die das Produkt täglich nutzen und deren Gehalt davon abhängt, dass es erfolgreich ist, neutral bewerten? Sie kennen alle Workarounds, übersehen grundlegende Usability-Probleme und bewerten Funktionen positiver, als externe Nutzer es würden.
Der Loyalitäts-Bias: Ein E-Commerce-Portal rekrutiert für Tests ausschließlich aus seinem Newsletter-Verteiler. Diese Nutzer sind bereits emotional investiert, nutzen das Portal regelmäßig und sind deutlich toleranter gegenüber Problemen als Neukunden.
Der Designer-testet-eigenes-Interface-Bias: Noch schlimmer wird es, wenn Designer ihre eigenen Interfaces testen. Ownership Bias, Sunk Cost Fallacy und Cognitive Dissonance greifen gleichzeitig. Unbewusst "helfen" sie den Probanden, lenken Gespräche in positive Richtungen und interpretieren Kritik als "Nutzer hat es nicht verstanden" statt als valides Feedback.
Wir schaffen uns unsere eigene Filterblase und nennen es Research.
KI-Halluzinationen als neue Qualitätsfalle
Die neueste Bedrohung für Research-Qualität kommt aus einer unerwarteten Ecke: Künstliche Intelligenz. KI-Tools versprechen schnellere Auswertungen, automatisierte Insights und skalierbare Analysen. Doch sie bringen auch neue Risiken mit sich.
KI kann überzeugend falsche Patterns "erkennen", die gar nicht existieren. Sentiment-Analysen interpretieren Ironie als positive Bewertung. Automatisierte Clustering-Algorithmen finden Nutzergruppen, die nur im Computer existieren. Transkriptions-KI erfindet Zitate, die nie gesagt wurden.
Das Perfide: Diese Halluzinationen wirken oft überzeugender als echte Daten, weil sie exakt das liefern, was wir hören wollen. Confirmation Bias trifft auf algorithmische Verzerrung – eine explosive Mischung für jeden, der die Grenzen der Technologie nicht versteht.
Das Briefing-Desaster: Forschung ohne Ziel
Bevor auch nur die erste Frage gestellt wird, scheitern viele Research-Projekte bereits am Briefing. "Wir wollen wissen, wie Nutzer unser Produkt finden" ist kein Forschungsauftrag – es ist ein Wunsch.
Konkrete Forschungsfragen fehlen. Hypothesen werden nicht formuliert. Success-Metriken bleiben vage. Das Ergebnis? Research wird zur Beschäftigungstherapie, die zwar Daten produziert, aber keine verwertbaren Insights liefert.
Ein klassisches Szenario: Das Marketing-Team beauftragt eine "Nutzerstudie" für die neue Website. Drei Wochen später liegt ein 50-seitiger Report vor, der bestätigt, dass "Nutzer eine intuitive Navigation bevorzugen". Geld verbrannt, Zeit verschwendet, Erkenntnisgewinn gleich null.
Interviewing ist nicht gleich Interviewing
"Jeder kann Interviews führen" – ein gefährlicher Mythos unserer Branche. Zwischen einem lockeren Gespräch und professioneller Interviewführung liegen Welten, die viele Researcher unterschätzen.
Suggestivfragen produzieren gewünschte Antworten: "Finden Sie diese Funktion nicht auch großartig?" Leading Questions verzerren Ergebnisse: "Würden Sie dieses Produkt kaufen oder nicht?" Fehlende Nachfragen lassen wichtige Insights unentdeckt.
Das Ergebnis sind Pseudo-Daten, die gefährlicher sind als gar keine Daten – weil sie eine falsche Sicherheit vermitteln. Schlechte Interviews liefern trotzdem Antworten, nur eben die falschen.
Die HiPPO-Falle: Wenn Hierarchie Research überstimmt
Der klassische "Highest Paid Person's Opinion"-Effekt (HiPPO) ist vielleicht das frustrierendste Qualitätsproblem überhaupt. Da investiert ein Team Wochen in sorgfältige Forschung, liefert fundierte Empfehlungen ab – und der CEO entscheidet trotzdem anders, weil er "ein Gefühl" hat.
Noch perfider: Research wird als Alibifunktion missbraucht. Die Entscheidung steht bereits fest, aber man lässt trotzdem "forschen", um wissenschaftlich zu wirken. Ergebnisse werden cherry-picked, unbequeme Insights unter den Teppich gekehrt.
Das Timing wird manipuliert: Research wird so spät angesetzt, dass nur noch bestätigende Ergebnisse "hilfreich" sind. Kritische Erkenntnisse kommen zu einem Zeitpunkt, wo Änderungen "leider nicht mehr möglich" sind.
Die Qualitätsspirale nach unten
Diese Probleme verstärken sich gegenseitig und schaffen eine Abwärtsspirale der Research-Qualität. Schlechte Methodik liefert schwache Insights. Schwache Insights führen zu schlechten Produktentscheidungen. Schlechte Entscheidungen untergraben das Vertrauen in UX Research. Geringeres Vertrauen führt zu weniger Budget und Zeit für ordentliche Forschung.
Die Konsequenz: Research wird zum Ritual degradiert, das man halt macht, weil es "dazugehört". Insights verschwinden in PowerPoint-Friedhöfen. Nutzererkenntnisse werden nicht in systematischen Repositories gesammelt, sondern gehen von Projekt zu Projekt verloren.
Das Tragische: Je schlechter unsere Forschung wird, desto mehr rechtfertigen Entscheider ihre Bauchgefühl-Entscheidungen. "Research bringt sowieso nichts Neues" wird zur selbsterfüllenden Prophezeiung, wenn wir tatsächlich nur noch oberflächliche Bestätigungen liefern statt überraschender Erkenntnisse.
Weitere systematische Qualitätsfallen
Survivorship Bias: Wir reden nur mit aktuellen Nutzern, nie mit denen, die abgesprungen sind. Dabei liegen dort oft die wertvollsten Insights über Produktschwächen.
Timing-Probleme: Research findet zu spät statt, wenn Entscheidungen bereits gefallen sind. Oder zu früh, wenn noch gar nicht klar ist, was erforscht werden soll.
Mangelnde Intercoder-Reliabilität: Qualitative Daten werden nur von einer Person ausgewertet, ohne Validierung durch andere Researcher. Subjektive Interpretationen werden als objektive Erkenntnisse verkauft.
Fehlende Baseline-Messungen: Verbesserungen können nicht gemessen werden, weil der Ausgangszustand nicht dokumentiert wurde. War die Conversion-Rate vor dem Redesign wirklich schlechter?
Zeitdruck-bedingte Shortcuts: "Wir haben nur zwei Wochen" führt zu methodischen Kompromissen, die die Ergebnisse wertlos machen. Statt einer ordentlichen Studie gibt es einen "Quick & Dirty"-Test, der niemandem hilft.
Der Weg zurück zur Glaubwürdigkeit
Die Lösung liegt nicht in mehr Tools, schnelleren Methoden oder günstigeren Alternativen. Sie liegt in fundamentaler Qualitätssteigerung und der Rückbesinnung auf handwerkliche Exzellenz:
Methodenkompetenz radikal erweitern: Investieren Sie in Weiterbildung. Lernen Sie quantitative Methoden. Verstehen Sie, wann welche Methode angemessen ist. Ein UX Researcher sollte genauso selbstverständlich eine statistische Signifikanzprüfung durchführen können wie ein qualitatives Interview.
Strikte Objektivität durchsetzen: Keine Selbsttests. Keine Gefälligkeitsforschung. Keine Tests mit Mitarbeitern für externe Produkte. Externe Perspektiven sind unbezahlbar – auch wenn sie teurer sind.
Beobachtungskultur stärken: Nicht alles muss skalieren. Manchmal braucht es den aufwendigen, aber aufschlussreichen Weg. In-Person-Research mag teurer sein, aber liefert Insights, die kein Online-Tool erfassen kann.
Triangulation als Standard etablieren: Eine Methode reicht nie. Validieren Sie quantitative Daten durch qualitative Insights. Bestätigen Sie Einzelmeinungen durch breitere Erhebungen. Kombinieren Sie verschiedene Datenquellen.
Klare Forschungsfragen definieren: Definieren Sie präzise, was Sie wissen wollen – bevor Sie anfangen zu forschen. Formulieren Sie testbare Hypothesen. Legen Sie Success-Metriken fest.
Langfristige Research-Strategie entwickeln: Bauen Sie auf vorherigen Erkenntnissen auf. Schaffen Sie ein organisationales Research-Gedächtnis. Dokumentieren Sie nicht nur Ergebnisse, sondern auch Methoden und Limitationen.
KI kritisch einsetzen: Nutzen Sie KI als Werkzeug, nicht als Ersatz für menschliche Analyse. Validieren Sie automatisierte Insights durch manuelle Überprüfung. Verstehen Sie die Grenzen der Technologie.
Research-Kommunikation professionalisieren: Bereiten Sie Insights handlungsorientiert auf. Sprechen Sie die Sprache des Business. Quantifizieren Sie Probleme: Nicht "Nutzer sind frustriert", sondern "68% brechen an dieser Stelle ab".
Die Entscheidung liegt bei uns
UX Research steht an einem Scheideweg. Entweder wir akzeptieren die Qualitätserosion und werden zu Lieferanten von Pseudo-Insights, die niemand ernst nimmt. Oder wir besinnen uns auf handwerkliche Exzellenz und kämpfen um die Glaubwürdigkeit unserer Disziplin.
Die Wahl liegt bei jedem einzelnen von uns. Bei jedem Projekt, bei dem wir entscheiden, ob wir den einfachen oder den richtigen Weg gehen. Bei jeder Methodenentscheidung, bei der wir zwischen "schnell" und "fundiert" wählen müssen. Bei jeder Stichprobe, bei der wir zwischen "verfügbar" und "repräsentativ" entscheiden.
Denn eines ist klar: Eine Branche, die ihre eigenen Standards nicht ernst nimmt, kann nicht erwarten, dass andere sie ernst nehmen. Wenn wir weiterhin methodische Shortcuts als "agile Research" verkaufen und oberflächliche Insights als "datengetriebene Entscheidungen" präsentieren, werden wir unsere Glaubwürdigkeit endgültig verspielen.
Die Frage ist nicht, ob wir uns Qualität leisten können. Die Frage ist, ob wir uns Qualitätsverlust leisten können.
Können wir uns wirklich schlechte Forschung leisten?
VERWANDTE ARTIKEL DIE SIE INTERESSIEREN KÖNNTEN
AUTHOR
Tara Bosenick
Tara ist seit 1999 als UX-Spezialistin tätig und hat die Branche in Deutschland auf Agenturseite mit aufgebaut und geprägt. Sie ist spezialisiert auf die Entwicklung neuer UX-Methoden, die Quantifizierung von UX und die Einführung von UX in Unternehmen.
Gleichzeitig war sie immer daran interessiert, in ihren Unternehmen eine möglichst „coole“ Unternehmenskultur zu entwickeln, in der Spaß, Leistung, Teamgeist und Kundenerfolg miteinander verknüpft sind. Seit mehreren Jahren unterstützt sie daher Führungskräfte und Unternehmen auf dem Weg zu mehr New Work / Agilität und einem besseren Mitarbeitererlebnis.
Sie ist eine der führenden Stimmen in der UX-, CX- und Employee Experience-Branche.













.png)






