
AI & UXR, HOW-TO, LLM
NotebookLM Im UX Research: Ehrliche Einschätzung Eines Spezialisierten Ki-Tools
8
MIN
19. März 2026
📌 Das Wichtigste in Kürze
NotebookLM arbeitet ausschließlich mit deinen eigenen Quellen und belegt jede Aussage mit direkten Zitaten – das macht Analysen nachvollziehbar.
Das erweiterte Kontextfenster (1 Million Token) erlaubt die gleichzeitige Analyse sehr großer Transkript-Mengen.
Für manifeste Themen – also das, was User explizit sagen – funktioniert NotebookLM stark. Latente Bedeutungen und implizite Muster erkennt es nicht zuverlässig.
Die neue Deep-Research-Funktion erweitert NotebookLM um aktive Web-Recherche – der Unterschied zu normalen LLMs wird damit kleiner.
Chat-Historie wird inzwischen gespeichert – ein früherer Kritikpunkt, der behoben ist.
Audio-Overviews sind aktuell nur auf Englisch verfügbar – für deutschsprachige UX Teams ein relevanter Punkt.
Der sinnvollste Einsatz: NotebookLM als Quellenarchiv und Analyse-Beschleuniger, kombiniert mit einem flexiblen LLM für interpretative Tiefenarbeit.
Zwanzig Transkripte, eine Frage: Womit fängst du an?
Du hast gerade eine Studienrunde abgeschlossen. Zwanzig Interviews, je 45 Minuten, drei verschiedene Nutzergruppen. Die Transkripte liegen vor dir. Du weißt, dass irgendwo darin die entscheidenden Erkenntnisse stecken – aber wo genau?
In meiner Arbeit als UX-Beraterin kenne ich diesen Moment gut. Früher war das manuelle Durcharbeiten der einzige Weg. Heute gibt es KI-Tools, die bei der Analyse helfen. Die Frage ist nur: Welches Tool passt wofür?
NotebookLM von Google wird seit einiger Zeit als spezialisierte Alternative zu allgemeinen KI-Assistenten wie Claude, ChatGPT oder Gemini diskutiert. In diesem Artikel schaue ich mir an, was das Tool wirklich kann – konkret, ohne Marketing-Bla-Bla, und aus der Perspektive von UX Research.
Was ist NotebookLM – und was macht es grundlegend anders?
NotebookLM ist ein KI-gestütztes Notizbuch von Google, das ausschließlich mit Quellen arbeitet, die du selbst hochlädst. Das klingt zunächst wie eine Einschränkung. Ist es aber nicht – es ist das zentrale Design-Prinzip.
Der technische Unterbau: NotebookLM nutzt sogenanntes RAG – Retrieval-Augmented Generation. Das bedeutet: Das Modell generiert keine Antworten aus seinem allgemeinen Trainingswissen, sondern durchsucht zunächst deine hochgeladenen Dokumente und zieht seine Antworten direkt daraus. Jede Aussage wird mit einer Quellenangabe belegt, die du anklicken und im Originaltext nachlesen kannst.
Das ist ein fundamentaler Unterschied zu allgemeinen LLMs (Large Language Models – also Sprachmodellen wie Claude, ChatGPT oder Gemini), die auf riesigen Textmengen aus dem Internet trainiert wurden und Antworten aus diesem Gesamtwissen synthetisieren.
Technische Basis: NotebookLM läuft auf Googles Gemini-Modell. Die Free-Version ist für den Einstieg ausreichend; NotebookLM Plus und Google AI Ultra for Business bieten höhere Limits und erweiterte Features.
Wichtig zu verstehen: NotebookLM entwickelt sich gerade von einem reinen Quellenarchiv in Richtung eines aktiven Recherche-Tools. Die neue Deep-Research-Funktion (dazu gleich mehr) erweitert das ursprüngliche Prinzip erheblich.
Welche Features sind für UX Research wirklich relevant?
Nicht jede neue Funktion ist für den Forschungsalltag gleich nützlich. Hier sind die Features, die konkret etwas bringen:
Quellenbasiertes Arbeiten mit direkten Zitaten
Das ist der Kern-Vorteil. Wenn du NotebookLM fragst: „Welche Probleme haben User mit dem Checkout-Prozess erwähnt?" – bekommst du nicht nur eine Zusammenfassung, sondern direkte Verweise auf die genauen Textstellen in deinen Transkripten. Für die Arbeit mit Stakeholdern ist das Gold wert: „Das hat User 7 gesagt" ist nicht mehr deine Interpretation – es ist nachprüfbar.
Erweitertes Kontextfenster für große Datenmengen
NotebookLM unterstützt inzwischen das volle 1-Millionen-Token-Kontextfenster von Gemini. In der Praxis bedeutet das: Du kannst sehr viele Transkripte gleichzeitig laden und übergreifend befragen. „Welches Thema taucht in allen drei Nutzergruppen auf?" ist eine Frage, die das Tool über den gesamten Datensatz hinweg beantworten kann.
Unterstützte Dateiformate
NotebookLM akzeptiert inzwischen: PDFs, Google Docs, Word-Dokumente, Bilder (mit OCR – das heißt, handschriftliche Notizen oder gescannte Dokumente werden automatisch in lesbaren Text umgewandelt), CSV-Dateien und YouTube-Video-Transkripte. Für UX Research heißt das: Interviewtranskripte, Umfrage-Rohdaten, Workshop-Fotos mit Post-its und Support-Ticket-Exports können in einem Notebook zusammengeführt werden.
Deep Research: aktive Web-Recherche
Das ist die jüngste und konzeptionell bedeutsamste Erweiterung. Mit Deep Research kann NotebookLM nicht nur deine eigenen Quellen durchsuchen, sondern aktiv im Web recherchieren und neue Informationen in dein Notebook einbinden. Für UX Researcher bedeutet das: Du kannst eigene Studiendaten mit aktuellen Marktdaten oder Hintergrundrecherchen kombinieren – ohne das Tool zu wechseln.
Hinweis: Der genaue Funktionsumfang von Deep Research variiert je nach Plan. Ich empfehle, die aktuelle Dokumentation auf notebooklm.google zu prüfen, bevor du dich auf diese Funktion verlässt.
Generierte Outputs
NotebookLM kann aus deinen Quellen automatisch erzeugen: Zusammenfassungen, FAQs, Study Guides, Flashcards, Briefing-Dokumente und – neu – Slide Decks und Infografiken. Diese Outputs sind Einstiegspunkte, keine fertigen Analysen. Aber als erster Schritt vor der eigentlichen Auswertung können sie erheblich Zeit sparen.
Audio Overviews – mit ehrlicher Einschätzung
Eine der bekanntesten Funktionen: NotebookLM generiert aus deinen Quellen einen Podcast-ähnlichen Dialog zwischen zwei KI-Stimmen. Inzwischen gibt es mehrere Formate – Brief, Critique, Debate, Deep Dive – sowie einen interaktiven Modus, bei dem du während des Zuhörens Fragen stellen kannst.
Relevanter Hinweis für deutschsprachige Teams: Audio Overviews sind aktuell nur auf Englisch verfügbar (Stand: März 2026). Bitte aktuell prüfen unter: https://notebooklm.google
Persistenter Workspace mit gespeicherter Chat-Historie
Ein früherer Kritikpunkt – dass die Konversationshistorie nach dem Schließen des Browsers verloren ging – ist inzwischen behoben. Deine Notebooks und Gesprächsverläufe bleiben gespeichert. Das macht iteratives Arbeiten über mehrere Sitzungen hinweg deutlich angenehmer.
Interactive Mind Map
Eine neuere Funktion, die visuell Verbindungen zwischen Themen in deinen Quellen darstellt. Für explorative Analysephasen – wenn du noch nicht weißt, welche Cluster sich abzeichnen – kann das ein hilfreicher Einstieg sein.
Praxisszenarien: Wo NotebookLM UX Researcher wirklich weiterbringt
Transkript-Analyse mit Quellennachweis
Das ist der stärkste Use Case. Du lädst alle Transkripte hoch und stellst gezielte Fragen: „Welche Nutzer:innen haben Probleme mit der Navigation erwähnt?" oder „Zeige mir alle Stellen, wo User ungefragt über Konkurrenzprodukte gesprochen haben." Jede Antwort ist mit Klick auf die Originalstelle nachprüfbar.
Das hat eine praktische Konsequenz für die Zusammenarbeit: Stakeholder können nicht mehr sagen „Das ist nur deine Interpretation" – sie sehen die O-Töne direkt.
Triangulation über verschiedene Datenquellen
Du hast Interviewtranskripte, Umfrage-Freitextfelder und Support-Ticket-Exports? In NotebookLM kannst du alle drei Quellen in ein Notebook laden und übergreifend befragen: „Welche Probleme tauchen sowohl in Interviews als auch in Support-Tickets auf?" Methodentriangulation – also das Zusammenführen verschiedener Forschungsmethoden – wird damit deutlich praktikabler.
Iteratives Usability Testing
Du testest einen Prototyp in drei Iterationen. Leg drei Quell-Cluster an (V1, V2, V3) und stelle gezielte Vergleichsfragen: „Welche Probleme aus V1 wurden in V3 nicht mehr erwähnt?" oder „Welche neuen Kritikpunkte sind in V3 aufgetaucht?" Die Entwicklung der Nutzerwahrnehmung über Iterationen hinweg wird sichtbar.
Schnelle Stakeholder-Briefings
Product Owner will „die drei wichtigsten Usability-Probleme mit Zitaten" – bis morgen früh. NotebookLM kann ein strukturiertes Briefing-Dokument mit Originalzitaten generieren, das direkt auf die Quellen verweist. Kein Abtippen, keine manuellen Zitat-Suchen.
Team-Kollaboration und Knowledge Sharing
Ein Research-Archiv-Notebook mit Reports der letzten zwei Jahre. Neue Teammitglieder können interaktiv Fragen stellen: „Was wissen wir über die Zielgruppe 50+?" oder „Welche Navigationsprobleme wurden schon untersucht?" Institutionelles Wissen wird zugänglich – nicht nur archiviert.
Audio Overview als Kommunikationsformat
Ein hypothetisches Szenario: Statt fünf separate Präsentationen für fünf Quartalsstudien produzierst du einen 15-minütigen Audio-Digest, der die Highlights zusammenfasst. Zielgruppe: Product Owner, Designer und Entwickler:innen, die „am Puls bleiben" wollen, aber nicht in jedes Research-Meeting kommen können.
Wichtig dabei: Positioniere das Format immer transparent als „KI-generierte Zusammenfassung" – nicht als Ersatz für die vollständige Analyse.
Wo NotebookLM an Grenzen stößt
Kein Tool kann alles. Diese Grenzen sind für UX Researcher besonders relevant:
Fehlinterpretation statt Halluzination: NotebookLM erfindet keine Fakten aus dem Nichts – aber es kann Ironie, Sarkasmus oder höfliche Zurückhaltung in Interviews falsch einordnen. Wenn ein User sagt „Ja, das ist natürlich total intuitiv" und damit das Gegenteil meint, erkennt das Tool die Ironie möglicherweise nicht. Gerade in qualitativer Forschung ist das ein reales Risiko.
Keine latenten Themen: NotebookLM findet, was explizit gesagt wird – manifeste Inhalte. Was User zwischen den Zeilen kommunizieren, welche unausgesprochenen Bedürfnisse hinter ihren Aussagen stecken – das bleibt menschliche Interpretationsarbeit.
Kein theoriegeleitetes Coding: Wenn du mit Grounded Theory arbeitest, mit thematischer Analyse nach Braun & Clarke oder mit einem anderen methodisch fundierten Ansatz – NotebookLM kann dabei nicht mitdenken. Es kennt keine Kodierlogik, entwickelt keine theoretischen Konzepte und validiert keine Interpretationen.
Begrenzte Output-Anpassbarkeit: Die generierten Dokumente (Summaries, Briefings, FAQs) sind als Einstiegspunkt gut – aber nachträglich feinjustieren lässt sich wenig. Format und Detailgrad sind eingeschränkt steuerbar.
Keine externen Integrationen: Kein direkter Datenaustausch mit Dovetail, MAXQDA, Figma oder anderen Tools im UX-Research-Stack. Das Tool ist ein geschlossenes System.
Audio nur auf Englisch: Für deutschsprachige UX Teams bedeutet das: Die Audio-Funktion ist aktuell nur eingeschränkt nutzbar. (Stand: März 2026 – bitte aktuell prüfen.)
Mobile hinkt hinterher: Neue Features erscheinen auf dem Desktop zuerst und kommen mit Verzögerung auf mobile Geräte.
NotebookLM vs. general LLMs – which one for what?
Kriterium | NotebookLM | Allgemeine LLMs (Claude, ChatGPT, Gemini) |
Quellennachweis | Direkt, klickbar | Manuell, nicht automatisch |
Datenbasis | Eigene Quellen + Web (Deep Research) | Trainingsdaten + Web (je nach Tool) |
Analysierbare Datenmenge | Sehr groß (1 Mio. Token) | Variiert je Modell |
Analytische Tiefe | Tiefe Manifeste Inhalte, strukturiert | Nuanciert, theoriegeleitet möglich |
Flexibilität der Analyse | Eingeschränkt | Hoch |
Team-Kollaboration | Notebook-Sharing möglich | Meist Einzelnutzung |
Datenschutz | Laut Google kein Modelltraining mit Nutzerdaten* | Variiert je Anbieter und Nutzungsbedingungen |
Ausgabesprache | Mehrsprachig (Audio nur EN) | Mehrsprachig |
Externe Integrationen | Keine | Variiert je Tool |
*Datenschutz-Hinweis: Google gibt an, dass hochgeladene Quellen und Konversationen nicht für das Modelltraining verwendet werden. Das gilt jedoch möglicherweise nicht für alle Pläne gleichermaßen. Für sensible Forschungsdaten empfehle ich, die aktuellen Nutzungsbedingungen und ggf. eine Datenschutzfolgenabschätzung zu prüfen – insbesondere bei DSGVO-relevanten Daten.
Entscheidungshilfe: NotebookLM, LLM oder beides?
Nutze NotebookLM, wenn …
du viele Dokumente gleichzeitig analysieren willst
Quellennachweis und Nachvollziehbarkeit für Stakeholder wichtig sind
du im Team arbeiten und Erkenntnisse asynchron teilen willst
du schnell strukturierte Outputs für Briefings oder Dokumentationen brauchst
du Triangulation über verschiedene Datenquellen betreiben willst
Nutze ein allgemeines LLM, wenn …
du theoriegeleitete, interpretative Analyse betreibst
du latente Themen und implizite Bedeutungen erschließen willst
du einen iterativen Analysedialog führst, der sich über viele Gesprächsschritte entwickelt
du flexible Ausgabeformate oder Code-Generierung brauchst
du methodische Entscheidungen im Dialog durchdenken willst
Der sinnvollste Ansatz: Hybrid
In meiner Praxis funktioniert die Kombination am besten: NotebookLM als Quellenarchiv und Analyse-Beschleuniger – für den ersten Überblick, die Zitat-Suche, die Stakeholder-Briefings. Ein allgemeines LLM für die interpretative Tiefenarbeit – für das Entwickeln von Codes, das Durchdenken von Hypothesen, das Einordnen in theoretische Rahmen.
Beide Tools gemeinsam ersetzen nicht das menschliche Urteil. Aber sie nehmen einen erheblichen Teil der zeitaufwändigen Routinearbeit ab.
Praktische Einstiegstipps für UX Researcher
Fang klein an. Ein Notebook, eine Studie, fünf Transkripte. Lern das Tool kennen, bevor du das gesamte Research-Archiv hochlädst.
Stelle präzise Fragen. „Was haben User über die Navigation gesagt?" liefert bessere Ergebnisse als „Was sind die wichtigsten Findings?" – je spezifischer die Frage, desto nützlicher die Antwort.
Nutze die Zitierverknüpfung aktiv. Klick immer auf die Quellenverweise und prüfe den Kontext. Das Tool kann Sätze aus dem Zusammenhang reißen – besonders bei langen Dokumenten.
Trenne Datenquellen sinnvoll. Leg für verschiedene Studien separate Notebooks an, nicht alles in einen Topf. Das hält die Analyse sauber und die Ergebnisse nachvollziehbar.
Behandle generierte Outputs als Hypothesen. Zusammenfassungen, FAQs und Briefings sind Einstiegspunkte – keine fertigen Analysen. Stell sie immer auf den Prüfstand.
Vorsicht bei Ironie und Subtext. Bei Transkripten, in denen Befragte höflich ausweichen oder Sarkasmus einsetzen: Manuelle Prüfung ist hier unersetzlich.
FAQ: Häufige Fragen zu NotebookLM im UX Research
Kann ich NotebookLM für DSGVO-konforme Forschung nutzen?
Das hängt von deinem konkreten Kontext ab. Google gibt an, dass Nutzerdaten nicht fürs Modelltraining verwendet werden. Für personenbezogene Forschungsdaten empfehle ich eine Datenschutzfolgenabschätzung und das Prüfen der aktuellen Nutzungsbedingungen – besonders wenn du mit sensitiven Zielgruppen arbeitest. Ich bin keine Rechtsberaterin, aber das ist ein Punkt, den du vor dem Einsatz klären solltest.
Wie viele Transkripte kann ich sinnvoll in einem Notebook analysieren?
Das 1-Millionen-Token-Kontextfenster erlaubt technisch sehr viele Dokumente. Praktisch empfehle ich, thematisch zusammenhängende Studien gemeinsam zu laden und unzusammenhängende Projekte in separate Notebooks zu packen. Die Qualität der Antworten steigt, wenn die Quellen einen klaren gemeinsamen Fokus haben.
Ersetzt NotebookLM Analyse-Tools wie MAXQDA oder Dovetail?
Nein. NotebookLM ist kein Qualitative-Data-Analysis-Tool im klassischen Sinne. Es hat keine Coding-Funktion, kein Kategoriensystem und keine strukturierten Auswertungsworkflows. Es ist ein sehr leistungsfähiges Quellenarchiv mit intelligenter Suchfunktion – aber kein Ersatz für dedizierte QDA-Software.
Kann NotebookLM auch mit Videos oder Audio-Dateien arbeiten?
Direkt mit Audio-Dateien noch nicht. YouTube-Videos können über ihre URL als Quelle hinzugefügt werden – NotebookLM nutzt dann das automatisch generierte Transkript. Eigene Audio-Aufnahmen müssen zunächst transkribiert werden, bevor sie eingebunden werden können.
Wie unterscheidet sich NotebookLM von einem normalen Gemini-Chat?
Gemini im Standard-Chat greift auf sein gesamtes Trainingswissen zu und kann im Web suchen. NotebookLM beschränkt seine Antworten auf die von dir hochgeladenen Quellen – und belegt jede Aussage direkt darin. Das macht Antworten nachvollziehbarer, aber weniger flexibel.
Fazit: Ein starkes Werkzeug – am richtigen Platz eingesetzt
NotebookLM ist kein Alleskönner. Aber es ist ein sehr nützliches Werkzeug für einen spezifischen Teil der UX-Research-Arbeit: das schnelle, nachvollziehbare Erschließen großer Quellenmengen.
Was es gut kann: Transkripte durchsuchen, Muster über Datenquellen hinweg sichtbar machen, Stakeholder-Briefings mit Quellennachweis generieren und als persistentes Team-Archiv funktionieren.
Was es nicht kann: latente Themen erkennen, theoriegeleitet kodieren, mit externen Tools integrieren oder die interpretativen Entscheidungen übernehmen, die qualitative Forschung ausmachen.
Meine Empfehlung: Probier es aus – aber mit klaren Erwartungen. Fang mit einer abgeschlossenen Studie an, die du bereits ausgewertet hast. So kannst du direkt vergleichen, was das Tool findet und was es übersieht. Das ist der ehrlichste Einstieg.
Über die Autorin:
Tara Bosenick ist UX-Beraterin und Co-Inhaberin von Uintent. Seit 1999 begleitet sie Unternehmen dabei, ihre Produkte nutzerfreundlicher zu gestalten – mit fundierten Research-Methoden und einem klaren Blick für das Wesentliche. Als Speakerin auf Kongressen wie Mensch & Computer und dem World Usability Congress teilt sie ihr Wissen über UX und AI. In ihren Workshops zu UX-AI-Prompting und AI-Integration steckt, was gute UX ausmacht: klarer Nutzen, direkte Anwendbarkeit – und Spaß am Prozess.
💌 Noch nicht genug? Dann lies weiter – in unserem Newsletter.
Kommt viermal im Jahr. Bleibt länger im Kopf. https://www.uintent.com/de/newsletter
VERWANDTE ARTIKEL DIE SIE INTERESSIEREN KÖNNTEN
AUTHOR
Tara Bosenick
Tara ist seit 1999 als UX-Spezialistin tätig und hat die Branche in Deutschland auf Agenturseite mit aufgebaut und geprägt. Sie ist spezialisiert auf die Entwicklung neuer UX-Methoden, die Quantifizierung von UX und die Einführung von UX in Unternehmen.
Gleichzeitig war sie immer daran interessiert, in ihren Unternehmen eine möglichst „coole“ Unternehmenskultur zu entwickeln, in der Spaß, Leistung, Teamgeist und Kundenerfolg miteinander verknüpft sind. Seit mehreren Jahren unterstützt sie daher Führungskräfte und Unternehmen auf dem Weg zu mehr New Work / Agilität und einem besseren Mitarbeitererlebnis.
Sie ist eine der führenden Stimmen in der UX-, CX- und Employee Experience-Branche.




















