top of page
uintent Firmenlogo

AUTOMOTIVE UX, VOICE ASSISTANTS

Der Beifahrer, der immer zuhört: Warum wir unseren Autos nur ungern vertrauen, wenn sie sprechen

4

MIN

12. Dez. 2025

Kennen Sie das? Die Kinder streiten auf der Rückbank, draußen regnet es Bindfäden und Sie rufen genervt: "Hey Auto, spiel irgendwas Beruhigendes!" Und das System? Es versteht "Navigiere zu Burger King" und schaltet die Klimaanlage auf maximale Kälte. Die Sprachsteuerung, als eleganter Problemlöser für das Ablenkungsdilemma des Touchscreens konzipiert, hat sich in vielen Fällen als Quelle neuer Frustration und vor allem neuer Vertrauenskrisen entpuppt. 


In unserem Vortrag „Touch, Trust and Transformation" auf der UXMC 2025 haben wir beleuchtet, wie die HMI-Entwicklung von der Haptik über den Touch zur Voice-Steuerung fortschreitet. Die zentrale Frage bleibt: Vertrauen wir dem System, wenn es darauf ankommt? Bei der Sprachsteuerung kommt zu Usability-Fragen ein neues, existenzielles Dilemma hinzu: die Angst vor dem Mithören. 

 

Vom Befehl zum freien Dialog: Das Versprechen der Voice Control 

Nachdem die Touchscreens das Problem der Ablenkung nur verschärft hatten, trat die Sprachsteuerung an, um die goldene Brücke zu schlagen: Hände am Steuer, Augen auf die Straße. 


Die moderne Generation, angetrieben durch Large Language Models (LLMs), verspricht den natürlichen Dialog: Der Fahrer sagt einfach „Mir ist kalt“ und das Auto reguliert die Temperatur. Der Zulieferer Continental etwa betont, dass man sich von auswendig gelernten Befehlen verabschiede und stattdessen den Fahrer mit dem Auto „auf Du und Du“ sein möchte. (Quelle: Sprachsteuerung im Trend: Mit dem Auto auf Du und Du - Autohaus) 


Das Reifegrad-Dilemma: Wenn LLMs mehr versprechen als sie halten 

Doch die Realität aktueller LLM-Integrationen in Serienfahrzeugen zeigt ein fundamentales Problem: Viele dieser Systeme sind noch nicht ausgereift. Sie simulieren Verständnis und Kontrolle über Fahrzeugfunktionen, ohne diese tatsächlich zu besitzen. Ein typisches Szenario: Der Fahrer bittet das System, das Fenster zu öffnen. Das LLM bestätigt höflich die Ausführung, doch das Fenster bleibt geschlossen. Das System hat schlicht keine Schnittstelle zur Fahrzeugsteuerung. Der frustrierte Fahrer insistiert, das LLM entschuldigt sich und „korrigiert" seinen Fehler, ohne dass sich am Ergebnis etwas ändert.

 

Das Generationen-Trauma 

Diese voreilige Markteinführung unreifer Technologie wiederholt ein Muster, das bereits vor 20 Jahren nachhaltige Schäden anrichtete. Deutsche Autofahrer erlebten damals die ersten Sprachsteuerungen und lernten: „Funktioniert nicht gut." Diese frühe Prägung wirkt bis heute nach und prägt die skeptische Grundhaltung gegenüber Sprachsteuerung in weiten Teilen der Bevölkerung. In China hingegen lernten viele Nutzer Sprachsteuerung erst in ihrer ausgereifteren Form kennen, das Grundvertrauen ist entsprechend deutlich höher. Die aktuelle unreife LLM-Integration riskiert, eine neue Generation von Nutzern langfristig zu frustrieren. 


Verschärfend kommt hinzu: Anders als bei klassischer Sprachsteuerung, die klar auf Fahrzeugfunktionen begrenzt war, suggerieren LLMs universelle Kompetenz. Nutzer können nicht mehr einschätzen, welche Befehle funktionieren und welche nicht - jede Interaktion wird zu Trial & Error. 


Harte Fakten: Ablenkung durch Fehlinterpretation 

So elegant die Dialoge im Marketing wirken, so schnell schwindet die Akzeptanz, wenn die Technologie im Alltag versagt. Die akustische Komplexität (Motorgeräusche, Musik, Wind) und die sprachliche Variabilität (Dialekte, Akzente) erhöhen die Fehlerquote rapide. 

  • Vergleich der Bedienzeiten (Hochschule Aalen): Eine Pilotstudie der Hochschule Aalen untersuchte den Einfluss von Infotainmentsystemen auf Autounfälle in einem realitätsnahen Versuchsaufbau. Die Probanden mussten Aufgaben bei konstanter Geschwindigkeit ausführen. Die Ergebnisse zeigten klar: Die Durchführung per Drehregler war im Median am schnellsten (sieben Sekunden), gefolgt vom Touchscreen (neun Sekunden). Die Sprachsteuerung und andere Interaktionsformen benötigten oft mehr Zeit, was die Ablenkung verlängert. (Quelle: NEWS Hochschule Aalen führt Studie zu Risiken von Infotainment-Anwendungen im Auto durch - Hochschule Aalen) 


Jeder Fehler, jede Fehlinterpretation, die den Fahrer dazu zwingt, das Kommando zu wiederholen oder schließlich doch den Bildschirm zu berühren, führt zu Frustration und verlängerter Ablenkung. 


Die Cloud-Falle: Wenn das Netz zur Schwachstelle wird 

Ein oft übersehenes Problem verschärft die Situation zusätzlich: Die meisten LLM-basierten Sprachsysteme laufen (im vollen Umfang) nicht lokal im Fahrzeug, sondern cloud-basiert, um bessere Erkennungsqualität und komplexere Interaktionen zu ermöglichen. Das bedeutet: Selbst ein theoretisch funktionierendes System versagt auf deutschen Landstraßen ohne 5G oder LTE-Verbindung. Für den Nutzer entsteht eine doppelte Intransparenz: Er kann nicht unterscheiden, ob das System ihn nicht versteht, ob es technisch nicht funktioniert oder ob schlicht die Netzverbindung fehlt. Die Unzuverlässigkeit wird zur selbsterfüllenden Prophezeiung. 


Die nächste Stufe: Emotionale Intelligenz im Auto  

Um die Interaktion menschlicher zu gestalten, integrieren Autohersteller sogenannte "Emotion Engines". Diese KI-Systeme analysieren anhand von Sprachmelodie, Wortwahl und Gesichtsausdruck die Emotion des Fahrers. 

  • Frustrationsmilderung: Studien des Deutschen Zentrums für Luft- und Raumfahrt (DLR) haben die Wirksamkeit von Sprachinterventionen getestet, um Frustration im Auto zu mildern. Die Ergebnisse waren eindeutig: Frustrationsmildernde Sprachinterventionen – beispielsweise bei HMI-Problemen – führten zu signifikant niedrigeren Frustrationswerten bei den Probanden. Das System kann also durch eine gezielte Ansprache nicht nur Funktionen steuern, sondern aktiv zur Verkehrssicherheit beitragen, indem es aggressives Fahrverhalten durch Stressreduktion verhindert. (Quelle: Verbesserung der In-Car User Experience durch sprachinterventive Frustrationsreduktion - DLR 

  • Die kulturelle Gradwanderung: Doch die Akzeptanz solcher Systeme erweist sich als extreme Gradwanderung und ist stark von kulturellen und situativen Faktoren abhängig. Studien zeigen beispielsweise deutliche Unterschiede zwischen Deutschland und China: Während in China besonders junge Männer – die kulturell bedingt oft wenig Gelegenheit zu emotionalem Austausch haben – den emotionalen Dialog mit dem Fahrzeug schätzen, gilt dies ausschließlich, wenn sie allein unterwegs sind. Sobald Beifahrer anwesend sind, wird dieselbe Funktion als unangenehm empfunden. Die Herausforderung für Hersteller: Systeme zu entwickeln, die kontextsensibel genug sind, um soziale Situationen zu erkennen und entsprechend zu reagieren. 

  • Proaktive Assistenz: Das Konzeptfahrzeug Honda NeuV verfügte beispielsweise über eine "Emotion Engine", die versuchte, die Stimmung des Fahrers zu erkennen, um daraufhin den passenden Fahrmodus oder Musik vorzuschlagen. (Quelle: Wenn das Auto aufs Wort hört | springerprofessional.de) 

 

Der neue Kernkonflikt: Datenschutz als Kosten-Nutzen-Kalkül 

Die tiefgreifendste Vertrauenskrise bei der Sprachsteuerung ist nicht die Usability, sondern der Datenschutz. Ein System, das die Stimmung des Fahrers erkennt und kontextsensibel reagiert, muss ständig aktiv sein – es hört zu. 


Doch ist Datenschutz wirklich das Killerkriterium, als das er oft dargestellt wird?

Die pauschale Annahme „Deutsche wollen Datenschutz" greift möglicherweise zu kurz. Die Realität zeigt: Datenschutz ist für viele Nutzer eine Abwägungsfrage zwischen Kosten und Nutzen. 35 Millionen Deutsche nutzen Payback - trotz umfassender Datenerfassung. Studien zu digitalen Bezahldiensten zeigen: Bei ausreichendem Gegenwert, beispielsweise Cashback-Angeboten, sind viele Nutzer bereit, ihre Datenschutzbedenken zurückzustellen. Die Frage ist also nicht, ob Nutzer bereit sind, Daten zu teilen, sondern unter welchen Bedingungen und mit welchem transparenten Mehrwert. 


Trotz dieser pragmatischen Haltung bleiben die Erwartungen an Sicherheit hoch. Eine Studie von Veritas zeigte, dass 86 Prozent der Verbraucher angemessene Maßnahmen zum Schutz ihrer Daten erwarten, und fast drei Viertel würden im Falle eines Datenlecks einen Wechsel der Automarke in Betracht ziehen. (Quelle: Intransparenter Umgang mit privaten Daten: Autohersteller riskieren Vertrauen ihrer Kunden - silicon.de) 


Wie sich die tatsächliche Haltung deutscher Nutzer zum Datenschutz von der gesellschaftlich erwarteten Antwort unterscheidet – und was das für Hersteller bedeutet – beleuchten wir in einem kommenden Artikel. 

 

Die Stimme als biometrischer Schlüssel (Voiceprints)  

Umgekehrt kann die Sprachsteuerung auch zur Lösung von Sicherheitsproblemen beitragen. Die Biometrie im Auto gewinnt massiv an Bedeutung, wobei die Stimme als "Voiceprint" oder akustischer Fingerabdruck dient. 

  • Sichere Authentifizierung: Die Sprachverifikation bietet einen einzigartigen akustischen Fingerabdruck jedes Nutzers und ermöglicht eine präzise Identifikation des Fahrers. Dies schützt vor unbefugtem Zugriff und dient der Personalisierung. Zukünftige Systeme werden auf mehrschichtige Authentifizierung setzen, um zum Beispiel Bezahlfunktionen oder den Motorstart nur nach biometrischer Freigabe zu erlauben. (Quelle: Sprachassistenten im Auto lernen mit KI mit - KI Trainingszentrum) 

  • Marktwachstum: Der Biometrie-Markt im Automobilsektor wächst rasant. Unternehmen integrieren Gesichtserkennung, Iris-Scan und Stimmerkennung in ihre High-End-Modelle, um das Fahrerlebnis zu personalisieren (Sitz- und Spiegeleinstellungen) und die Sicherheit zu erhöhen. (Quelle: Biometrie im Automobilmarkt – Größen- und Anteilsanalyse – Mordor Intelligence) 


Vertrauen vs. Wohlbefinden: Kulturelle Unterschiede im HMI-Erleben 

Die kulturellen Unterschiede, die wir bereits bei den haptischen Bedienelementen sahen, setzen sich bei der Sprachsteuerung fort: 

Eine Studie über kulturspezifische Design-Anforderungen bei autonomen Fahrzeugen kam zu dem Schluss: In Deutschland wird das Vertrauen der Fahrer in ihr Fahrzeug stark durch das User Interface beeinflusst. In den USA hingegen hat das User Interface vor allem Einfluss auf das Wohlbefinden und den Komfort der Nutzer. (Quelle: Innovatives UI/UX Design treibt die Trends im Automobilsektor voran - Softeq).


Sprachsteuerung muss daher in Märkten wie Deutschland primär das Vertrauen durch hohe Zuverlässigkeit, Präzision und lückenlosen Datenschutz gewinnen. 


Der Weg nach vorn: Intelligentes Design statt Dogmatismus 

Die Zukunft liegt in der intelligenten Fusion von Touch, Haptik und Voice – immer mit der Prämisse, die kognitive Belastung des Fahrers zu minimieren. 


UX-Designer müssen abwägen: Welche Funktion benötigt Tactile Certainty (Knopf), welche die Flexibilität (Touch/KI-Assistenz) und welche die sichere, ablenkungsfreie Eingabe (Sprache)? 

Der Schlüssel zur Akzeptanz ist die Beantwortung der fundamentalsten Frage: „Kann ich diesem System vertrauen, wenn es darauf ankommt?“ Dieses Vertrauen entsteht nur, wenn das Interface die kognitive Belastung des Fahrers konsequent senkt, anstatt sie zu erhöhen. 

 

💌 Noch nicht genug? Dann lies weiter – in unserem Newsletter.

Kommt viermal im Jahr. Bleibt länger im Kopf.  https://www.uintent.com/de/newsletter


Die tiefgreifenden Insights und die Forschungsergebnisse, die zeigen, wie kulturelle Unterschiede das Vertrauen in Touch-Systeme und Sprachassistenten messbar beeinflussen, haben Jan Panhoff und Maffee Peng Hui Wan in ihrem Vortrag „Touch, Trust and Transformation“ auf der UXMC 2025 präsentiert. Wie können Autohersteller das Vertrauen der Kunden in Voice Control trotz der Datenschutzrisiken zurückgewinnen und welche Rolle spielt die Emotionserkennung dabei? 

 

 

Abstrakte, futuristische Illustration eines Menschen vor einem leuchtenden Turm aus Dokumenten und Datenströmen.

KI Tools UX Research: Wie gehen diese Tools mit großen Dokumenten um?

LLM, CHAT GPT, HOW-TO

Illustration von Donald Trump mit erhobener Hand vor abstraktem, digitalem Hintergrund, der Sprachblasen und Datenstrukturen andeutet.

Donald Trump Prompt: Wie provokante KI-Prompts UX-Budgets bewegen

AI & UXR, PROMPTS, STAKEHOLDER MANAGEMENT

Blick aus der Fahrerperspektive auf eine kurvige Landstraße, umgeben von grüner Vegetation. Im Vordergrund sind Lenkrad, Armaturenbrett und Rückspiegel zu sehen.

Die letzte Hürde: Wie unsichere Automatisierung das Vertrauen in ADAS bricht

AUTOMATION, AUTOMOTIVE UX, AUTONOMOUS DRIVING, GAMIFICATION, TRENDS

Illustration einer Person an einer Weggabelung mit zwei gleichwertigen Wegen.

Ersetzt KI UX Jobs? Was eine Studie mit 200.000 KI-Konversationen wirklich zeigt

HUMAN VS AI, RESEARCH, AI & UXR

Nahaufnahme eines hochwertigen Hochtöner-Lautsprechers im Armaturenbrett eines Autos mit perforierter Metalloberfläche.

Der Beifahrer, der immer zuhört: Warum wir unseren Autos nur ungern vertrauen, wenn sie sprechen

AUTOMOTIVE UX, VOICE ASSISTANTS

Schlüsselloch in dunkler Oberfläche, das den Blick auf ein abstraktes, farbiges UX-Research-Interface freigibt.

AI Ergebnisse bewerten im UX Research: So navigierst du die Blackbox

AI & UXR, HOW-TO, HUMAN VS AI

Ein von Audi hergestelltes Fahrzeugcockpit. Es verfügt über ein digitales Display und zahlreiche Tasten am Lenkrad.

Haptische Gewissheit vs. digitale Verlockung: Der Kampf um die besten Bedienelemente im Auto

AUTOMOTIVE UX, AUTONOMOUS DRIVING, CONNECTIVITY, GAMIFICATION

Digitale Illustration einer klassischen Gebäudefassade mit Säulen, gestützt von sichtbarem Gerüst, symbolisiert eine fragile, rein oberflächliche Fassade.

UX & AI: Wie „Ux Potemkin“ Deine Research- UND Design-Entscheidungen Untergräbt

AI & UXR, HUMAN VS AI, LLM, UX

Silhouette eines Tauchers, der ruhig in tiefblaues Wasser hinabtaucht – Symbol für tiefgehende Recherche.

Deep Research KI | So nutzt Du ChatGPT sinnvoll für UX-Arbeit

CHAT GPT, HOW-TO, RESEARCH, AI & UXR

Ein:e Schiedsrichter:in hält eine Bewertungstafel mit der Aufschrift „Yupp.ai“ zwischen zwei stilisierten KI-Chatbots in einem Boxring hoch – Symbolbild für den fairen Vergleich von KI-Modellen durch Nutzer:innen.

Wie Yupp Feedback nutzt, um KI-Modelle fair zu bewerten – und was UX-Profis daraus lernen können

AI & UXR, CHAT GPT, HUMAN VS AI, LLM

Auf einem kleinen Tisch liegt ein braunes Buch mit dem Titel „Don't Make Me Think“ von Steve Krug. Licht scheint durch das Fenster.

Warum UX Research seine Glaubwürdigkeit verliert und wie wir sie zurückgewinnen

UX, UX QUALITY, UX METHODS

3D-Illustration eines digitalen Marktplatzes mit bunten Marktständen voller Prompt-Karten und einer Figur, die einen Prompt auswählt.

Prompts kaufen, teilen, verkaufen – was Prompt-Marktplätze heute leisten (und warum das für UX relevant ist)

AI & UXR, PROMPTS

Roboter hält zwei Schilder hoch: „ISO 9241 – 7 Prinzipien“ und „ISO 9241 – 10 Prinzipien“.

ChatGPT halluziniert – trotz Anti-Halluzinations-Prompt

AI & UXR, HUMAN VS AI, CHAT GPT

Erdbeere wird von einem Messer halbiert, stilisierte Illustration.

Warum KI manchmal nicht bis 3 zählen kann – und was das mit Tokens zu tun hat

AI & UXR, TOKEN, LLM

Quadratisches, in der Mitte geteiltes Motiv: Links ein graues, stilisiertes Gehirn über einer sitzenden Person am Laptop in dunklen Grautönen; rechts ein leuchtend blaues, vernetztes Gehirn über einer stehenden Person vor einem holografischen Interface auf dunklem Hintergrund.

GPT-5 ist da: Verändert diese UX AI wirklich alles für Researcher:innen?

AI & UXR, CHAT GPT

Surreales KI-Bild mit Datenströmen, durchgestrichenem „User Expirince“ und dem Text „ChatGPT kann jetzt Text in Bild“.

Wenn KI Bilder malt und plötzlich richtig schreiben kann

AI & UXR, CHAT GPT, HUMAN VS AI

Mensch und KI arbeiten gemeinsam an einem leuchtenden Baum auf dem Bildschirm, umgeben von dunkler, surrealer Atmosphäre.

Wenn der Text zu glatt ist: Wie man KI-Sprache menschlicher macht

AI & UXR, AI WRITING, CHAT GPT, HUMAN VS AI

Futuristische Illustration: Mensch blickt auf leuchtende, humanoide KI vor digitalem Hintergrund.

Kein Science Fiction – KI macht sich selbstständig

AI & UXR, CHAT GPT

Illustration einer KI, die mit einem Menschen kommuniziert, symbolisch für die Überzeugungskraft künstlicher Intelligenz.

Zwischen Argument und Einfluss – Wie überzeugend darf KI sein?

AI & UXR, CHAT GPT, LLM

Eine zweidimensionale Comic Frau steht vor einem menschengroßen Handy, auf dem Gesundheitsapps zu sehen sind. Rechts von ihr steht ein Kasten mit einem Computer drauf, auf dem ein EKG zu sehen ist.

Digital Health Apps & Interfaces: Warum gute UX entscheidet, ob Patienten wirklich profitieren

HEALTHCARE, MHEALTH, TRENDS, UX METHODS

 VERWANDTE ARTIKEL DIE SIE INTERESSIEREN KÖNNTEN 

AUTHOR

Jan Panhoff

Jan begann 2004 als UX-Forscher zu arbeiten, nachdem er seinen M.Sc. in digitalen Medien abgeschlossen hatte. 10 Jahre lang unterstützte er eBay als Embedded UX Consultant. Sein Fokus bei uintent liegt auf der Automobil- und Innovationsforschung.

Darüber hinaus ist er einer der Vertreter von uintent in der UX Alliance, einem Netzwerk von führenden UX-Forschungs- und Designunternehmen rund um den Globus.


bottom of page