top of page
uintent Firmenlogo

AUTOMOTIVE UX, VOICE ASSISTANTS

Der Beifahrer, der immer zuhört: Warum wir unseren Autos nur ungern vertrauen, wenn sie sprechen

4

MIN

12. Dez. 2025

Kennen Sie das? Die Kinder streiten auf der Rückbank, draußen regnet es Bindfäden und Sie rufen genervt: "Hey Auto, spiel irgendwas Beruhigendes!" Und das System? Es versteht "Navigiere zu Burger King" und schaltet die Klimaanlage auf maximale Kälte. Die Sprachsteuerung, als eleganter Problemlöser für das Ablenkungsdilemma des Touchscreens konzipiert, hat sich in vielen Fällen als Quelle neuer Frustration und vor allem neuer Vertrauenskrisen entpuppt. 


In unserem Vortrag „Touch, Trust and Transformation" auf der UXMC 2025 haben wir beleuchtet, wie die HMI-Entwicklung von der Haptik über den Touch zur Voice-Steuerung fortschreitet. Die zentrale Frage bleibt: Vertrauen wir dem System, wenn es darauf ankommt? Bei der Sprachsteuerung kommt zu Usability-Fragen ein neues, existenzielles Dilemma hinzu: die Angst vor dem Mithören. 

 

Vom Befehl zum freien Dialog: Das Versprechen der Voice Control 

Nachdem die Touchscreens das Problem der Ablenkung nur verschärft hatten, trat die Sprachsteuerung an, um die goldene Brücke zu schlagen: Hände am Steuer, Augen auf die Straße. 


Die moderne Generation, angetrieben durch Large Language Models (LLMs), verspricht den natürlichen Dialog: Der Fahrer sagt einfach „Mir ist kalt“ und das Auto reguliert die Temperatur. Der Zulieferer Continental etwa betont, dass man sich von auswendig gelernten Befehlen verabschiede und stattdessen den Fahrer mit dem Auto „auf Du und Du“ sein möchte. (Quelle: Sprachsteuerung im Trend: Mit dem Auto auf Du und Du - Autohaus) 


Das Reifegrad-Dilemma: Wenn LLMs mehr versprechen als sie halten 

Doch die Realität aktueller LLM-Integrationen in Serienfahrzeugen zeigt ein fundamentales Problem: Viele dieser Systeme sind noch nicht ausgereift. Sie simulieren Verständnis und Kontrolle über Fahrzeugfunktionen, ohne diese tatsächlich zu besitzen. Ein typisches Szenario: Der Fahrer bittet das System, das Fenster zu öffnen. Das LLM bestätigt höflich die Ausführung, doch das Fenster bleibt geschlossen. Das System hat schlicht keine Schnittstelle zur Fahrzeugsteuerung. Der frustrierte Fahrer insistiert, das LLM entschuldigt sich und „korrigiert" seinen Fehler, ohne dass sich am Ergebnis etwas ändert.

 

Das Generationen-Trauma 

Diese voreilige Markteinführung unreifer Technologie wiederholt ein Muster, das bereits vor 20 Jahren nachhaltige Schäden anrichtete. Deutsche Autofahrer erlebten damals die ersten Sprachsteuerungen und lernten: „Funktioniert nicht gut." Diese frühe Prägung wirkt bis heute nach und prägt die skeptische Grundhaltung gegenüber Sprachsteuerung in weiten Teilen der Bevölkerung. In China hingegen lernten viele Nutzer Sprachsteuerung erst in ihrer ausgereifteren Form kennen, das Grundvertrauen ist entsprechend deutlich höher. Die aktuelle unreife LLM-Integration riskiert, eine neue Generation von Nutzern langfristig zu frustrieren. 


Verschärfend kommt hinzu: Anders als bei klassischer Sprachsteuerung, die klar auf Fahrzeugfunktionen begrenzt war, suggerieren LLMs universelle Kompetenz. Nutzer können nicht mehr einschätzen, welche Befehle funktionieren und welche nicht - jede Interaktion wird zu Trial & Error. 


Harte Fakten: Ablenkung durch Fehlinterpretation 

So elegant die Dialoge im Marketing wirken, so schnell schwindet die Akzeptanz, wenn die Technologie im Alltag versagt. Die akustische Komplexität (Motorgeräusche, Musik, Wind) und die sprachliche Variabilität (Dialekte, Akzente) erhöhen die Fehlerquote rapide. 

  • Vergleich der Bedienzeiten (Hochschule Aalen): Eine Pilotstudie der Hochschule Aalen untersuchte den Einfluss von Infotainmentsystemen auf Autounfälle in einem realitätsnahen Versuchsaufbau. Die Probanden mussten Aufgaben bei konstanter Geschwindigkeit ausführen. Die Ergebnisse zeigten klar: Die Durchführung per Drehregler war im Median am schnellsten (sieben Sekunden), gefolgt vom Touchscreen (neun Sekunden). Die Sprachsteuerung und andere Interaktionsformen benötigten oft mehr Zeit, was die Ablenkung verlängert. (Quelle: NEWS Hochschule Aalen führt Studie zu Risiken von Infotainment-Anwendungen im Auto durch - Hochschule Aalen) 


Jeder Fehler, jede Fehlinterpretation, die den Fahrer dazu zwingt, das Kommando zu wiederholen oder schließlich doch den Bildschirm zu berühren, führt zu Frustration und verlängerter Ablenkung. 


Die Cloud-Falle: Wenn das Netz zur Schwachstelle wird 

Ein oft übersehenes Problem verschärft die Situation zusätzlich: Die meisten LLM-basierten Sprachsysteme laufen (im vollen Umfang) nicht lokal im Fahrzeug, sondern cloud-basiert, um bessere Erkennungsqualität und komplexere Interaktionen zu ermöglichen. Das bedeutet: Selbst ein theoretisch funktionierendes System versagt auf deutschen Landstraßen ohne 5G oder LTE-Verbindung. Für den Nutzer entsteht eine doppelte Intransparenz: Er kann nicht unterscheiden, ob das System ihn nicht versteht, ob es technisch nicht funktioniert oder ob schlicht die Netzverbindung fehlt. Die Unzuverlässigkeit wird zur selbsterfüllenden Prophezeiung. 


Die nächste Stufe: Emotionale Intelligenz im Auto  

Um die Interaktion menschlicher zu gestalten, integrieren Autohersteller sogenannte "Emotion Engines". Diese KI-Systeme analysieren anhand von Sprachmelodie, Wortwahl und Gesichtsausdruck die Emotion des Fahrers. 

  • Frustrationsmilderung: Studien des Deutschen Zentrums für Luft- und Raumfahrt (DLR) haben die Wirksamkeit von Sprachinterventionen getestet, um Frustration im Auto zu mildern. Die Ergebnisse waren eindeutig: Frustrationsmildernde Sprachinterventionen – beispielsweise bei HMI-Problemen – führten zu signifikant niedrigeren Frustrationswerten bei den Probanden. Das System kann also durch eine gezielte Ansprache nicht nur Funktionen steuern, sondern aktiv zur Verkehrssicherheit beitragen, indem es aggressives Fahrverhalten durch Stressreduktion verhindert. (Quelle: Verbesserung der In-Car User Experience durch sprachinterventive Frustrationsreduktion - DLR 

  • Die kulturelle Gradwanderung: Doch die Akzeptanz solcher Systeme erweist sich als extreme Gradwanderung und ist stark von kulturellen und situativen Faktoren abhängig. Studien zeigen beispielsweise deutliche Unterschiede zwischen Deutschland und China: Während in China besonders junge Männer – die kulturell bedingt oft wenig Gelegenheit zu emotionalem Austausch haben – den emotionalen Dialog mit dem Fahrzeug schätzen, gilt dies ausschließlich, wenn sie allein unterwegs sind. Sobald Beifahrer anwesend sind, wird dieselbe Funktion als unangenehm empfunden. Die Herausforderung für Hersteller: Systeme zu entwickeln, die kontextsensibel genug sind, um soziale Situationen zu erkennen und entsprechend zu reagieren. 

  • Proaktive Assistenz: Das Konzeptfahrzeug Honda NeuV verfügte beispielsweise über eine "Emotion Engine", die versuchte, die Stimmung des Fahrers zu erkennen, um daraufhin den passenden Fahrmodus oder Musik vorzuschlagen. (Quelle: Wenn das Auto aufs Wort hört | springerprofessional.de) 

 

Der neue Kernkonflikt: Datenschutz als Kosten-Nutzen-Kalkül 

Die tiefgreifendste Vertrauenskrise bei der Sprachsteuerung ist nicht die Usability, sondern der Datenschutz. Ein System, das die Stimmung des Fahrers erkennt und kontextsensibel reagiert, muss ständig aktiv sein – es hört zu. 


Doch ist Datenschutz wirklich das Killerkriterium, als das er oft dargestellt wird?

Die pauschale Annahme „Deutsche wollen Datenschutz" greift möglicherweise zu kurz. Die Realität zeigt: Datenschutz ist für viele Nutzer eine Abwägungsfrage zwischen Kosten und Nutzen. 35 Millionen Deutsche nutzen Payback - trotz umfassender Datenerfassung. Studien zu digitalen Bezahldiensten zeigen: Bei ausreichendem Gegenwert, beispielsweise Cashback-Angeboten, sind viele Nutzer bereit, ihre Datenschutzbedenken zurückzustellen. Die Frage ist also nicht, ob Nutzer bereit sind, Daten zu teilen, sondern unter welchen Bedingungen und mit welchem transparenten Mehrwert. 


Trotz dieser pragmatischen Haltung bleiben die Erwartungen an Sicherheit hoch. Eine Studie von Veritas zeigte, dass 86 Prozent der Verbraucher angemessene Maßnahmen zum Schutz ihrer Daten erwarten, und fast drei Viertel würden im Falle eines Datenlecks einen Wechsel der Automarke in Betracht ziehen. (Quelle: Intransparenter Umgang mit privaten Daten: Autohersteller riskieren Vertrauen ihrer Kunden - silicon.de) 


Wie sich die tatsächliche Haltung deutscher Nutzer zum Datenschutz von der gesellschaftlich erwarteten Antwort unterscheidet – und was das für Hersteller bedeutet – beleuchten wir in einem kommenden Artikel. 

 

Die Stimme als biometrischer Schlüssel (Voiceprints)  

Umgekehrt kann die Sprachsteuerung auch zur Lösung von Sicherheitsproblemen beitragen. Die Biometrie im Auto gewinnt massiv an Bedeutung, wobei die Stimme als "Voiceprint" oder akustischer Fingerabdruck dient. 

  • Sichere Authentifizierung: Die Sprachverifikation bietet einen einzigartigen akustischen Fingerabdruck jedes Nutzers und ermöglicht eine präzise Identifikation des Fahrers. Dies schützt vor unbefugtem Zugriff und dient der Personalisierung. Zukünftige Systeme werden auf mehrschichtige Authentifizierung setzen, um zum Beispiel Bezahlfunktionen oder den Motorstart nur nach biometrischer Freigabe zu erlauben. (Quelle: Sprachassistenten im Auto lernen mit KI mit - KI Trainingszentrum) 

  • Marktwachstum: Der Biometrie-Markt im Automobilsektor wächst rasant. Unternehmen integrieren Gesichtserkennung, Iris-Scan und Stimmerkennung in ihre High-End-Modelle, um das Fahrerlebnis zu personalisieren (Sitz- und Spiegeleinstellungen) und die Sicherheit zu erhöhen. (Quelle: Biometrie im Automobilmarkt – Größen- und Anteilsanalyse – Mordor Intelligence) 


Vertrauen vs. Wohlbefinden: Kulturelle Unterschiede im HMI-Erleben 

Die kulturellen Unterschiede, die wir bereits bei den haptischen Bedienelementen sahen, setzen sich bei der Sprachsteuerung fort: 

Eine Studie über kulturspezifische Design-Anforderungen bei autonomen Fahrzeugen kam zu dem Schluss: In Deutschland wird das Vertrauen der Fahrer in ihr Fahrzeug stark durch das User Interface beeinflusst. In den USA hingegen hat das User Interface vor allem Einfluss auf das Wohlbefinden und den Komfort der Nutzer. (Quelle: Innovatives UI/UX Design treibt die Trends im Automobilsektor voran - Softeq).


Sprachsteuerung muss daher in Märkten wie Deutschland primär das Vertrauen durch hohe Zuverlässigkeit, Präzision und lückenlosen Datenschutz gewinnen. 


Der Weg nach vorn: Intelligentes Design statt Dogmatismus 

Die Zukunft liegt in der intelligenten Fusion von Touch, Haptik und Voice – immer mit der Prämisse, die kognitive Belastung des Fahrers zu minimieren. 


UX-Designer müssen abwägen: Welche Funktion benötigt Tactile Certainty (Knopf), welche die Flexibilität (Touch/KI-Assistenz) und welche die sichere, ablenkungsfreie Eingabe (Sprache)? 

Der Schlüssel zur Akzeptanz ist die Beantwortung der fundamentalsten Frage: „Kann ich diesem System vertrauen, wenn es darauf ankommt?“ Dieses Vertrauen entsteht nur, wenn das Interface die kognitive Belastung des Fahrers konsequent senkt, anstatt sie zu erhöhen. 

 

💌 Noch nicht genug? Dann lies weiter – in unserem Newsletter.

Kommt viermal im Jahr. Bleibt länger im Kopf.  https://www.uintent.com/de/newsletter


Die tiefgreifenden Insights und die Forschungsergebnisse, die zeigen, wie kulturelle Unterschiede das Vertrauen in Touch-Systeme und Sprachassistenten messbar beeinflussen, haben Jan Panhoff und Maffee Peng Hui Wan in ihrem Vortrag „Touch, Trust and Transformation“ auf der UXMC 2025 präsentiert. Wie können Autohersteller das Vertrauen der Kunden in Voice Control trotz der Datenschutzrisiken zurückgewinnen und welche Rolle spielt die Emotionserkennung dabei? 

 

 

Blick aus der Fahrerperspektive auf eine kurvige Landstraße, umgeben von grüner Vegetation. Im Vordergrund sind Lenkrad, Armaturenbrett und Rückspiegel zu sehen.

Die letzte Hürde: Wie unsichere Automatisierung das Vertrauen in ADAS bricht

AUTOMATION, AUTOMOTIVE UX, AUTONOMOUS DRIVING, GAMIFICATION, TRENDS

Ein von Audi hergestelltes Fahrzeugcockpit. Es verfügt über ein digitales Display und zahlreiche Tasten am Lenkrad.

Haptische Gewissheit vs. digitale Verlockung: Der Kampf um die besten Bedienelemente im Auto

AUTOMOTIVE UX, AUTONOMOUS DRIVING, CONNECTIVITY, GAMIFICATION

Drei Businessmänner, die vor einer Fensterfront stehe und sich unterhalten.

Argumente für UX-Forschung: Stakeholder überzeugen

HOW-TO, OBJECTION HANDLING, STAKEHOLDER MANAGEMENT, UX

Plastik-Spielauto mit Spielfigur Passagieren

Gamification des Autofahrens: Was machen wir eigentlich, wenn das Auto selbstständig fährt?

AUTOMOTIVE UX, AUTONOMOUS DRIVING, GAMIFICATION

Frau telefoniert während der Fahrt

Die Zukunft des Autos: Mein Smartphone auf vier Rädern

AUTOMOTIVE UX, CONNECTIVITY, DIGITISATION

Autofahrender mann im Sonnenuntergang

Digitaler Kompagnon oder minimalistischer Assistent, wie viel ist zu viel für deutsche Autofahrer:innen?

AUTOMOTIVE UX, VOICE ASSISTANTS, TRENDS

Bild eines Autos

Revolutionierung der Fahrzeuginteraktion: Erforschung der Zukunft von HMIs auf der car.HMI-Konferenz 2023

HMI, CAR.HMI CONFERENCE, TRENDS

Hyperscreen mit Dashboard auf der linken Seite, Startbildschirm in der Mitte und einem animierten Bildschirm auf der rechten Seite

Mercedes Hyperscreen und das aktuelle Problem mit Passagierdisplays

PASSENGER SCREENS, TRENDS, AUTOMOTIVE UX

 VERWANDTE ARTIKEL DIE SIE INTERESSIEREN KÖNNTEN 

AUTHOR

uintent

Wir sind eine internationale, mitarbeitergeführte UX- und Usability- Research-Agentur mit Sitz in Hamburg & München, gegründet 2018. Wir haben UX-Labs direkt vor Ort in unseren Büros und verfügen über ein Netzwerk von Partnern, um auch anderswo Labs zu mieten. Unser Team besteht sowohl aus Branchenpionieren mit mehr als 20 Jahren Erfahrung als auch aus Young Professionals. Wir haben auf allen Kontinenten geforscht und Tausende von Schnittstellen gesehen - von frühen, nicht funktionalen Papierprototypen bis hin zu Produktionsmodellen. Wir nutzen eine breite Palette qualitativer und quantitativer Forschungsmethoden. Da wir Wert auf Qualität, Vertraulichkeit, Verfügbarkeit und Integrität von Informationen legen, sind wir ISO 9001 zertifiziert und TISAX®️ Teilnehmer.

Wir sind Teil von ReSight Global, wo wir mit unseren Schwesterunternehmen in den USA, Großbritannien, Indien, China und Japan zusammenarbeiten. Außerdem sind wir Mitglied der UXalliance, einem globalen Netzwerk von Partneragenturen.

                

bottom of page