
AUTOMATION, AUTOMOTIVE UX, AUTONOMOUS DRIVING, GAMIFICATION, TRENDS
Die letzte Hürde: Wie unsichere Automatisierung das Vertrauen in ADAS bricht
5
MIN
18. Dez. 2025
Nachdem wir die Ablenkungsrisiken des Touchscreens und das Vertrauensdilemma der Sprachsteuerung beleuchtet haben, wenden wir uns der finalen Stufe der HMI-Evolution zu: den Fahrerassistenzsystemen (ADAS) und dem automatisierten Fahren. Mit Level 2 und 3 geben Fahrer die Kontrolle schrittweise ab. Doch dieses "Übergabeproblem" führt zu einem gefährlichen Phänomen: der "Vertrauensfehlkalibrierung" (Trust Miscalibration).
In unserem Vortrag „Touch, Trust and Transformation" auf der UXMC 2025 haben wir dargelegt, dass das größte Sicherheitsproblem nicht die Technik selbst ist, sondern das menschliche Vertrauen in sie.
Das Versprechen vs. Die Realität: Vertrauen in die KI
Das Versprechen des automatisierten Fahrens ist klar: Weniger Unfälle, weniger Stress und eine effizientere Nutzung der Fahrzeit. Statistiken zeigen, dass bis zu 90 Prozent aller Unfälle auf menschliches Versagen zurückzuführen sind. Hier soll die Technologie Abhilfe schaffen. (Quelle: https://www.spiegel.de/auto/autonomes-fahren-us-studie-sieht-weniger-unfallgefahr-als-bei-menschlichen-fahrern-a-f9b71de2-3fa7-47d0-9bd1-a85fe645bcdd).
Doch in der Wahrnehmung der Nutzer herrscht tiefe Skepsis, insbesondere in Deutschland:
Sicherheitsbedenken: Trotz hoher Test-Bereitschaft werden Sicherheitsbedenken geäußert, vor allem in Bezug auf Hacker-Angriffe während der Fahrt. (Quelle: Studie von Detecon: Autonomes Fahren: Hohe Test-Bereitschaft, aber Sicherheitsbedenken)
Ethik und Haftung: Die Frage der Haftung bei einem unvermeidlichen Unfall und die Programmierung von Algorithmen (das Moralische Dilemma), die Entscheidungen über Leben treffen müssen, bleiben ungelöste gesellschaftliche Herausforderungen, die das Vertrauen untergraben. (Quelle: Autonomes Fahren und digitale Ethik: Wer entscheidet? - Landeszentrale für politische Bildung Baden-Württemberg)
Vertrauensproblem: Ein weiteres, grundlegendes Vertrauensproblem zeigt sich in unseren Nutzertests immer wieder: Viele Fahrer zweifeln daran, dass das Fahrzeug wirklich alles Relevante in der Umgebung erfasst. Dieses Misstrauen lässt sich adressieren, indem das System visualisiert, was es "sieht", also erkannte Fahrzeuge, Fußgänger oder Hindernisse in Echtzeit darstellt. Einige Hersteller wie Tesla setzen diesen Ansatz bereits um, und das schon bei Fahrzeugen ohne vollautonome Fahrfunktion.
Das Phänomen: Vertrauensfehlkalibrierung
Das größte Risiko in teilautomatisierten Fahrzeugen (Level 2 und 3) ist das sogenannte Vertrauenskalibrierungsproblem (Trust Calibration). Idealerweise sollte das Vertrauen des Fahrers angemessen sein – also nur so hoch, wie die tatsächliche Systemleistung es rechtfertigt.
Die Realität zeigt zwei gefährliche Abweichungen, beides Formen der Fehlkalibrierung:
Übervertrauen (Overtrust): Der Fahrer vertraut dem System zu sehr (z. B. bei Stauassistenten) und ist mental abwesend. Wenn das System plötzlich eine Übernahme anfordert, ist der Fahrer nicht in der Lage, schnell genug und sicher zu reagieren. Die kognitive Belastung steigt im Moment der Übergabe extrem an. In unseren Real-Verkehr-Studien haben wir beobachtet, dass Fahrer in Stresssituationen, teilweise mehr als 10 Sekunden benötigten, um wieder bereit für die manuelle Steuerung zu sein, signifikant mehr, als aus Simulatorexperimenten zu erwarten war.
Untervertrauen (Distrust): Der Fahrer vertraut dem System zu wenig und greift unnötigerweise in die Steuerung ein. Dies stört die Systemfunktion und führt ebenfalls zu Frustration und potenziell gefährlichen Manövern.
Forschungsergebnisse bestätigen: Transparenz, Kompetenz und Zuverlässigkeit sind die Schlüssel, um Vertrauen in autonome Fahrzeuge zu schaffen und die Nutzungsbereitschaft zu steigern. (Quelle: Dem Auto blind vertrauen? – Einflussfaktoren auf das Vertrauen in autonome Fahrzeuge - Uni Trier)
Die Design-Antwort: Driver Monitoring und Adaptive HMI
Um Übervertrauen zu vermeiden und das Situationsbewusstsein des Fahrers aufrechtzuerhalten, setzen die Hersteller auf Driver Monitoring Systeme (DMS). Diese Systeme nutzen Kameras, um die Blickrichtung und Kopfneigung des Fahrers zu erfassen und so Müdigkeit oder Ablenkung zu erkennen.
Zwingende Vorschrift: Die EU schreibt mit der General Safety Regulation (GSR) ab Juli 2026 für alle Neuzulassungen ein System zur Erkennung der Fahrerablenkung (ADDW) vor. Diese Systeme müssen "Default On" sein, d. h. sie sind immer aktiv, sofern sie der Fahrer nicht bewusst deaktiviert. (Quelle: In-Cabin Sensing Systeme - ÖAMTC)
Adaptive HMI: Forschungsansätze zielen darauf ab, die Informationsdarstellung an das Situationsbewusstsein des Fahrers anzupassen. So kann die Komplexität der Informationen bei niedrigem Bewusstsein reduziert oder erhöht werden, um den Fahrer in den Übernahme-Loop zurückzuholen. (Quelle: FAT-Schriftenreihe 392 | VDA)
Kulturelle Unterschiede: Die Akzeptanz des Überwachtwerdens
Die Akzeptanz von DMS-Systemen wirft eine neue HMI-Vertrauenskrise auf: Das Gefühl, im eigenen Auto überwacht zu werden.
Skepsis in Deutschland: In einer Allianz-Studie äußerte ein Großteil der Befragten Skepsis gegenüber einer elektronischen Überwachung des Fahrers. Lediglich 39 % stimmten einer Kamera- beziehungsweise Infrarotabtastung von Augen und Gesicht zu, selbst wenn die Technik nur anonymisiert Ablenkung erkennt. (Quelle: Moderne Kommunikationsmittel lenken Autofahrer zu stark ab | springerprofessional.de)
„Patronising“ Gefühl: Eine zu häufige oder unbegründete Warnung durch ein adaptives HMI oder DMS kann bei Nutzern das Gefühl erzeugen, vom System „bevormundet“ zu werden ("Users can feel patronised by the technical system"). Dies reduziert die Akzeptanz und kann zu einer bewussten Deaktivierung des Systems führen. (Quelle: Qucosa - Monarch: Adaptive Human Machine Interfaces in a Vehicle Cockpit: Indication, Impacts and Implications)
Der Weg nach vorn: Angemessene Vertrauenskalibrierung
Automobil-HMI-Design muss sich vom "Perfect Automation Schema" (PAS) lösen – der kognitiven Überzeugung, dass automatisierte Systeme perfekt sein müssen – um realistisches Vertrauen zu schaffen. (Quelle: PAS - Das Perfect Automation Schema: Beeinflussen von Vertrauen - scip AG)
Die Lösung liegt in der Kalibrierung des Vertrauens:
System-Transparenz: Das System muss klar kommunizieren, was es kann und was es nicht kann (seine Grenzen).
System-Sprache: Die Sprache, in der über die Systeme gesprochen wird, muss präzise sein, um eine angemessene Vertrauenshaltung zu fördern. (Quelle: Vertrauen in Roboter und dessen Beeinflussbarkeit durch sprachliches Framing - OAPEN Library)
Darüber hinaus arbeiten Hersteller und Forscher an weiteren Ansätzen, um das Situationsbewusstsein zu stärken und die Akzeptanz von Überwachungssystemen zu erhöhen: von Unterhaltungskonzepten, die das Verkehrsgeschehen ins Blickfeld integrieren, über haptische Hinweise im Sitz gegen Motion Sickness bis hin zu Gamification-Ansätzen, die positive Anreize statt Verbote setzen. Diesen Themen widmen wir uns in einem kommenden Artikel.
Nur wenn das HMI aktiv daran arbeitet, das Vertrauen des Fahrers weder zu über- noch zu unterfordern, kann die letzte Hürde zum sicheren automatisierten Fahren genommen werden.
💌 Noch nicht genug? Dann lies weiter – in unserem Newsletter.
Kommt viermal im Jahr. Bleibt länger im Kopf. https://www.uintent.com/de/newsletter
Die tiefgreifenden Insights und die Forschungsergebnisse, die zeigen, wie kulturelle Unterschiede das Vertrauen in Touch-Systeme und Sprachassistenten messbar beeinflussen, haben Jan Panhoff und Maffee Peng Hui Wan in ihrem Vortrag „Touch, Trust and Transformation“ auf der UXMC 2025 präsentiert.
VERWANDTE ARTIKEL DIE SIE INTERESSIEREN KÖNNTEN
AUTHOR
uintent
Wir sind eine internationale, mitarbeitergeführte UX- und Usability- Research-Agentur mit Sitz in Hamburg & München, gegründet 2018. Wir haben UX-Labs direkt vor Ort in unseren Büros und verfügen über ein Netzwerk von Partnern, um auch anderswo Labs zu mieten. Unser Team besteht sowohl aus Branchenpionieren mit mehr als 20 Jahren Erfahrung als auch aus Young Professionals. Wir haben auf allen Kontinenten geforscht und Tausende von Schnittstellen gesehen - von frühen, nicht funktionalen Papierprototypen bis hin zu Produktionsmodellen. Wir nutzen eine breite Palette qualitativer und quantitativer Forschungsmethoden. Da wir Wert auf Qualität, Vertraulichkeit, Verfügbarkeit und Integrität von Informationen legen, sind wir ISO 9001 zertifiziert und TISAX®️ Teilnehmer.
Wir sind Teil von ReSight Global, wo wir mit unseren Schwesterunternehmen in den USA, Großbritannien, Indien, China und Japan zusammenarbeiten. Außerdem sind wir Mitglied der UXalliance, einem globalen Netzwerk von Partneragenturen.









.png)










