top of page
uintent Firmenlogo

AUTOMATION, AUTOMOTIVE UX, AUTONOMOUS DRIVING, GAMIFICATION, TRENDS

Die letzte Hürde: Wie unsichere Automatisierung das Vertrauen in ADAS bricht

5

MIN

18. Dez. 2025

Nachdem wir die Ablenkungsrisiken des Touchscreens und das Vertrauensdilemma der Sprachsteuerung beleuchtet haben, wenden wir uns der finalen Stufe der HMI-Evolution zu: den Fahrerassistenzsystemen (ADAS) und dem automatisierten Fahren. Mit Level 2 und 3 geben Fahrer die Kontrolle schrittweise ab. Doch dieses "Übergabeproblem" führt zu einem gefährlichen Phänomen: der "Vertrauensfehlkalibrierung" (Trust Miscalibration). 


In unserem Vortrag „Touch, Trust and Transformation" auf der UXMC 2025 haben wir dargelegt, dass das größte Sicherheitsproblem nicht die Technik selbst ist, sondern das menschliche Vertrauen in sie. 


Das Versprechen vs. Die Realität: Vertrauen in die KI 

Das Versprechen des automatisierten Fahrens ist klar: Weniger Unfälle, weniger Stress und eine effizientere Nutzung der Fahrzeit. Statistiken zeigen, dass bis zu 90 Prozent aller Unfälle auf menschliches Versagen zurückzuführen sind. Hier soll die Technologie Abhilfe schaffen. (Quelle: https://www.spiegel.de/auto/autonomes-fahren-us-studie-sieht-weniger-unfallgefahr-als-bei-menschlichen-fahrern-a-f9b71de2-3fa7-47d0-9bd1-a85fe645bcdd).  


Doch in der Wahrnehmung der Nutzer herrscht tiefe Skepsis, insbesondere in Deutschland: 

  • Sicherheitsbedenken: Trotz hoher Test-Bereitschaft werden Sicherheitsbedenken geäußert, vor allem in Bezug auf Hacker-Angriffe während der Fahrt. (Quelle: Studie von Detecon: Autonomes Fahren: Hohe Test-Bereitschaft, aber Sicherheitsbedenken)

  • Ethik und Haftung: Die Frage der Haftung bei einem unvermeidlichen Unfall und die Programmierung von Algorithmen (das Moralische Dilemma), die Entscheidungen über Leben treffen müssen, bleiben ungelöste gesellschaftliche Herausforderungen, die das Vertrauen untergraben. (Quelle: Autonomes Fahren und digitale Ethik: Wer entscheidet? - Landeszentrale für politische Bildung Baden-Württemberg)

  • Vertrauensproblem: Ein weiteres, grundlegendes Vertrauensproblem zeigt sich in unseren Nutzertests immer wieder: Viele Fahrer zweifeln daran, dass das Fahrzeug wirklich alles Relevante in der Umgebung erfasst. Dieses Misstrauen lässt sich adressieren, indem das System visualisiert, was es "sieht", also erkannte Fahrzeuge, Fußgänger oder Hindernisse in Echtzeit darstellt. Einige Hersteller wie Tesla setzen diesen Ansatz bereits um, und das schon bei Fahrzeugen ohne vollautonome Fahrfunktion.

     

Das Phänomen: Vertrauensfehlkalibrierung  

Das größte Risiko in teilautomatisierten Fahrzeugen (Level 2 und 3) ist das sogenannte Vertrauenskalibrierungsproblem (Trust Calibration). Idealerweise sollte das Vertrauen des Fahrers angemessen sein – also nur so hoch, wie die tatsächliche Systemleistung es rechtfertigt. 


Die Realität zeigt zwei gefährliche Abweichungen, beides Formen der Fehlkalibrierung: 

  1. Übervertrauen (Overtrust): Der Fahrer vertraut dem System zu sehr (z. B. bei Stauassistenten) und ist mental abwesend. Wenn das System plötzlich eine Übernahme anfordert, ist der Fahrer nicht in der Lage, schnell genug und sicher zu reagieren. Die kognitive Belastung steigt im Moment der Übergabe extrem an. In unseren Real-Verkehr-Studien haben wir beobachtet, dass Fahrer in Stresssituationen, teilweise mehr als 10 Sekunden benötigten, um wieder bereit für die manuelle Steuerung zu sein, signifikant mehr, als aus Simulatorexperimenten zu erwarten war.

  2. Untervertrauen (Distrust): Der Fahrer vertraut dem System zu wenig und greift unnötigerweise in die Steuerung ein. Dies stört die Systemfunktion und führt ebenfalls zu Frustration und potenziell gefährlichen Manövern. 


Forschungsergebnisse bestätigen: Transparenz, Kompetenz und Zuverlässigkeit sind die Schlüssel, um Vertrauen in autonome Fahrzeuge zu schaffen und die Nutzungsbereitschaft zu steigern. (Quelle: Dem Auto blind vertrauen? – Einflussfaktoren auf das Vertrauen in autonome Fahrzeuge - Uni Trier)

 

Die Design-Antwort: Driver Monitoring und Adaptive HMI 

Um Übervertrauen zu vermeiden und das Situationsbewusstsein des Fahrers aufrechtzuerhalten, setzen die Hersteller auf Driver Monitoring Systeme (DMS). Diese Systeme nutzen Kameras, um die Blickrichtung und Kopfneigung des Fahrers zu erfassen und so Müdigkeit oder Ablenkung zu erkennen. 

  • Zwingende Vorschrift: Die EU schreibt mit der General Safety Regulation (GSR) ab Juli 2026 für alle Neuzulassungen ein System zur Erkennung der Fahrerablenkung (ADDW) vor. Diese Systeme müssen "Default On" sein, d. h. sie sind immer aktiv, sofern sie der Fahrer nicht bewusst deaktiviert. (Quelle: In-Cabin Sensing Systeme - ÖAMTC)

  • Adaptive HMI: Forschungsansätze zielen darauf ab, die Informationsdarstellung an das Situationsbewusstsein des Fahrers anzupassen. So kann die Komplexität der Informationen bei niedrigem Bewusstsein reduziert oder erhöht werden, um den Fahrer in den Übernahme-Loop zurückzuholen. (Quelle: FAT-Schriftenreihe 392 | VDA)


Kulturelle Unterschiede: Die Akzeptanz des Überwachtwerdens 

Die Akzeptanz von DMS-Systemen wirft eine neue HMI-Vertrauenskrise auf: Das Gefühl, im eigenen Auto überwacht zu werden. 

Der Weg nach vorn: Angemessene Vertrauenskalibrierung 

Automobil-HMI-Design muss sich vom "Perfect Automation Schema" (PAS) lösen – der kognitiven Überzeugung, dass automatisierte Systeme perfekt sein müssen – um realistisches Vertrauen zu schaffen. (Quelle: PAS - Das Perfect Automation Schema: Beeinflussen von Vertrauen - scip AG)


Die Lösung liegt in der Kalibrierung des Vertrauens

  1. System-Transparenz: Das System muss klar kommunizieren, was es kann und was es nicht kann (seine Grenzen). 

  2. System-Sprache: Die Sprache, in der über die Systeme gesprochen wird, muss präzise sein, um eine angemessene Vertrauenshaltung zu fördern. (Quelle: Vertrauen in Roboter und dessen Beeinflussbarkeit durch sprachliches Framing - OAPEN Library)


Darüber hinaus arbeiten Hersteller und Forscher an weiteren Ansätzen, um das Situationsbewusstsein zu stärken und die Akzeptanz von Überwachungssystemen zu erhöhen: von Unterhaltungskonzepten, die das Verkehrsgeschehen ins Blickfeld integrieren, über haptische Hinweise im Sitz gegen Motion Sickness bis hin zu Gamification-Ansätzen, die positive Anreize statt Verbote setzen. Diesen Themen widmen wir uns in einem kommenden Artikel. 


Nur wenn das HMI aktiv daran arbeitet, das Vertrauen des Fahrers weder zu über- noch zu unterfordern, kann die letzte Hürde zum sicheren automatisierten Fahren genommen werden. 


💌 Noch nicht genug? Dann lies weiter – in unserem Newsletter.

Kommt viermal im Jahr. Bleibt länger im Kopf.  https://www.uintent.com/de/newsletter


Die tiefgreifenden Insights und die Forschungsergebnisse, die zeigen, wie kulturelle Unterschiede das Vertrauen in Touch-Systeme und Sprachassistenten messbar beeinflussen, haben Jan Panhoff und Maffee Peng Hui Wan in ihrem Vortrag „Touch, Trust and Transformation“ auf der UXMC 2025 präsentiert.  

 

Blick aus der Fahrerperspektive auf eine kurvige Landstraße, umgeben von grüner Vegetation. Im Vordergrund sind Lenkrad, Armaturenbrett und Rückspiegel zu sehen.

Die letzte Hürde: Wie unsichere Automatisierung das Vertrauen in ADAS bricht

AUTOMATION, AUTOMOTIVE UX, AUTONOMOUS DRIVING, GAMIFICATION, TRENDS

Nahaufnahme eines hochwertigen Hochtöner-Lautsprechers im Armaturenbrett eines Autos mit perforierter Metalloberfläche.

Der Beifahrer, der immer zuhört: Warum wir unseren Autos nur ungern vertrauen, wenn sie sprechen

AUTOMOTIVE UX, VOICE ASSISTANTS

Ein von Audi hergestelltes Fahrzeugcockpit. Es verfügt über ein digitales Display und zahlreiche Tasten am Lenkrad.

Haptische Gewissheit vs. digitale Verlockung: Der Kampf um die besten Bedienelemente im Auto

AUTOMOTIVE UX, AUTONOMOUS DRIVING, CONNECTIVITY, GAMIFICATION

Digitale Illustration einer klassischen Gebäudefassade mit Säulen, gestützt von sichtbarem Gerüst, symbolisiert eine fragile, rein oberflächliche Fassade.

UX & AI: Wie „Ux Potemkin“ Deine Research- UND Design-Entscheidungen Untergräbt

AI & UXR, HUMAN VS AI, LLM, UX

Silhouette eines Tauchers, der ruhig in tiefblaues Wasser hinabtaucht – Symbol für tiefgehende Recherche.

Deep Research KI | So nutzt Du ChatGPT sinnvoll für UX-Arbeit

CHAT GPT, HOW-TO, RESEARCH, AI & UXR

Ein:e Schiedsrichter:in hält eine Bewertungstafel mit der Aufschrift „Yupp.ai“ zwischen zwei stilisierten KI-Chatbots in einem Boxring hoch – Symbolbild für den fairen Vergleich von KI-Modellen durch Nutzer:innen.

Wie Yupp Feedback nutzt, um KI-Modelle fair zu bewerten – und was UX-Profis daraus lernen können

AI & UXR, CHAT GPT, HUMAN VS AI, LLM

3D-Illustration eines digitalen Marktplatzes mit bunten Marktständen voller Prompt-Karten und einer Figur, die einen Prompt auswählt.

Prompts kaufen, teilen, verkaufen – was Prompt-Marktplätze heute leisten (und warum das für UX relevant ist)

AI & UXR, PROMPTS

Roboter hält zwei Schilder hoch: „ISO 9241 – 7 Prinzipien“ und „ISO 9241 – 10 Prinzipien“.

ChatGPT halluziniert – trotz Anti-Halluzinations-Prompt

AI & UXR, HUMAN VS AI, CHAT GPT

Erdbeere wird von einem Messer halbiert, stilisierte Illustration.

Warum KI manchmal nicht bis 3 zählen kann – und was das mit Tokens zu tun hat

AI & UXR, TOKEN, LLM

Quadratisches, in der Mitte geteiltes Motiv: Links ein graues, stilisiertes Gehirn über einer sitzenden Person am Laptop in dunklen Grautönen; rechts ein leuchtend blaues, vernetztes Gehirn über einer stehenden Person vor einem holografischen Interface auf dunklem Hintergrund.

GPT-5 ist da: Verändert diese UX AI wirklich alles für Researcher:innen?

AI & UXR, CHAT GPT

Surreales KI-Bild mit Datenströmen, durchgestrichenem „User Expirince“ und dem Text „ChatGPT kann jetzt Text in Bild“.

Wenn KI Bilder malt und plötzlich richtig schreiben kann

AI & UXR, CHAT GPT, HUMAN VS AI

Mensch und KI arbeiten gemeinsam an einem leuchtenden Baum auf dem Bildschirm, umgeben von dunkler, surrealer Atmosphäre.

Wenn der Text zu glatt ist: Wie man KI-Sprache menschlicher macht

AI & UXR, AI WRITING, CHAT GPT, HUMAN VS AI

Futuristische Illustration: Mensch blickt auf leuchtende, humanoide KI vor digitalem Hintergrund.

Kein Science Fiction – KI macht sich selbstständig

AI & UXR, CHAT GPT

Illustration einer KI, die mit einem Menschen kommuniziert, symbolisch für die Überzeugungskraft künstlicher Intelligenz.

Zwischen Argument und Einfluss – Wie überzeugend darf KI sein?

AI & UXR, CHAT GPT, LLM

Eine zweidimensionale Comic Frau steht vor einem menschengroßen Handy, auf dem Gesundheitsapps zu sehen sind. Rechts von ihr steht ein Kasten mit einem Computer drauf, auf dem ein EKG zu sehen ist.

Digital Health Apps & Interfaces: Warum gute UX entscheidet, ob Patienten wirklich profitieren

HEALTHCARE, MHEALTH, TRENDS, UX METHODS

Illustration einer roten Hand, die symbolisch „Censorship“ über „User Privacy“ bei DeepSeek priorisiert; im Hintergrund die chinesische Flagge.

Zensur trifft KI: Was DeepSeek über Menschenrechte verschweigt – und warum das UX betrifft

AI & UXR, LLM, OPEN AI

Illustration im isometrischen Flat Design zeigt eine vernetzte, internationale UX-Studienlogistik mit Paketen, Checkliste, Videokonferenzen und Positionsmarkierungen auf einer Weltkarte.

Die Voraussetzungen für den Erfolg: Globale Studie zur Logistik in der UX-Forschung für medizinische Geräte

HEALTHCARE, UX METHODS, UX LOGISTICS

Surreale, leuchtende Illustration eines KI-Sprachmodells als Gehirn, das von einer Hand beeinflusst wird – symbolisiert Manipulation durch externe Kräfte.

Propaganda Chatbots - Wenn die KI plötzlich russisch spricht

AI & UXR, LLM

Illustration mit sieben Tieren, die verschiedene Denk- und Prompt-Stile in der UX-Arbeit symbolisieren.

Willkommen im Prompt-Zoo

AI & UXR, PROMPTS, UX

Ein zwei dimensionales Bild von einem Mann, der an einem Schreibtisch mit geöffnetem Laptop sitzt, auf dem ein Gesundheitssymbol zu sehen ist. Im Hintergrund hängt ein Plakat mit einem DNA-Strang.

UX Regulatory Compliance: Warum Usability für Zulassung in MedTech entscheidend ist

HEALTHCARE, REGULATIONS

 VERWANDTE ARTIKEL DIE SIE INTERESSIEREN KÖNNTEN 

AUTHOR

uintent

Wir sind eine internationale, mitarbeitergeführte UX- und Usability- Research-Agentur mit Sitz in Hamburg & München, gegründet 2018. Wir haben UX-Labs direkt vor Ort in unseren Büros und verfügen über ein Netzwerk von Partnern, um auch anderswo Labs zu mieten. Unser Team besteht sowohl aus Branchenpionieren mit mehr als 20 Jahren Erfahrung als auch aus Young Professionals. Wir haben auf allen Kontinenten geforscht und Tausende von Schnittstellen gesehen - von frühen, nicht funktionalen Papierprototypen bis hin zu Produktionsmodellen. Wir nutzen eine breite Palette qualitativer und quantitativer Forschungsmethoden. Da wir Wert auf Qualität, Vertraulichkeit, Verfügbarkeit und Integrität von Informationen legen, sind wir ISO 9001 zertifiziert und TISAX®️ Teilnehmer.

Wir sind Teil von ReSight Global, wo wir mit unseren Schwesterunternehmen in den USA, Großbritannien, Indien, China und Japan zusammenarbeiten. Außerdem sind wir Mitglied der UXalliance, einem globalen Netzwerk von Partneragenturen.

                

bottom of page