AUTOMOTIVE, AUTONOMES FAHREN, SPRACHSTEUERUNG

Warum die momentane Entwicklung von Interfaces bei autonomen Autos möglicherweise nicht funktioniert

Connected Features spielen in der Anforderungsliste der meisten Nutzer noch immer nur eine untergeordnete Rolle. Die Entwicklung von HMI-Systemen und Funktionsprioritäten im Auto, z.B. von Touch- zu Sprachinteraktion, wird sich bei selbstfahrenden Autos ändern.

06 MIN

Das Aufkommen selbstfahrender Autos stellt nicht nur die Ingenieure, die ein technisches System herstellen müssen, das den Sicherheits- und Gesetzesanforderungen entspricht, sondern auch die Designer von Benutzeroberflächen und -interfaces vor große Herausforderungen. In unseren Projekten, die sich mit den Anforderungen an Benutzerschnittstellen in selbstfahrenden Autos beschäftigen, hat sich gezeigt, dass die Trennung der Systemfunktionen in verschiedene Bereiche für die Benutzer des Autos immer weniger nützlich sein wird. Dies ist vor allem auf die Verlagerung von der displaygesteuerten Interaktion zur situativen Interaktion und die Dominanz der Sprachinteraktion zurückzuführen.

 

Der klassische Weg zur Entwicklung von HMI-Systemen für Autos

Die erste Herausforderung, der wir in unserer täglichen Arbeit mit Entwicklungsteams im Automobilbereich häufig begegnen, ist die Überwindung des Schubladendenkens und der Planung von Funktionen und Informationen: Bei vielen OEMs ist das Design von Infotainment-Systemelementen noch immer in einer Silostruktur angesiedelt - ein Team kümmert sich um den Unterhaltungsteil, eine der Fahrzeug- und Systemeinstellungen, eine der Navigation usw. Darüber hinaus scheint sich die Kommunikation und Abstimmung zwischen diesen Teams auf die Ebene des Design-Frameworks zu beschränken, um eine konsistente Nutzung zu gewährleisten, zielt aber nicht darauf ab, domänenübergreifende Funktionalität zu erhalten oder zu entwickeln. Bei einigen Aufträgen werden wir ausdrücklich aufgefordert, uns ausschließlich auf Lösungen zu konzentrieren, die einem dieser Funktionsbereiche dienen, und alle Ergebnisse, die funktionsübergreifend sind, aktiv zu vernachlässigen. Diese Aufteilung der Entwicklung spiegelt sich derzeit in den meisten Auto-Mensch-Maschine-Schnittstellen (HMIs) wider, was für die Nutzer von Vorteil ist, da sie die Bedienung des Systems sehr leicht erlernen und die wichtigsten Funktionen schnell und ohne große Ablenkung finden können.

Die Kehrseite dieser Art der Entwicklung von Schnittstellen mit verbundenen Funktionen, die in den heute gefahrenen Fahrzeugen angeboten werden, ist jedoch schon jetzt zu erkennen: Sobald ein Feature nur schwer einem der traditionellen Systembereiche zuzuordnen ist, findet es sich in Abschnitten mit der Bezeichnung "verbundene Dienste", "zusätzliche Dienste" oder ähnlichem wieder - obwohl es funktional nichts mit anderen Features dieser Kategorie gemein hat. Ein übliches Zeichen dieser geteilten Feature-Landschaft ist der Standort einer Online-Wetter- oder Restaurant-Rating-App in einer solchen Limbo-Kategorie. In vielen Fällen bestehen diese Abschnitte auch nur aus wörtlichen Listen von Apps und Funktionen, was es für den Benutzer extrem umständlich macht, ein Feature zu finden, indem er die lange Liste nach etwas Relevantem durchsucht, oft ohne zu wissen, ob die gesuchte Funktion tatsächlich in seinem Fahrzeug angeboten wird oder wie der OEM beschlossen hat, sie zu nennen.

Diese traditionelle Art der Entwicklung von Auto-Infotainment-Systemen ist für die Art und Weise, wie die Nutzer ihr Auto erleben, bisher von geringer Relevanz. Diese zusammenhängenden Funktionen spielen in der Anforderungsliste der meisten Nutzer immer noch nur eine geringe Rolle und werden von der Notwendigkeit eines schnellen Zugriffs auf Standard-Navigations- und Medienfunktionen überschattet. Dies alles wird sich jedoch mit dem selbstfahrenden Auto ändern.

 

 

 

Sprachinteraktion als Einstiegsmodalität für selbstfahrende Autos

Auf die Frage, wie sie sich ihre Interaktion mit ihrem zukünftigen autonomen Fahrzeug vorstellen, erwarten die meisten unserer Teilnehmer, dass sie mit ihrem Auto zumindest auf dem gleichen Niveau interagieren können, wie sie es derzeit mit ihrem Alexa, Siri oder Google Home tun. Während sie autonom fahren, scheinen die Nutzer paradoxerweise noch weniger bereit zu sein, auf dem Bildschirm durch die Menüs zu navigieren. Ihr Alexa hat keinen Bildschirm und sie können ein Fass Fischöl bestellen und ihr Wohnzimmerlicht ganz einfach ausschalten - warum sollten sie sich in ihrem schicken Auto der Zukunft auf eine veraltete Touch/Dial-Interaktion verlassen müssen?

Dieser Wahrnehmungswandel scheint auch darauf zurückzuführen zu sein, dass sie ihre Autos zwar manuell fahren mussten, die Interaktion auf dem Bildschirm aber ein Maß an präziser Kontrolle versprach (und, ehrlich gesagt, meistens auch lieferte), das notwendig war, um die Ablenkung von der Straße auf ein absolutes Minimum zu beschränken. Nun scheinen die Benutzer in ihren selbstfahrenden Autos das Gefühl zu haben, dass dieses Maß an Kontrolle nicht mehr erforderlich ist. Sie scheinen zu erwarten, dass sie ihrem Auto einfach sagen können, was zu tun ist, und im unwahrscheinlichen Fall eines verpassten Befehls das Problem ohne persönliches Risiko beheben können. Schließlich müssen sie sich nicht mehr auf die Straße konzentrieren. Visuelle Anzeigen können immer noch zur Unterhaltung oder zu Informationszwecken eingesetzt werden, wie z.B. zur Anzeige eines Films oder zur Anzeige der allgemeinen Route oder spezifischer Umweltinformationen. Nachdem sie jedoch das Ziel der autonomen Fahrt festgelegt und die autonome Fahrt begonnen haben, wollen sich die Benutzer nicht mehr auf die Interaktion durch Berühren/Wählen verlassen.

Wenn also die Sprachinteraktion (nach der anfänglichen Einrichtung der Strecke) zur "Go-To"-Modalität der Interaktion mit Ihrem Auto wird, verliert die abgeschottete Struktur der derzeitigen Systeme ihren Zweck - der in erster Linie darin bestand, es Ihnen zu ermöglichen, schnell ein mentales Modell der Systemfunktionsstruktur zu erstellen und mit minimaler Ablenkung von Ihrer Hauptaufgabe, dem Fahren, darauf zuzugreifen. Gleichzeitig sehen wir in Benutzertests, dass Querschnittsfunktionalität immer mehr erwartet wird (auch dank Alexa und Co.)

 

 

Was ist also zu tun?

Unsere Empfehlungen sind:

  1. Die Entwicklung von Infotainment-Systemen wird nicht mehr in einzelne Bereiche unterteilt, da die von ihr produzierten Systeme nicht den zukünftigen Anforderungen der Benutzer entsprechen.
  2. Seien Sie offen für Querschnittsfunktionen, die über Sprachsteuerung zugänglich sind - z.B. "Spielen Sie ein Hörbuch ab, das fertig ist, wenn ich mein Ziel erreiche".
  3. Erlauben Sie den Benutzern, ihre autonome Route schnell einzurichten und dann während der gesamten Reise mit der Interaktion am Bildschirm zu arbeiten.
  4. Wir können dies nicht genug betonen - in autonomen Autos wird die Sprachsteuerung zur meistgenutzten Modalität werden - wenn Sie sich immer noch auf das Schnittmodell aktueller Auto-HMIs zu dieser Zeit verlassen, stellen Sie sicher, dass Sie über Prozesse verfügen, die eine nahtlose Interaktion zwischen den Entwicklungsteams und den entwickelten Funktionen ermöglichen.
 

Autor

Jan Panhoff

Jan begann seine Tätigkeit als UX-Profi im Jahr 2004 nach Abschluss seines M.Sc. in Digitalen Medien. 10 Jahre lang unterstützte er eBay als Embedded UX-Berater. Seine Schwerpunkte bei uintent liegen in der Automobil- und Innovationsforschung.

Zurück