DSC_8276

„Wir haben technisch noch nicht die Gestensteuerung gefunden, die zu uns und den Mercedes-Ansprüchen passt“, sagt Georges Massing. Bild: Claus Dick

| von Pascal Nagel

Die neue A-Klasse von Mercedes-Benz feierte ihr Messedebüt auf dem Mobile World Congress in Barcelona. Mit ihr ist erstmals das neue Infotainmentsystem MBUX in Europa zu sehen. Im Gespräch mit carIT erklärt Georges Massing, Director User Interaction & Software bei Daimler, mit welchem Rezept sein Team in die Entwicklung des neuen HMIs gegangen ist.

Ein gutes HMI stellt den Benutzer in den Mittelpunkt. Es muss einfach und intuitiv zu bedienen sein, eigentlich kinderleicht. Ich sage immer: Man muss von alleine darauf kommen können, wie man es bedienen muss. Außerdem ist ein gutes HMI lernfähig. Kein System der Welt erfüllt von Anfang an alle Kundenerwartungen. Aber mit der Zeit muss das System in der Lage sein, mich und meine Präferenzen kennenzulernen.

_Sie haben in der A-Klasse das neue Infotainmentsystem MBUX vorgestellt. Mit welchem Grundgedanken sind Sie in die Entwicklung gegangen? Was stand im Lastenheft?

Das Schöne am MBUX ist, dass wir im Grunde kein klassisches Lastenheft hatten. Das Management hat uns die Freiheit gegeben, ein Infotainmentsystem auf einem weißen Blatt Papier von Grund auf neu zu gestalten. Es gab nur den Auftrag: „Entwickelt ein HMI, das exakt auf den Kunden zugeschnitten ist.“ Das war für mein Team zunächst alles andere als einfach. Wir haben sogar unsere Entwicklungsprozesse umgestellt. Wir wollten keine 500 Seiten Spezifikationen an unsere Zulieferer senden, um dann ein paar Monate vor SOP festzustellen, dass wir von dem, was wir uns vorgestellt haben, meilenweit entfernt sind. Deshalb ist alles von Anfang inhouse passiert: Wir haben zunächst eine User Journey aufgezeichnet und auf dieser Basis die Entwicklung begonnen. Die für die Automobilwelt übliche Spezifikation haben wir als Dokumentation erst später aufgebaut. Mit diesem Vorgehen konnten wir bis zum Schluss das System immer weiter verfeinern. Das ist wie bei einem Kochrezept, wo man unterschiedliche Zutaten so zusammenbringt, dass die Sauce am Ende genial schmeckt. Nach diesem Bild haben wir MBUX konstruiert.

_War dieser mutige und frische Ansatz einfach mal nötig? Fehlt das der Autobranche mitunter ein wenig?

Ich denke, das Feedback nach der CES in Las Vegas zeigt, dass wir den richtigen Weg gegangen sind. Stellenweise war er durchaus riskant – wir wussten selbst nicht genau, wie das Ergebnis am Ende aussehen wird. Aber dafür wir haben jetzt eine zu 100 Prozent echte Mercedes-Benz Lösung.

_Sie setzen bei der Bedienung von MBUX auf dreifache Touchbedienung. Gestensteuerung spielt keine Rolle. Was spricht dagegen?

Momentan spricht dagegen, dass wir technisch noch nicht die Gestensteuerung gefunden haben, die zu uns und den Mercedes-Ansprüchen passt. Beim Touchscreen war das ähnlich. Viele sagen nun: „Ihr bringt ja jetzt auch nur einen Touchscreen“. Nein, wir bringen nicht nur einen Touchscreen ins Auto. Wir gehen da einen anderen, komplett durchdachten Weg mit einem neuen Ansatz bei der User Interaction. Die Frage ist nämlich, wie oft der Fahrer für die Bedienung bestimmter Funktionen den Bildschirm berühren muss. Oft wird gesagt, man sei die Bedienung ja vom Smartphone gewohnt. Aber die Zeit, wie auf dem iPhone herum zu probieren, habe ich im Auto nicht. Also haben wir uns gefragt, wie wir einen Touchscreen so ins Fahrzeug bringen können, dass er zum Anwendungsfall Auto passt. Wir wollten zum Beispiel, dass der Fahrer in den meisten Fällen mit maximal zwei Klicks eine Funktion bedienen kann – nicht mehr. Ähnliches gilt für die Gestensteuerung.

_Bei der Sprachsteuerung setzt Mercedes nicht auf Alexa oder Siri, sondern auf eine Eigenentwicklung. Braucht der Markt eine Neuentwicklung?

Für mich bedeutet Sprache Identität – die wollen wir nicht einfach aufgeben. Ja, es wäre einfach gewesen, Alexa oder Siri in unsere Fahrzeuge zu integrieren. Aber wir hätten damit aus meiner Sicht unsere Mercedes-Benz Identität ein Stück weit aufgegeben. Wir müssen – ich wiederhole mich – ganz pragmatisch an den Anwender denken. Im Fahrzeug braucht es ganz spezifische Dialoge, die eine Sprachsteuerung beherrschen muss. Wenn ein Kunde sagt „Mir ist kalt“, muss das System daraus die Konsequenz ziehen, die Heizung anzuschalten. Im Auto sprechen wir von einem Set ganz spezifischer Features, die bei Amazon, Google oder Apple so nicht vorgesehen sind. Also machen wir das selbst. So haben wir auch die Over-the-Air-Updates besser in der Hand, können schneller auf Kundenfeedback reagieren und das System fortlaufend verbessern.

_Stichwort verbessern: Sie setzen auf selbstlernende Algorithmen im MBUX. Wo kommt KI zum Einsatz?

Wir setzen auf ein hybrides Modell: Auf der einen Seite haben wir einen auf der Headunit programmierten Algorithmus, auf der anderen Seite nutzen wir natürlich die Möglichkeiten, die uns die Cloud bietet. Zur Anwendung kommt künstliche Intelligenz zunächst einmal bei der Personalisierung. Wenn ich in das Fahrzeug einsteige, erkennt mich mein Wagen und lädt automatisch Sitzeinstellungen oder beliebte Ziele. Das System lernt meine Gewohnheiten kennen, etwa welche Musik ich höre oder mit wem ich im Auto wann telefoniere. Es gibt aber auch weitere Domänen, in denen KI zur Anwendung kommen könnte, zum Beispiel beim Carsharing oder zukünftigen Apps. Die Möglichkeiten durch künstliche Intelligenz sind enorm.

_Das erfordert natürlich viel Rechenpower …

Sicher. Aber die Intels und Nvidias dieser Welt arbeiten daran, dass wir weiterhin genügend Rechenkraft im Fahrzeug haben werden. Die Cloud bietet im Grunde unlimitierte Rechenpower, um Algorithmen und Aufgaben auszulagern. Ich sehe da noch viel Luft nach oben.

Der Eintrag "freemium_overlay_form_cit" existiert leider nicht.