Intuitive Dialogsysteme
| von Götz Fuchslocher

Angeblich sind drei Viertel aller deutschen Autofahrer nach einer Studie des Allianz-Zentrums für Technik regelmäßig abgelenkt, weil sie im Bordmenü, am Navi oder an der Klimaanlage ihres Autos herumfummeln – Ablenkungen, die leider häufig zu Unfällen führen. Sprachsteuerungen sollen Abhilfe schaffen, doch allzu oft muss hier mit vorgegebenen Befehlen durch verschachtelte Menüs kommandiert werden, Missverständnisse inklusive. Richtig gut läuft es nicht. Doch Besserung naht. Ähnlich wie sich Sprachassistenten à la Alexa und Co. allmählich im Haushalt bewähren, soll es auch im Auto auf Zuruf einfacher, intuitiver, umgangssprachlicher zugehen. Hersteller, Zulieferer und Forscher arbeiten an entsprechenden Dialogsystemen, durch die sich zudem neue Geschäftsmodelle eröffnen sollen.

Gemeinsam mit Volkswagen entwickeln Forscher des Fraunhofer-Instituts für intelligente Analyse- und Informationssysteme (IAIS) intuitive Sprachdialogsysteme, die das Autofahren leichter und sicherer machen sollen und zudem in der Fertigung eingesetzt werden können. „In der Produktion werden beispielsweise immer mehr Roboter mit Sprachassistenten ausgestattet, die der Werker per Spracheingabe und durch Gesten steuert und anlernt“, sagt Projektleiter Jens Lehmann vom Fraunhofer-IAIS. Den Ansatz zeichnet aus, dass er nicht die gesamte Bandbreite eines Bedieners abdeckt, sondern auf domänenspezifisches Wissen setzt – also auf ausgewählte Bereiche zugeschnitten wird, um dort als besonders verlässlich zu brillieren.

Wie, demonstrierten die Forscher bei der diesjährigen Hannover Messe anhand einer virtuellen Städtetour mit einem VW Tiguan durch Berlin. Auf der Fahrt durch die Hauptstadt mit VR-Brille erwies sich der Assistent als kundiger Reiseführer. Jegliche Fragen zu Gebäuden, ihrem Zweck, Erbauer und anderem Wissenswerten am Straßenrand konnte das System beantworten. Wer es ganz genau wissen wollte, dem wurde geholfen – etwa mit vertiefenden Informationen zu Fragen wie „Woher kommt der Erbauer?“ oder „Erzähle mir mehr über ihn“. Das alles ging ungekünstelt in natürlicher Sprechweise. Wären sämtliche Helferlein eines Autos derart zu bedienen, dürfte niemand mehr vom Straßenverkehr abgelenkt sein. Das ist das Ziel.

Die Fraunhofer-Forscher setzen auf einen kombinierten Ansatz des maschinellen Lernens, des Question Answering und der intelligenten Wissensvernetzung über Wissensgraphen. Mit diesen werden künstliche Intelligenzen um die Fähigkeit ergänzt, Zusammenhänge und Strukturen von Informationen zu erkennen, so dass sie miteinander verknüpft und gezielt gesucht werden können. Für ihre Demo haben die Wissenschaftler geballte Berlin-Kenntnisse zu einem Wissensgraphen zusammengefügt.

Jedes Gebäude wird in dem Graphen durch einen Knoten dargestellt, der wiederum mit anderen Knoten verknüpft ist. Auf diese Weise werden immer mehr Informationen gesammelt und die Wissensbasis erweitert“, erklärt Lehmann. „Man kann also komplexe Fragen stellen und ist nicht auf eine begrenzte Anzahl an definierten Fragen beschränkt.“ Heißt auch, dass das Dialogsystem zuvor aufwendig trainiert werden muss, um sich das domänenspezifische Wissen anzueignen. Dabei hilft Machine Learning, das dafür sorgt, die natürlich gesprochenen Ansinnen korrekt zu deuten und mit den richtigen Antworten zu reagieren. Der ML-Werkzeugkasten der Fraunhofer-IAIS-Forscher ist inzwischen gut bestückt: Passend zur jeweiligen Domäne wählen sie entsprechende Algorithmen aus und trainieren diese mit Beispieldialogen sowie Frage-Antwort-Paaren.

Sprachassistenten zum Beifahrer machen möchte auch Bosch-Geschäftsführer Dirk Hoheisel. Sein Ziel: „Sagen, was man will und wie man es will.“ Das beherrscht der Bosch-Sprachassistent namens Casey schon ganz gut, wie Pressevorführungen zeigen. Aktiviert wird der Assistent mit „Hey Casey“ – und dann kann drauflos geplaudert werden, ganz ohne typische Kommandos, die vorher gelernt werden müssen. Kein Piepton bestimmt mehr, wann der Fahrer zu sprechen hat. Casey versteht und spricht 30 verschiedene Sprachen und kommt auch mit Akzenten und Dialekten zurecht. Gut zehn Jahre haben die Entwickler an der Sprachsteuerung getüftelt, was zeigt, dass gute Systeme nicht von heute auf morgen zu haben sind.

Laut Bosch „denkt und lernt“ Casey mit. Möchte man zum Beispiel „Paul“ anrufen, überprüft das System die Kontakte und berücksichtigt dabei clevererweise den aktuellen Ort, die Uhrzeit und Situation des Fahrers. Ist dieser morgens auf dem Weg ins Büro, ist mit „Paul“ wahrscheinlich ein Kollege gemeint, während abends wohl eher ein Freund angemorst werden soll. Um sicherzugehen, fragt Casey nach: „Ich habe fünf Kontakte mit dem Namen Paul gefunden. Willst du Paul Stevenson anrufen?“ Hilfreich, dass der Assistent ohne externe Datenverbindung funktioniert, weil das Infotainmentsystem im Auto die Rechenarbeit übernimmt, ohne Daten in die Cloud zu senden. Damit hilft das System auch dort weiter, wo das Smartphone mangels Netz stumm bleibt.

Solche Systeme sind nicht nur im Auto hilfreich. Bei Fraunhofer hat man unter anderem auch die Produktion im Blick, wo Werkern wichtige Fragen beantwortet werden könnten, etwa wenn es bei der Montage oder Wartung hakt und ein Handbuch zurate zu ziehen ziemlich umständlich und zeitraubend wäre. Mehr noch: Wissensgraphen, mit denen die Forscher arbeiten, könnten den Zustand von Maschinen oder digitalen Zwillingen beschreiben und auch Fragen zu einzelnen Bauteilen beantworten. Daraus könnte sich, wie bald im Auto, ein kundiges Frage-Antwort-Spiel entwickeln. Denn das ist die Domäne intelligenter Dialogsysteme, die laut den Fraunhofer-Forschern sogar den Smalltalk beherrschen.

Bilder: Volkswagen, Flaticon, Shutterstock/octomesecam