Sensorik

Im Bereich des autonomen Fahrens ist die Sensorikentwicklung besonders dynamisch. Die Erkennung von Objekten und anderen Verkehrsteilnehmern ist zentral für den Erfolg der Technologie. Bilder: Daimler, Volvo

| von Claas Berlin

Die korrekte Wahrnehmung der Umgebung ist die wichtigste Voraussetzung für alle Aktionen, Entscheidungen und Planungen, die von modernen Fahrzeugalgorithmen getroffen werden. Auch das Monitoring des Autos wird immer umfangreicher und intelligenter und die zugehörigen Maßnahmen reichen inzwischen von der Onlinebeobachtung bis hin zu Predictive Maintenance. Am äußersten Rand dieser Anwendungen befinden sich Sensoren. Weil zunehmend mehr Anwendungen auf diese Fühler angewiesen sind, boomt der Sensorikmarkt. Die Marktforscher von Visiongain meinen, dass in diesem Segment allein im Jahr 2019 rund 20 Milliarden US-Dollar umgesetzt werden. In den Folgejahren sollen es jeweils rund sieben Prozent mehr werden.

Viele Sensoren sind weiterhin einfach aufgebaut, beispielsweise solche zur Messung von Temperaturen. Andere dagegen werden bereits mit hochkomplexen Systemen ausgestattet, um einzelne oder kombinierte Messwerte zu aggregierten Informationen aufzubereiten. Das kann entweder innerhalb der Komponente selbst stattfinden, wie zum Beispiel in einer Kamera, wo das Rohbild des Sensors in ein für die jeweilige Schnittstelle erforderliches Format konvertiert wird. Es kann aber auch in Kombination mit entsprechenden separaten Edge-Systemen erfolgen, in denen die Aufbereitung und Analyse von mehreren Sensoren läuft.

Was das Monitoring eines Fahrzeugs angeht, so lohnt der Blick auf einen Bereich mit extremen Belastungen, aus dem aber häufig bedeutende Massenanwendungen hervorgehen. Beispielsweise produzieren Formel-1-Rennwagen in jedem Rennen mit bis zu 500 Sensoren rund 500 Gigabyte an Daten. Die meisten werden sofort online in die Operations­zentrale gestreamt und führen zu direkten Maßnahmen. Auch im „normalen“ Automotive-Bereich kommen immer mehr Realtime-Auswertungen für Predictive Analytics zum Einsatz.

Neben den bekannten Sensoren für Betriebstemperaturen, Füllstände und Verbrauchswerte kommen immer wieder neue Sensoren auf den Markt. Das französische Startup Carfit etwa hat auf der letzten CES in Las Vegas einen Sensor vorgestellt, der sich einfach am Lenkrad anbringen lässt und dort die häufigsten Betriebsstörungen wie Unwucht, Spurfehler oder ungewöhnlich hohen Bremsverschleiß erkennen kann. Entsprechende Warnungen werden dem Fahrer direkt aufs Smartphone geschickt. Für eine bessere Fahrerunterstützung dienen auch neue Kamerasysteme, die schon bald die klobigen Rückspiegel ersetzen werden.

Tesla hat ein Patent angemeldet, wonach es mit einer Innenraumkamera mittels Gesichtserkennung die individuellen Einstellungen für Sitz und Klimaanlage automatisch anpassen will. Auch eine Ermüdungserkennung soll mit diesen Kameras möglich sein. Selbst die altbackenen Stoßstangen bekommen demnächst neue Aufgaben: Schon bald werden sie mit einem Sensorfilm beschichtet sein, der die Abstände und Bewegungen im direkten Umfeld messen und auswerten kann. Hiervon versprechen sich vor allem die Ingenieure, die an einer weiteren Automatisierung des Fahrens arbeiten, zusätzliche Informationen, die für eine sichere Fahrzeugführung entscheidend sein können.

Im Bereich des autonomen Fahrens ist die Entwicklung eindeutig am dynamischsten. Besonders kritisch sind für solche Systeme Spurwechsel und plötzlich vor dem Fahrzeug auftauchende Objekte. Um Objekte zu erkennen und ihre Eigenschaften zu klassifizieren, nutzen die Fahrzeuge derzeit drei unabhängige Systemkategorien: Millimeter-Radar, Kameras und Lidar. Jedes dieser Sensorsysteme hat seine eigene Erfassungstechnologie – und folglich seine eigene Erkennungswahrscheinlichkeit für die zugehörigen Objektparameter wie Geschwindigkeit, Breite, Ausrichtung und Entfernung. Bei guter Sicht und gutem Wetter sind die Systeme praktisch redundant, da sie nahezu identische Informationen liefern. Doch das ändert sich schlagartig bei schlechtem Wetter, wenn die Kameras kaum noch etwas sehen und auch die Durchdringung der Radar- und Laserwellen eingeschränkt ist. Das Lidar ist beispielsweise im Nebel kaum hilfreich, denn das in der Luft schwebende Wasser absorbiert die Pulslasersignale.

Innenraumkameras beobachten den Zustand des Fahrers. Ist er abgelenkt oder müde, kann das Fahrzeug reagieren.

„Robust Sensing“ lautet der Oberbegriff, um mithilfe mathematischer Verfahren die Erkennungsgenauigkeit bei dichtem Nebel oder starkem Regen deutlich zu verbessern. „Die Analyse und Bestimmung von 3D-Objekten ist mit den heutigen Sensoren zwar möglich, doch sie ist sehr rechenintensiv und je nach Sensor auch relativ fehlerhaft“, sagt Yi Fang von der New York University, der an verschiedenen mathematischen Modellen arbeitet, um beiden Problemen zu begegnen. Auch in der Industrie wird hieran intensiv geforscht. Mitsubishi Electric beispielsweise verknüpft die Daten der einzelnen Sensoren mit der spezifischen Erkennungswahrscheinlichkeit eines auf der Straße befindlichen Objekts. Die Daten werden dann unmittelbar in Echtzeit analysiert, um eine aggregierte Wahrscheinlichkeit über die Objektparameter zu erhalten, die wesentlich präziser ist, als jeder einzelne Wert.

Diese neue Software wurde bereits am Japan Automobile Research Institute mit realen Fahrzeugen und einem autonomen Notbremssystem (AEB) bei schlechtem Wetter erprobt. Beispielsweise mit stehenden Objekten auf der Fahrbahn, starkem Regen (80 Millimeter pro Stunde) und einer Fahrzeuggeschwindigkeit von 40 km/h. Aufgrund der erfolgreichen Objekterkennung konnte das AEB-System eine Notbremsung rechtzeitig auslösen. Auch im dichten Nebel, bei einer Sichtweite von 15 Metern und einer Geschwindigkeit von 15 km/h, kam das Fahrzeug rechtzeitig zum Stehen. Selbst bei Nacht und Regen, oder wenn die Kamera „geblendet“ war, hat das AEB-System erfolgreich reagiert. Bis 2023 soll diese Technologie nun so weit ausgereift sein, dass sie an alle interessierten Autohersteller und Zulieferer vermarktet werden kann.

Das Kernsystem in autonomen Autos bleibt das Lidar, doch es hat ein großes Problem: Der Preis kann bis zu 75 000 US-Dollar ausmachen. Viele Startups versuchen, diese Hürde abzusenken. Sie wollen mit neuen Systemen und Technologien preiswertere Alternativen auf den Markt bringen. Luminar zum Beispiel hat soeben weitere 100 Millionen Dollar an Venture-Finanzierung erhalten. Das junge Unternehmen meint, bis 2022 einen Lidar-Ersatz für weniger als 500 Dollar auf den Markt bringen zu können. Das Startup mit Sitz in Kalifornien behauptet, auf diesem Gebiet bereits mit vielen OEMs zusammenzuarbeiten. Mit dabei sein sollen unter anderen Volvo, Toyota, Volkswagen und Audi. Tesla-Chef Elon Musk sieht ebenfalls die größte Barriere beim autonomen Fahren in den Kosten der Lidar-Technologie. „Lidar ist ein Teufelszeug. Wer sich darauf verlässt, ist von vornherein zum Scheitern verurteilt“, sagte er im April.

In der Tat hat ein Team der University of Michigan herausgefunden, dass die Erkennungswahrscheinlichkeit des teuren Lasers nicht sonderlich hoch ist, wenn es um verzerrte oder ähnliche Objekte geht. Die Forscher kritisieren in ihrem Bericht vor allem die Deep-Learning-Methoden dieser Systeme, die dazu führen würden, dass die Algorithmen fehlerhafte Objektinterpretationen als „richtig erkannt“ abspeichern und sich dann später fälschlicherweise darauf beziehen. In ihrer Untersuchung zeigten die Wissenschaftler, wie Lidars mit einfachen Experimenten dazu gebracht werden können, Stopp-Zeichen als Geschwindigkeitsbegrenzungen zu interpretieren. Auch der tödliche Unfall mit einem autonomen Uber-Fahrzeug im US-Bundesstaat Arizona geht nach bisherigen Erkenntnissen darauf zurück, dass das Lidarsystem des Fahrzeugs falsche Informationen lieferte. Zuvor hatte Uber aus Kostengründen die Zahl der benutzten Lidars von sieben auf eines reduziert.

Der Eintrag "freemium_overlay_form_cit" existiert leider nicht.