sensortechnik1

Moderne Fahrzeuge sind mit einer Armada an Sensoren ausgestattet. Mit Laserscannern, Ultraschall, Kameras und Radar wird die Umwelt in sämtliche Richtungen und Entfernungen erfasst. Bild: Continental

| von Christoph Hammerschmidt

Die Weiterentwicklung der Fahrerassistenzsysteme hin zum automatisierten Fahren ist mit der Bereitstellung immer raffinierterer Sinnesorgane für die Fahrzeuge verbunden. Die Situationen, in denen ein Computer die Steuerung des Autos übernimmt, werden immer elaborierter. Seit den relativ grobschlächtigen Szenarien der „Darpa Grand Challenges“, die von den Fahrzeugen nicht viel mehr als selbstständiges Navigieren in der Wüste verlangten, hat die Technik schon einen weiten Entwicklungsweg zurückgelegt.

Je mehr sich die autonomen Autos den Innenstädten mit ihren komplexen Verkehrssituationen, mit kreuzenden Radfahrern und plötzlich auftauchenden Fußgängern nähern, desto höher werden die Anforderungen an die elektronischen Gehirne, Nervensysteme und Sinnesorgane der Autos. Die Entwicklung des autonomen Fahrens läuft daher parallel zur Entwicklung der Sensoren – oder besser: Die Entwicklung der Sensorik läuft derjenigen des autonomen Fahrens voraus – denn eine adäquate Sensorik ist eine der wichtigsten Voraussetzungen für die zeitweise oder vollständige Ablösung des Fahrers.

Als Stand der Technik für das Sensorium der diversen Assistenz- und Automatikfunktionen hat sich im Wesentlichen ein Quartett aus Lidar, Radar und Ultraschallsensoren sowie Kameras als Stand der Technik etabliert. Je nach Rang in der Hackordnung der Premiumhersteller und nach Geldbeutel der angepeilten Kundschaft kommen diverse Konfigurationen mit unterschiedlich vielen Sensoren jeder dieser Spezies zum Einsatz. Als typisches Beispiel mag der Audi Q8 dienen: Das Oberklasse-SUV beschäftigt bis zu fünf Radarsensoren, sechs Kameras (Rückfahrkamera eingerechnet), ein Dutzend Ultraschallsensoren verteilt auf die beiden Stoßfänger sowie einen Lidarsensor.

Diese Sensorik unterliegt natürlich einer konstanten Weiterentwicklung. Um eine Vorstellung von dem zu erhalten, was die Autobauer in einigen Jahren auf die Straße bringen werden, lohnt es sich daher, einen Blick auf die Hersteller von Sensoren zu werfen. Offenbar am meisten tut sich auf dem Gebiet der Lidartechnik. Das sind diejenigen Sensoren, die in ersten Prototypen und Versuchsmustern autonomer Autos auf das Dach montiert waren. Eine rotierende Laserquelle sendet einen Infrarotlaserstrahl aus und die reflektierten Strahlen setzt ein angeschlossener Computer zu einem Umgebungsbild zusammen.

Der rotierende Dachaufsatz gilt zwar als qualitativ hochwertig, konnte sich aber aus Designgründen bislang nicht durchsetzen. Zudem ist er als sehr teuer verschrien. Viele OEMs und Zulieferer grübeln daher darüber nach, wie sich ähnlich gute Ergebnisse ohne massive Zugeständnisse an die Ästhetik erzielen lassen.

Bosch beispielsweise beschäftigt sich schon seit Jahren mit der Lidartechnik. Ein kostengünstiger, zuverlässiger und für die Massenfertigung geeigneter Sensor sei aber noch nicht verfügbar, heißt es bei dem schwäbischen Zulieferer. In der Frage „selber entwickeln oder zukaufen“ konnte sich das Unternehmen bislang nicht zu einer Entscheidung durchringen. „Es gibt verschiedene Technologieansätze. Jeder erfordert noch umfangreiche Entwicklungsaktivitäten“, so ein Sprecher. Auch Hella prüft nach eigenen Worten „geeignete technologische Konzepte“, wobei auch Entwicklungspartnerschaften eine Rolle spielen könnten.

Konkurrent Continental hat die Entscheidung bereits getroffen: Die Hannoveraner entwickeln einen eigenen hochauflösenden Flashlidar. Der Sensor wird als Festkörperlidar auf Halbleiterbasis implementiert werden. Er kommt ganz ohne bewegliche Teile aus, nicht einmal mikromechanische, im Halbleiterverfahren hergestellte bewegliche Spiegel werden benötigt. Die Implementierung auf Halbleiterbasis lässt erwarten, dass die Fertigung gut skalieren wird. Zudem gelten Halbleiterbausteine als zuverlässig.

Auch in der Chipindustrie befasst man sich daher mit dem Thema. Infineon hat vor zwei Jahren das niederländische Startup Innoluce aufgekauft, das als Experte für MEMS-basierte Lidarsysteme gilt – also für Systeme mit beweglichen Mikrospiegeln. Die Münchner verfügen selbst über umfangreiche Erfahrung in der Produktion von MEMS-Halbleitern. Wie aus dem Unternehmen verlautet, soll in zwei bis drei Jahren ein Lidar für den Massenmarkt bereitstehen.

„Die Herausforderung bei der Industrialisierung der Lidartechnik besteht darin, die Herstellungskosten mit unseren Tier-One-Partnern auf ein serien­taugliches Niveau zu bringen“, orakelt ein Infineon-Sprecher und nennt auch gleich eine Hausnummer: Unter 200 Euro soll das Teil kosten. Lidartechnik scheint für OEMs so bedeutend, dass BMW im März dieses Jahres selbst zur Tat schritt und sich zur Finanzierung eines entsprechenden Jungunternehmens entschloss: Blackmore Sensors and Analytics aus Bozeman (US-Bundesstaat Montana) will einen 3D-Lidar mit hoher Auflösung und Reichweite auf den Markt bringen, der sehr wenig Energie benötigt. Neben BMW beteiligt sich auch Toyota an der Finanzierung. In Sachen Lidar fährt der bayerische Autobauer damit eine Doppelstrategie, denn im April gab Zulieferer Magna bekannt, dass er BMW mit Lidarsystemen beliefern wird. Diese Festkörper­lidare entstammen einer Kooperation von Magna mit dem israelischen Startup Innoviz.

Ebenfalls mit Riesenschritten entwickelt sich die Radartechnik. Bosch als einer der Marktführer in diesem Segment stellt für die nächsten Jahren eine Verzehnfachung der Auflösung in Aussicht. „Die Bildqualität von Kameras werden Radarsysteme aber nicht erreichen“, bremst das Unternehmen allzu hochfliegende Erwartungen. Continental geht davon aus, dass die nächste Generation von Radarsensoren neben einer hohen Auflösung auch die Möglichkeit bieten wird, die Höhe von Objekten zu erfassen. Damit könnte der Radarsensor beispielsweise Bordsteinkanten identifizieren. Unfälle wie derjenige eines auf Autopilot fahrenden Tesla, der einen querstehenden Lastwagen nicht erkannte, würden so vermieden.

Mit dem Einsatz mehrerer kaskadierender Radarsender und -empfänger will Chiphersteller NXP die Winkelauflösung von Radarsensoren deutlich verbessern. Weil diese zukünftigen Radarsysteme auch auf sehr kurze Distanzen einsetzbar sind, können sich die Niederländer solche Sensoren auch im Innenraum des Fahrzeugs und in den Stoßfängern vorstellen. Im Innenraum könnten sie zur Gestensteuerung und zur Erkennung der Sitzbelegung genutzt werden, in den Stoßfängern böten die Radarsysteme nicht nur gestalterische Vorteile gegenüber herkömmlichen Ultraschallsensoren, sondern auch eine höhere Genauigkeit bei der Objekterkennung. Dass die Radartechnik den Ultraschall bei den Einparkhilfen ersetzen könnte, glaubt man bei NXP allerdings nicht – dazu sind die Ultraschallwandler einfach zu billig.

Auch die Kameratechnik entwickelt sich weiter. Neben Verbesserungen in der Chiptechnik scheint sich der Fokus des technologischen Wandels auf die Softwareebene zu verlagern. Das Stichwort hier lautet künstliche Intelligenz zur Bilderkennung. Bosch nutzt KI-Verfahren, um beispielsweise Fahrbahngrenzen trotz fehlender Markierungen zuverlässig zu erkennen. Auch teilweise verdeckte Fußgänger lassen sich auf diese Weise identifizieren. Die Möglichkeiten der KI sind aber noch weiter gesteckt: Ein Ziel von Continental ist es, „Dinge zu sehen, bevor sie passieren“.

Mit KI-gestützten Vorhersagetechniken wäre es möglich, etwa anhand von Gesten und Bewegungsvektoren unfallträchtige Situationen zu erkennen und sich auf kritische Bewegungen anderer Verkehrsteilnehmer einzustellen – natürlich nur im Rahmen einer gewissen Wahrscheinlichkeit. Die Level 4 und 5 der Automatisierungsskala wird man nur mit KI-Hilfe erklimmen können. „Mit ihrer extremen Komplexität sind hochautomatisierte Fahrfunktionen mit konventionellen Methoden höchstwahrscheinlich nicht zur vollen Zufriedenheit zu lösen“, sagt Robert Thiel, Head of Machine Learning in Continentals Geschäftsbereich Fahrerassistenzsysteme.