1581064426306

Eine modifizierte Dachfinne zur Erprobung von Sensoren für die akustische Erfassung von Außengeräuschen an einem Fahrzeug. Bild: Fraunhofer IDMT/Hannes Kalter

| von Fabian Pertschy

Die Grundlage für das autonome Fahren könnten in Zukunft nicht nur Radar- und Kamerasensorik, sondern auch Systeme zur Geräuscherkennung sein. So haben Forscher des Fraunhofer-Instituts für Digitale Medientechnologie IDMT in Oldenburg erste Prototypen für das Erkennen von Außengeräuschen entwickelt. Die akustische Ereigniserkennung des „hörenden Autos“ wird durch KI-basierte Technologien realisiert.

„Für autonome Fahrzeuge existieren externe akustische Wahrnehmungssysteme bisher nicht, trotz Ihres hohen Anwendungspotenzials. Sie signalisieren beispielsweise im Bruchteil einer Sekunde, wenn ein Fahrzeug mit eingeschaltetem Martinshorn naht“, sagt Danilo Hollosi, Gruppenleiter Akustische Ereignisdetektion am Fraunhofer IDMT in Oldenburg. Das Auto wisse dadurch, wann es für eine Rettungsgasse ausweichen muss.

Neben der Sirenenerkennung gibt es zahlreiche weitere Szenarien, in denen ein akustisches Frühwarnsystem hilfreich wäre: beim Einbiegen in Spielstraßen oder zum Erkennen von gefährlichen Situationen oder Fehlern – etwa wenn ein Nagel im Reifen steckt. Darüber hinaus kann das System die Zustandsüberwachung des Fahrzeugs übernehmen sowie per Spracherkennung als Notrufsäule fungieren.

Gemeinsam mit Industriepartnern wurden bereits erste Prototypen realisiert, die Mitte des kommenden Jahrzehnts marktreif sein sollen. Die akustische Sensorik setzt sich aus eingehausten Mikrofonen, Steuergerät und Software zusammen. Außen am Fahrzeug angebracht nehmen die Mikrofone den Luftschall auf. Die Sensoren leiten die Audiodaten an ein spezielles Steuergerät weiter, wo diese dann zu relevanten Metadaten weiterverarbeitet werden.

Zu den Herausforderungen zählen laut den Experten des Instituts die optimale Signalaufnahme durch Sensorpositionierung, die Signalvorverarbeitung und -verbesserung sowie die Störgeräuschbefreiung. Eigene Beamforming-Algorithmen sollen die dynamische Lokalisation von sich bewegenden Schallquellen, wie beispielsweise das Martinshorn an einem Einsatzfahrzeug, ermöglichen. Mittels Machine-Learning-Verfahren erfolgt das Training der akustischen Signaturen relevanter Töne. Hierfür wurden eigens akustische Bibliotheken angelegt. Eigens entwickelte KI-basierte Algorithmen zur Audioanalyse ermitteln die Stör- und Zielgeräusche.

Der Eintrag "freemium_overlay_form_cit" existiert leider nicht.