Intelligente akustische Sensorsysteme für das hörende Auto

Pressemitteilung / Oldenburg /

Das Automobil der Zukunft kann hören, z. B. die Klingel eines Radfahrers, spielende Kinder oder das Martinshorn eines herannahenden Einsatzfahrzeugs. Daher arbeiten die Expertinnen und Experten des Fraunhofer-Instituts für Digitale Medientechnologie IDMT in Oldenburg an The Hearing Car und entwickeln KI-gestützte Systemlösungen für die akustische Szenenerfassung im Umfeld von Fahrzeugen. Ein mobiles System zur Elektroenzephalographie (EEG) im Fahrzeug für die Optimierung der Mensch-Maschine-Interaktion sowie das »YourSound«-Verfahren für personalisierte Klangerlebnisse vervollständigen die Anlage. Einen Einblick in die aktuellen Entwicklungen geben die Forschenden vom 5. bis 8. September 2023 auf der IAA MOBILITY in München am Fraunhofer-Gemeinschaftsstand in Halle B1, Stand D11.

© Fraunhofer IDMT/Anika Bödecker
Hören wir Menschen zuverlässig, aus welcher Richtung sich ein Einsatzfahrzeug nähert? The Hearing Car des Fraunhofer IDMT erkennt mit Hilfe der akustischen Außenwahrnehmung am Fahrzeug die Richtung, aus der die Sirene kommt.
© Fraunhofer IDMT/Leona Hofmann
Mit mobiler EEG-Messung erfassen die Forschenden Aufmerksamkeitsverände-rungen, wo sie entstehen: Bei Veränderungen neuronaler Aktivitäten. Die EEG-Daten können dabei nicht nur im Labor erfasst werden, sondern auch in realen Fahrsituationen.
© Fraunhofer IDMT/Leona Hofmann
Der virtuelle Assistent YourSound des Fraunhofer IDMT in Oldenburg ermöglicht eine schnelle Einstellung der persönlichen Klangvorlieben – für individuelle Hörerlebnisse im Fahrzeug.

Moderne Fahrzeuge sind gegen Außengeräusche isoliert, um den Anforderungen der Endkundinnen und Endkunden an den Fahrkomfort, insbesondere bei höheren Geschwindigkeiten, gerecht zu werden. Sicherheitsrelevante Geräusche erreichen die Ohren der Fahrenden dadurch oft nicht oder erst spät. Dabei liefern Außengeräusche am Fahrzeug – sei es die Sirene eines Krankenwagens, eine nasse Fahrbahn oder die Schraube im Reifen – wichtige Informationen. Gängige Sensorik am Fahrzeug kann diese nur schwer erfassen, deshalb sollen intelligente akustische Sensorsysteme des Fraunhofer IDMT am Oldenburger Institutsteil Hör-, Sprach und Audiotechnologie HSA dem Auto einen Hörsinn geben. Im Zusammenspiel mit anderen Fahrassistenzsystemen liefert die smarte Akustik relevante Informationen für notwendige Fahrmanöver oder die (vorausschauende) Wartungen.

»Im Auftrag von Automobilherstellern und Zulieferern entwickeln und erproben wir neue Sensor-Technologien und Algorithmen zur akustischen Umfelderfassung, Quellenlokalisation, Signalverbesserung und zur Sprachinteraktion auf der Teststrecke und der Straße«, erklärt Moritz Brandes, Projektleiter von The Hearing Car am Fraunhofer IDMT in Oldenburg. Für die Forschung und Entwicklung nutzen die Expertinnen und Experten eigene Werkstätten für den Aufbau von Versuchsträgern sowie ein eigenes Testfahrzeug für die Erprobung von Bauteilen und Algorithmen. Mitarbeitende des Institutsteils Hör-, Sprach und Audiotechnologie HSA sind durch Lehrgänge für Erprobungsfahrten international qualifiziert und im Kundenauftrag in verschiedenen Klimazonen unterwegs.

Szenario »akustischer Abbiege-Assistent«: In den toten Winkel horchen

Um den Verkehr überwachen zu können, nutzen LKW und Autos mittlerweile Kameras statt Spiegel, auch für den sogenannten toten Winkel, der während des Abbiegevorgangs entsteht. In Ergänzung zu den Kamerasystemen kann eine akustische Szenenanalyse oder die Detektion von wichtigen Umgebungsgeräuschen in aktuellen und für autonom agierende Fahrzeuge eine wichtige Sinneserweiterung darstellen. Am Institutsteil HSA des Fraunhofer IDMT wird konkret an Algorithmen zur Detektion und Ortung von verkehrsrelevanten Geräuschen geforscht, um das Fahrzeug der Zukunft sicherer in den Verkehrsfluss integrieren zu können. Mikrofone in Spiegeln und Kameraarmen der LKW bieten beispielsweise eine Chance, bei Abbiegeszenarien die Wahrnehmung des Fahrers für akustische Informationen zu erweitern und können so helfen, Unfälle zu vermeiden.

Szenario »akustische Rückfahrkamera«: Nach hinten hören

Beim rückwärtigen Einparken, dem Ankoppeln von Anhängern oder anderweitigem Rangieren mit dem Fahrzeug können akustische Signale eine große Hilfe sein und die Sicherheit für Autofahrerinnen und Autofahrer sowie von Passantinnen und Passanten erhöhen. Am Fahrzeug angebrachte Mikrofone und intelligente Software ermöglichen die Interaktion mit Außenstehenden, ohne die Fenster öffnen zu müssen. Am Fraunhofer IDMT in Oldenburg wird an der ortsgetreuen Aufzeichnung und Wiedergabe der Umgebungsgeräusche sowie der dazugehörigen Mikrofonhardware geforscht. Die Funktion steigert die Aufmerksamkeit des Fahrers bei diversen Fahrmanövern und kann, so erhoffen sich die Entwicklerinnen und Entwickler, aktiv vor Unfällen schützen.

Mobile Systeme zur Elektroenzephalographie (EEG) für optimale Mensch-Maschine-Interaktion

Der Fahrer oder die Fahrerin muss dem Straßenverkehr jederzeit aufmerksam folgen, um in Gefahrensituationen rechtzeitig zu reagieren. Aber wie verändern sich die Aufmerksamkeit und die Reaktionsbereitschaft, wenn das Fahrzeug autonom unterwegs ist? Auch diese Frage stellen sich Forschende des Fraunhofer IDMT-HSA und untersuchen unter anderem mit Hilfe eines selbst entwickelten mobilen EEG-Sensorsystems die Veränderungen des sogenannten Vigilanzzustands. Ein EEG zeichnet über Elektroden am Kopf Gehirnaktivität auf. Die Vigilanz, zu Deutsch »Wachsamkeit«, bezeichnet einen Zustand andauernder Aufmerksamkeit bei eintönigen Tätigkeiten. Wie die Daten in der Praxis erfasst werden können, wird am Messestand erfahrbar gemacht.

YourSound personalisiert Klangerlebnisse

Der Institutsteil Hör-, Sprach- und Audiotechnologie HSA präsentiert auf der IAA Mobility 2023 darüber hinaus spannende Entwicklungen für den Fahrzeug-Innenraum, die am Messestand erlebt und gehört werden können. Mit dem YourSound-Verfahren lässt sich der Klang von Audio-Devices wie Kopfhörern, Smart Speakern oder Multimedia-Systemen in Fahrzeugen schnell und intuitiv personalisieren und ermöglicht individuelle Klangerlebnisse im Auto. Die einmalige Klangpersonalisierung mit Hilfe des in ein Infotainmentsystem integrierbaren YourSound-Verfahrens dient als Grundlage für alle zukünftigen Audiowiedergaben im Fahrzeug. Einmal eingestellt erleben Nutzerinnen und Nutzer ein individuell besseres Hörerlebnis, egal bei welcher Wiedergabelautstärke und Fahrsituation.

Auf der IAA MOBILITY 2023 in München stellen die Forschenden des Fraunhofer IDMT aus Oldenburg vom 5. bis 8. September ihre aktuellen Entwicklungen für smarte akustische Sensorik am und im Fahrzeug in Halle B1 am Stand D11 vor.

Dieser Artikel ist in der Ausgabe 09-2023 der Fraunhofer Forschung Kompakt erschienen. 

 

Hör-, Sprach- und Audiotechnologie HSA am Fraunhofer-Institut für Digitale Medientechnologie IDMT in Oldenburg

Der im Jahre 2008 als Projektgruppe gegründete Institutsteil Hör-, Sprach- und Audiotechnologie HSA des Fraunhofer-Instituts für Digitale Medientechnologie IDMT steht für marktnahe Forschung und Entwicklung mit Schwerpunkten auf

  • Sprach- und Ereigniserkennung
  • Klangqualität und Sprachverständlichkeit sowie
  • Mobile Neurotechnologie und Systeme für eine vernetzte Gesundheitsversorgung.

Mit eigener Kompetenz in der Entwicklung von Hard- und Softwaresystemen für Audiosystemtechnologie und Signalverbesserung setzen die Mitarbeitenden am Standort Oldenburg wissenschaftliche Erkenntnisse in kundengerechte, praxisnahe Lösungen um. Über wissenschaftliche Kooperationen ist der Institutsteil eng mit der Carl von Ossietzky Universität, der Jade Hochschule, der Hochschule Emden/Leer und weiteren Einrichtungen der Oldenburger Hörforschung verbunden. Das Fraunhofer IDMT ist Partner im Exzellenzcluster »Hearing4All«.

Die Weiterentwicklung des Institutsteils Hör-, Sprach- und Audiotechnologie HSA des Fraunhofer-Instituts für Digitale Medientechnologie IDMT in Oldenburg wird gefördert im niedersächsischen Programm »Vorab« durch das Niedersächsische Ministerium für Wissenschaft und Kultur und die VolkswagenStiftung.

Letzte Änderung: