Pin It

Das Automobil der Zukunft kann hören, z. B. die Klingel eines Radfahrers
oder spielende Kinder. Daher arbeitet das Fraunhofer-Instituts für
Digitale Medientechnologie IDMT in Oldenburg an The Hearing Car und
entwickeln KI-gestützte Systemlösungen für die akustische Szenenerfassung
im Umfeld von Fahrzeugen. Ein mobiles System zur Elektroenzephalographie
(EEG) im Fahrzeug für die Optimierung der Mensch-Maschine-Interaktion
sowie das »YourSound«-Verfahren für personalisierte Klangerlebnisse
vervollständigen die Anlage. Einen Einblick in die aktuellen Entwicklungen
geben die Forschenden vom 5. bis 8. September 2023 auf der IAA MOBILITY in
München (Halle B1, Stand D11).

Moderne Fahrzeuge sind gegen Außengeräusche isoliert, um den Anforderungen
der Endkundinnen und Endkunden an den Fahrkomfort, insbesondere bei
höheren Geschwindigkeiten, gerecht zu werden. Sicherheitsrelevante
Geräusche erreichen die Ohren der Fahrenden dadurch oft nicht oder erst
spät. Dabei liefern Außengeräusche am Fahrzeug – sei es die Sirene eines
Krankenwagens, eine nasse Fahrbahn oder die Schraube im Reifen – wichtige
Informationen. Gängige Sensorik am Fahrzeug kann diese nur schwer
erfassen, deshalb sollen intelligente akustische Sensorsysteme des
Fraunhofer IDMT am Oldenburger Institutsteil Hör-, Sprach und
Audiotechnologie HSA dem Auto einen Hörsinn geben. Im Zusammenspiel mit
anderen Fahrassistenzsystemen liefert die smarte Akustik relevante
Informationen für notwendige Fahrmanöver oder die (vorausschauenden)
Wartungen.

»Im Auftrag von Automobilherstellern und Zulieferern entwickeln und
erproben wir neue Sensor-Technologien und Algorithmen zur akustischen
Umfelderfassung, Quellenlokalisation, Signalverbesserung und zur
Sprachinteraktion auf der Teststrecke und der Straße«, erklärt Moritz
Brandes, Projektleiter von The Hearing Car am Fraunhofer IDMT in
Oldenburg. Für die Forschung und Entwicklung nutzen die Expertinnen und
Experten eigene Werkstätten für den Aufbau von Versuchsträgern sowie ein
eigenes Testfahrzeug für die Erprobung von Bauteilen und Algorithmen.
Mitarbeitende des Institutsteils Hör-, Sprach und Audiotechnologie HSA
sind durch Lehrgänge für Erprobungsfahrten international qualifiziert und
im Kundenauftrag in verschiedenen Klimazonen unterwegs.

Szenario »akustischer Abbiege-Assistent«: In den toten Winkel horchen

Um den Verkehr überwachen zu können, nutzen LKW und Autos mittlerweile
Kameras statt Spiegel, auch für den sogenannten toten Winkel, der während
des Abbiegevorgangs entsteht. In Ergänzung zu den Kamerasystemen kann eine
akustische Szenenanalyse oder die Detektion von wichtigen
Umgebungsgeräuschen in aktuellen und für autonom agierende Fahrzeuge eine
wichtige Sinneserweiterung darstellen. Am Institutsteil HSA des Fraunhofer
IDMT wird konkret an Algorithmen zur Detektion und Ortung von
verkehrsrelevanten Geräuschen geforscht, um das Fahrzeug der Zukunft
sicherer in den Verkehrsfluss integrieren zu können. Mikrofone in Spiegeln
und Kameraarmen der LKW bieten beispielsweise eine Chance, bei
Abbiegeszenarien die Wahrnehmung des Fahrers für akustische Informationen
zu erweitern und können so helfen, Unfälle zu vermeiden.

Szenario »akustische Rückfahrkamera«: Nach hinten hören

Beim rückwärtigen Einparken, dem Ankoppeln von Anhängern oder
anderweitigem Rangieren mit dem Fahrzeug können akustische Signale eine
große Hilfe sein und die Sicherheit für Autofahrerinnen und Autofahrer
sowie von Passantinnen und Passanten erhöhen. Am Fahrzeug angebrachte
Mikrofone und intelligente Software ermöglichen die Interaktion mit
Außenstehenden, ohne die Fenster öffnen zu müssen. Am Fraunhofer IDMT in
Oldenburg wird an der ortsgetreuen Aufzeichnung und Wiedergabe der
Umgebungsgeräusche sowie der dazugehörigen Mikrofonhardware geforscht. Die
Funktion steigert die Aufmerksamkeit des Fahrers bei diversen Fahrmanövern
und kann, so erhoffen sich die Entwicklerinnen und Entwickler, aktiv vor
Unfällen schützen.

Mobile Systeme zur Elektroenzephalographie (EEG) für optimale Mensch-
Maschine-Interaktion

Der Fahrer oder die Fahrerin muss dem Straßenverkehr jederzeit aufmerksam
folgen, um in Gefahrensituationen rechtzeitig zu reagieren. Aber wie
verändern sich die Aufmerksamkeit und die Reaktionsbereitschaft, wenn das
Fahrzeug autonom unterwegs ist? Auch diese Frage stellen sich Forschende
des Fraunhofer IDMT-HSA und untersuchen unter anderem mit Hilfe eines
selbst entwickelten mobilen EEG-Sensorsystems die Veränderungen des
sogenannten Vigilanzzustands. Ein EEG zeichnet über Elektroden am Kopf
Gehirnaktivität auf. Die Vigilanz, zu Deutsch »Wachsamkeit«, bezeichnet
einen Zustand andauernder Aufmerksamkeit bei eintönigen Tätigkeiten. Wie
die Daten in der Praxis erfasst werden können, wird am Messestand
erfahrbar gemacht.

YourSound personalisiert Klangerlebnisse

Der Institutsteil Hör-, Sprach- und Audiotechnologie HSA präsentiert auf
der IAA Mobility 2023 darüber hinaus spannende Entwicklungen für den
Fahrzeug-Innenraum, die am Messestand erlebt und gehört werden können. Mit
dem YourSound-Verfahren lässt sich der Klang von Audio-Devices wie
Kopfhörern, Smart Speakern oder Multimedia-Systemen in Fahrzeugen schnell
und intuitiv personalisieren und ermöglicht individuelle Klangerlebnisse
im Auto. Die einmalige Klangpersonalisierung mit Hilfe des in ein
Infotainmentsystem integrierbaren YourSound-Verfahrens dient als Grundlage
für alle zukünftigen Audiowiedergaben im Fahrzeug. Einmal eingestellt
erleben Nutzerinnen und Nutzer ein individuell besseres Hörerlebnis, egal
bei welcher Wiedergabelautstärke und Fahrsituation.

Auf der IAA MOBILITY 2023 in München stellen die Forschenden des
Fraunhofer IDMT aus Oldenburg vom 5. bis 8. September ihre aktuellen
Entwicklungen für smarte akustische Sensorik am und im Fahrzeug in Halle
B1 am Stand D11 vor.