Akustiksimulation für KI-Validierung und -Training

Training und Validierung von KI-Systemen mit simulierten Daten und Szenarien

Die Forschungskativitäten im Bereich Akustiksimulation für KI-Validierung und Training zielen auf die Entwicklung einer Simulationsumgebung, in der akustische Vorgänge messtechnisch, physikalisch und numerisch abgebildet werden. Diese Umgebung erlaubt die parametrisierbare Erzeugung von Datensätzen für die Entwicklung, das Training und die Validierung akustischer KI-Modelle.

Datenbasierte Modellierung akustischer Vorgänge

Daten sind ein wesentlicher Rohstoff für die technologische Entwicklung intelligenter Algorithmen, digitaler Anwendungen und innovativer Produkte unserer Zeit. Daten helfen nicht nur, unsere (Um-)Welt zu beschreiben, sondern auch Veränderungen oder Herausforderungen vorherzusagen. In nahezu allen Lebens- und Arbeitsbereichen werden daher Daten generiert, erhoben und analysiert.

Insbesondere die Entwicklung, das Training und die Validierung von KI-Modellen sind auf Daten angewiesen. Diese müssen in geeigneter Qualität vorliegen und dabei den Teil der Realität beschreiben, in dem die Modelle später eingesetzt werden. Unter »geeigneter Qualität« ist nicht nur die Kenntnis und Kontrolle von Störeinflüssen zu verstehen, sondern auch die korrekte und detaillierte Beschreibung (Annotation) der betrachteten Vorgänge.

Bei der Modellierung von akustischen Ereignissen oder Umgebungen gibt es verschiedene Aspekte. Eine akustische Beobachtung besteht in der Regel aus einer oder mehreren Einzelschallquellen mit unterschiedlichen akustischen Eigenschaften sowie gewollten oder ungewollten Hintergrundgeräuschen.  Der abgestrahlte Schall wird dann auf seinem Weg zum Empfänger durch Effekte der Schallausbreitung beeinflusst, z. B. Pegelabnahme mit der Entfernung, Beugung an Gegenständen, Brechung an Luftschichten, Absorption, Transmission und Reflexion an Wänden. Ein Schallempfänger wandelt den Schall anschließend in ein analysierbares Signal um. Dies kann z. B. ein Mensch sein, der über das Ohr seine Umgebung wahrnimmt. Andere, technische Empfänger sind elektroakustische Sensoren, z. B. Mikrofone oder Mikrofonarrays, Beschleunigungsaufnehmer, die als Teil einer Sensorik für eine bestimme Anwendung spezifiziert werden.

Je nach Anwendungsfall gilt deshalb für die Entwicklung, das Training und die Validierung von akustischen KI-Modellen: Je detaillierter die genannten Parameter erfasst werden, desto besser gelingt die Nutzung eines akustischen Datensatzes für das Training und die Validierung eines robusten und leistungsfähigen KI-Modells.

Parametrisierbare Erzeugung akustischer Daten

Mit Hilfe von KI-Modellen können komplexe Aufgaben digitalisiert und somit einem breiten Anwenderkreis zugänglich gemacht werden. Im Bereich der Akustik lassen sich so z. B. Produktionslinien überwachen, akustische Ereignisse detektieren und klassifizieren oder akustisch optimierte Produktdesigns realisieren. Die zugrundeliegenden KI-Modelle benötigen jedoch viele Daten über den jeweiligen akustischen Vorgang und müssen auf ihre Robustheit geprüft werden. Beide Anforderungen können durch akustisch simulierte, virtuelle Daten mit einem deutlich geringerem Aufwand als mit realen Messdaten erfüllt werden.

Die Herausforderung besteht darin, die drei genannten akustischen Aspekte Schallquelle, Schallausbreitung und Schallempfänger zu modellieren, zu virtualisieren und parametrisierbar zugänglich zu machen. Die Modelle sollen dabei sowohl auf realen Messdaten als auch auf physikalischen Gesetzmäßigkeiten oder numerischen Simulationen basieren können. Insbesondere die Kombination der Verfahren kann zu einem deutlichen Mehrwert führen, da nicht beschreibbare oder unbekannte Einflüsse, wie z. B. bestimmte Materialparameter durch geeignete Messungen in ein Modell überführt werden können.

Akustische Simulationsumgebung

Die am Fraunhofer IDMT entwickelten Lösungen und Technologien zielen auf ein Framework, das die akustische Simulation von Schallumgebungen und damit die automatisierte Generierung von systematisch aufbereiteten Datensätzen zur Verwendung in KI-Modellen ermöglicht. Je nach Anwendungsfall enthält das Framework geeignete Modelle für Schallquellen, die Schallausbreitung und Schallempfänger sowie die notwendigen Schnittstellen dazwischen. Nutzereingaben zur Parametrisierung der Modelle können über eine grafischer Nutzeroberfläche oder skriptbasiert erfolgen, so dass ein komfortabler Zugang zum Framework gewährleistet ist.

Durch die Integration ausgereifter Mikrofonaufnahme- und Signalverarbeitungstechnologien können auch reale Schallquellen, spezielle raumakustische Eigenschaften oder komplette akustische Umgebungen vermessen und in die Modellierungskette integriert werden. Ebenso besteht die Möglichkeit, digitale oder virtuelle Schallfelder durch mehrkanalige Lautsprechersysteme hörbar zu machen. So gelingt es, real existierende akustische Umgebungen zu erzeugen und z. B. für Wahrnehmungstests oder technische Untersuchungen erleb- und messbar zu machen.

Die einzelnen Komponenten der akustischen Umgebung können also entweder rein virtuell oder auch als digitaler Zwilling realer akustischer Vorgänge existieren.

Akustische Signalverarbeitung

Je nach Anwendung stehen unterschiedliche Methoden für die Erreichung der Entwicklungsziele zur Verfügung:

  • Entwicklung von Mikrofonen und Mikrofonierungsprozessen zur Aufnahme realer akustischer Schallquellen und Umgebungen
  • numerische Simulation akustischer Vorgänge von digitalen Produkten und Szenen (z. B. BEM/FEM)
  • Simulation der Schallausbreitung inkl. raumakustischer Gegebenheiten
  • Entwicklung von Simulationsumgebungen zur nutzergesteuerten Nachbildung akustischer Szenen und Umgebungen
  • parametrisierbare Erzeugung simulierter akustischer Datensätze zur Entwicklung von KI-Modellen
  • Auralisation/Hörbarmachung virtueller akustischer Schallquellen und Umgebungen
  • Erzeugung kontrollierter physikalischer Schallfelder durch Multikanal-Lautsprechersysteme oder Kopfhörer

 

Forschungsprojekt

AuWiS

Audiovisuelle Aufnahme und Wiedergabe von Verkehrslärm für die Simulation von Schallschutzmaßnahmen

 

Forschungsprojekt

AVP³

Akustisch erweiterte Virtualisierung von Produkten und Produktionsprozessen

 

Forschungsprojekt

NoiseProtect

Lärmschutzmaßnahmen in urbanen Lebensräumen hörbar machen

 

Forschungsprojekt

VISTA4F

Virtuelle Straße - Virtuelle Realität in 4F: Funk, Fahrbahn, Fahrzeug und Fahrer

Dienstleistungen

  • Messtechnische, physikalische und numerische Erfassung realer und virtueller akustischer Vorgäng
  • Modellierung akustischer Ereignisse und Umgebungen
  • Erzeugung parametrisierbarer akustischer Datensätze
  • Hörbarmachung von synthetisierten Schallfeldern z. B. mit Hilfe der SpatialSound Wave-Technologie

Produkte

 

SpatialSound Wave für Professional Audio und Entertainment

 

AUVIP

Virtuelle Produkte räumlich hörbar machen

Jahr
Year
Titel/Autor:in
Title/Author
Publikationstyp
Publication Type
2023 Influence of Sensor Design on Bio-Inspired, Adaptive Acoustic Sensing
Khan, Ekram; Lenk, Claudia; Männchen, Andreas; Küller, Jan; Beer, Daniel; Gubbi, Vishal; Tzvetan, Ivanov; Ziegler, Martin
Konferenzbeitrag
Conference Paper
2022 Webbasierte Auralisation von Lärmschutzmaßnahmen und Produktklang
Sladeczek, Christoph; Fiedler, Bernhard
Zeitschriftenaufsatz
Journal Article
2022 Luftreinigungsgeräte - akustische Anforderungen und Optimierungsmöglichkeiten
Beer, Daniel; Fritzsche, Paul; Fiedler, Bernhard; Rohlfing, Jens; Bay, Karlheinz; Troge, Jan; Millitzer, Jonathan; Tamm, Christoph
Konferenzbeitrag
Conference Paper
2022 Web-based Auralization of Noise Protection Measures in Urban Living Spaces
Fiedler, Bernhard; Millitzer, Jonathan; Weigel, Christian; Mees, Valentin; Loos, Alexander; Lorenz, Wolfgang; Sladeczek, Christoph; Bös, Joachim
Konferenzbeitrag
Conference Paper
2021 Simulating MEMS loudspeakers
Fritsch, Tobias; Küller, J.
Vortrag
Presentation
2020 Sound Propagation in Microchannels
Küller, Jan; Zhykhar, Albert; Beer, Daniel
Konferenzbeitrag
Conference Paper
2019 Hörbarmachung von Lärmschutzmaßnahmen
Fiedler, Bernhard; Sladeczek, Christoph
Konferenzbeitrag
Conference Paper
2019 Modeling the perception of system errors in spherical microphone array auralizations
Nowak, J.; Fischer, G.
Zeitschriftenaufsatz
Journal Article
Diese Liste ist ein Auszug aus der Publikationsplattform Fraunhofer-Publica

This list has been generated from the publication platform Fraunhofer-Publica

Ausstattung

 

Ausstattung

Wir verfügen über hochmodern ausgestattete Spezialräume und Labore, um vielfältigste akustische Messungen und Untersuchungen zu ermöglichen. Kontaktieren Sie uns gern!