NoiseProtect – Lärmschutzmaßnahmen in urbanen Lebensräumen hörbar machen

Lärm ist eine der größten Umweltgefahren in den Industrieländern und wirkt sich nachweislich negativ auf die menschliche Gesundheit aus. Um die Lärmbelastung in urbanen Lebensräumen zu reduzieren, werden häufig planungs- und kostenintensive Lärmschutzmaßnahmen eingesetzt. Deren Wirksamkeit wird vor der Umsetzung mit Hilfe numerischer Simulationen analysiert und bewertet. Um den Bürgerinnen und Bürgern die Lärmsituation und die Wirkung einer geplanten Lärmschutzmaßnahme zu veranschaulichen, sind visuelle Darstellungen in Form von Lärmkarten weit verbreitet. Anhand dieser Lärmkarten ist es der breiten Bevölkerung jedoch nicht möglich, die Lärmsituation und die Wirkung einer Lärmschutzmaßnahme zu verstehen, abgesehen von einer groben Einordnung in die Kategorien »laut« und »leise«. Erst die Hörbarmachung (Auralisation) von Simulationen ermöglicht es auch Laien, die höchst individuelle Wirkung von Lärmschutzmaßnahmen realistisch zu erleben.

Im Rahmen des Projekts »NoiseProtect« haben Experten des Fraunhofer IDMT und des Fraunhofer LBF eine auf Methoden des Maschinellen Lernens basierende Webanwendung zur Hörbarmachung von Lärmsituationen realisiert, mit der die Wirkung von Schallschutzmaßnahmen in urbanen Lebensräumen hörbar gemacht werden kann. Anwohnerinnen und Anwohner, Stadtplanerinnen und Stadtplaner sowie Akustik- und Lärmschutzexpertinnen und -experten können sich so einen akustischen Eindruck davon verschaffen, wie sich Verkehrs-, Industrie- oder Baustellenlärm in urbanen Lebensräumen ausbreitet und wie Lärm effektiv reduziert werden kann. Die Technologie bietet damit eine Entscheidungshilfe vor der detaillierten Planung und kostenintensiven Umsetzung von Lärmschutzmaßnahmen.

Satellitenbild mit automatischer Bildsegmentierung
© GeoFly GmbH/Fraunhofer IDMT
Beispielhaftes Luftbild überlagert mit den Ergebnissen der automatischen Bildsegmentierung

Erlebbarer Schallschutz mit KI

Um eine möglichst realitätsnahe Auralisation zu gewährleisten, muss die unmittelbare Umgebung möglichst genau bekannt sein. Dazu werden Satellitenbilder pixelgenau mit Methoden des Maschinellen Lernens segmentiert und verschiedene Objekte in den Bildern klassifiziert. In diesem Projekt wurde die sogenannte U-Net-Architektur, ein auf Deep Learning basierendes neuronales Netz, verwendet und für die automatische Segmentierung von Satellitenbildern trainiert. Dabei wurden acht verschiedene Klassen unterschieden: Straße, Bäume, Feld, Bahngleis, Gebäude, Gras, Gewässer und Schwimmbad. Für das Training wurde der öffentlich verfügbare Datensatz »Eye-In-The-Sky« von DigitalGlobe, Inc. verwendet.  

Realistische Akustiksimulation

Eine umfassende akustische Simulation berücksichtigt alle relevanten Einflüsse der Umgebung auf die Schallausbreitung von der Quelle bis zu den Hörerinnen und Hörern. Dafür werden die visuell segmentierten Klassen in akustische Parameter der Szene überführt und zusätzlich Eigenschaften, wie Position, Geometrie und Material von Objekten sowie  klimatischen Bedingungen aus Daten geografischer Informationsdienste (GIS) abgeleitet. Die Modellierung berücksichtigt die Ausrichtung von Schallquellen und von virtuellen Hörerinnen und Hörern sowie die Wellenausbreitung und Luftabsorption. Die Wirkung der Lärmschutzmaßnahmen wird auf der Grundlage von Schallimmissionsmodellen des Bundesimmissionsschutzgesetzes (BImSchG) simuliert.

Aufgabenbereich Fraunhofer IDMT

  • Visuelle Bildanalyse (Segmentierung und Klassifikation von Satellitenbildern)
  • Modellierung und Simulation der Schallausbreitung
  • Auralisation der Simulationsergebnisse
  • Umsetzung des Demonstrators in einer reaktiven Webanwendung

Beteiligte Partner

  • Fraunhofer IDMT
  • Fraunhofer LBF

Förderer

Fraunhofer-internes Förderprogramm der Fraunhofer-Allianz Big Data und Künstliche Intelligenz in Kooperation mit dem Fraunhofer-Forschungszentrum Maschinelles Lernen zur Entwicklung von KI-Demonstratoren, um künstliche Intelligenz virtuell erlebbar machen

Laufzeit

Juni 2021 – Dezember 2021

Das könnte Sie auch interessieren!

Forschungsthema Akustiksimulation für KI-Validierung und -Training

Training und Validierung von KI-Systemen mit simulierten Daten und Szenarien

Klänge und Geräusche bereits in der virtuellen Produktentwicklung hören