Weiterentwicklung des Institutsteils Hör-, Sprach- und Audiotechnologie HSA

Aktuelles

 

News / 21.3.2025

Jan Rennies-Hochmuth ist zum Professor an der Universität Oldenburg berufen worden

Professur für Hör-, Sprach- und Neurotechnologie

 

Pressemitteilung / 2.9.2022

Unterstützung für Oldenburger Gesundheitsforschung

Strategievereinbarung zum Ausbau der Fraunhofer-Standorte in Niedersachsen

 

Pressemitteilung / 28.8.2020

Audio- und Neurotechnologien »Made In Oldenburg«

Innovative Forschung und marktgerechte Lösungen im Rahmen der Weiterentwicklung

 

Pressemitteilung / 2.4.2019

Projektgruppe HSA soll Fraunhofer-Institut werden

Unterzeichnung des Memorandum of Understanding

Mehr über uns

Erfahren Sie mehr über den Institutsteil Hör-, Sprach- und Audiotechnologie HSA in Oldenburg.

Logo Niedersächsisches Ministerium für Wissenschaft und Kultur
Logo Volkswagen Stiftung

Gemeinsam mit dem Niedersächsischen Ministerium für Wissenschaft und Kultur (MWK) hat die Fraunhofer-Gesellschaft eine Ausbauplanung entwickelt, um den Institutsteil Hör-, Sprach- und Audiotechnologie HSA in ein eigenständiges Fraunhofer-Institut für Hör-, Sprach- und Neurotechnologie HSN zu überführen. Hierzu unterzeichneten am 2. April 2019 Prof. Reimund Neugebauer, Präsident der Fraunhofer-Gesellschaft, und Björn Thümler, ehemaliger Niedersächsischer Minister für Wissenschaft und Kultur, im Rahmen der Hannover Messe ein Memorandum of Understanding.

Im September 2022 erhielt die Fraunhofer-Einheit HSA Dank einer Strategievereinbarung zum Ausbau der Fraunhofer-Standorte in Niedersachsen ein umfangreiches Finanzpaket. Dieses sichert dem Standort eine verlässliche Ausbauperspektive.

Die Weiterentwicklung des Institutsteils wurde vom 01. November 2019 bis 31. Oktober 2025 im Programm »Vorab« durch das Niedersächsische Ministerium für Wissenschaft und Kultur und die VolkswagenStiftung gefördert.

Aufbauend auf den bisherigen Arbeiten wird der Institutsteil Hör-, Sprach und Audiotechnologie HSA inhaltlich weiterentwickelt. Insbesondere werden die Bereiche »Connected Health«»Neurotechnologie«»The Hearing Car«»HSN4Production«»Voice Enabled Devices« sowie »Persönliche Hörsysteme« zu einem Portfolio mit Alleinstellungsmerkmalen ausgebaut. 

The Hearing Car

The Hearing Car fokussiert sich auf KI-basierte Technologien zur akustischen Ereigniserkennung sowie Methoden und Konzepte zur optimalen Signalaufnahme am Fahrzeug. Viele Ereignisse im Straßenverkehr kündigen sich akustisch an, wie ein herannahendes Einsatzfahrzeug durch seine Sirene. Über akustische Technologien am und im Fahrzeug lassen sich innovative Use Cases im Bereich Nutzerinteraktion, Qualitätssicherung, vorausschauende Wartung, Kommunikation, Biometrie und sensorbasierte Vitaldatenerhebung abbilden. Entwicklungsschwerpunkte bilden dabei Detektions- und Lokalisierungsalgorithmen, Sensorkonzepte für die Umfelderfassung, vorausschauende Wartung am Fahrzeug sowie Algorithmen zur Anomaliedetektion.

 

»The Hearing Car«

Akustische Sensoren bilden einen zentralen Bestandteil insbesondere bei der Entwicklung autonomer Fahrzeuge. Der Hörsinn des Autos sorgt in Kombination mit optischer Sensorik für mehr Sicherheit und Zuverlässigkeit im Straßenverkehr - beispielsweise durch eine intelligente Sirenenerkennung und -lokalisation.

Connected Health

In enger Kooperation mit der Universitätsmedizin Oldenburg sollen vernetzte Gesundheitsanwendungen für den mobilen und häuslichen Einsatz erforscht und in die Praxis gebracht werden. Dabei spielen körper- und ohrnahe Sensoren für die Erfassung von Vital- und Gesundheitsparameter ohne Einsatz einer umfangreichen klinisch-medizinische Infrastruktur ebenso eine zentrale Rolle, wie der Einsatz von Sprachtechnologien für die Sprach- und Sprechdiagnose sowie -Therapie. Beispiele sind die Erkennung von Hilferufen, die Erkennung von Sprech- und Stimmstörungen, das akustische Monitoring und die Analyse von Körpergeräuschen sowie die Erkennung neurologischer Erkrankungen, wie sie auch im Bereich mobiler Neurotechnologien untersucht werden. 

 

Connected Health

Im Projekt Connected Health werden mobile sensorgestützte Gesundheitssysteme entwickelt.

Voice Enabled Devices

Ziel von »Voice Enabled Devices« ist die Schaffung individualisierbarer Systemlösungen im Bereich der Spracherkennung und -steuerung bestehend aus Hardware/Software-Systemen, Algorithmen, Optimierung und Tests. Die Systeme sollen dabei wenig Energie verbrauchen und intelligent agieren – insbesondere in herausfordernden Einsatzszenarien mit lauten Umgebungsgeräuschen oder mehreren Sprechenden. Mit dem gezielten Ausbau der Forschungs- und Entwicklungskapazitäten in Richtung neuer KI-basierter, effizienter und lokal arbeitender Spracherkenner werden attraktive Angebote sowohl für den Consumer-Bereich als auch für industrielle Anwendungen geschaffen. 

 

Spracherkennung für Produkte und Prozesse

Spracherkennungssysteme ermöglichen die blickfreie und berührungslose Bedienung von technischen Systemen. 

Neurotechnologien

Aufbauend auf den ausgezeichneten wissenschaftlichen Vorarbeiten und in Kooperation mit der Carl von Ossietzky Universität Oldenburg arbeitet dieses Arbeitsgebiet an der Entwicklung und Validierung von EEG-basierten, multisensorischen Systemen für Diagnostik und Therapie für zum Beispiel psychische und neurologische Erkrankungen. Wesentliches Ziel ist es dabei, die Einsatzmöglichkeiten insbesondere mobiler EEG-Systeme in verschiedenen gesundheitsrelevanten Szenarien zu erforschen und anwendungsorientierte Lösungen zu schaffen. Als weiterer Themenbereich ist das Aufmerksamkeits-Monitoring und Erkennen von kognitiven Belastungssituationen (Cognitive Load) und deren Einsatz zum Beispiel bei der Analyse von sicherheitskritischen Arbeitsplätzen. 

 

Mobile Neurotechnologien

Die Forschenden arbeitet an diskreten EEG-Systemen zur Analyse von Hirnaktivitäten.

HSN4Production

Die Forschenden widmen sich der Entwicklung neuer Lösungen der Mensch-Technik- und Mensch-Mensch-Kommunikation für mehr Sicherheit und Effizienz in der Produktion. Ein Ziel dieses Geschäftsfeldes ist in enger Kooperation mit der Hochschule Emden/Leer die Etablierung von Hör-, Sprach- und Neurotechnologien als wesentliche Modalitäten bei der Digitalisierung und Automatisierung in der Industrie 4.0.

 

Sprachsteuerung

Effiziente und sichere Zusammenarbeit von Mensch und Maschine durch robuste Sprachsteuerung

Persönliche Hörsysteme

»Persönliche Hörsysteme« umfasst innovative Lösungen in verschiedenen Anwendungsbereichen, die darauf abzielen, das individuelle Hörerlebnis zu optimieren. Dazu gehört die Messung der Höranstrengung, die speziell für Medien und Rundfunk entwickelt wird, um die objektive Bewertung und Verbesserung der Sprachverständlichkeit zu ermöglichen. Darüber hinaus bietet das Fraunhofer IDMT personalisierte Klanglösungen für Automobile an, die eine individuelle Klangumgebung schaffen und das Fahrerlebnis bereichern. Die Expertise erstreckt sich auch auf die Entwicklung persönlicher Hörtechnologien für Hearables. Des Weiteren optimieren die Forschenden den Klang in Consumer Devices durch maßgeschneiderte Klangprofile. 

 

Individuelle Klangqualität und gute Sprachverständlichkeit

Jeder Mensch hört anders gut

Weitere Projekte aus der Weiterentwicklung des Institutsteils HSA

 

Zustandserfassung des Fahrenden in autonomen Fahrzeugen

Erforschung der Aufmerksamkeitsveränderung während monotonen Tätigkeiten

 

Modulares Audio Front End »AFEnext«

Wir schaffen die technologische Grundlage für eine optimale Audioaufnahme und -ausgabe – individuell zugeschnitten auf die unterschiedlichsten Anwendungsszenarien.

 

Automatische Sprechanalyse

Auf Basis des Maschinenlernens sollen Sprech- und Stimmpathologien automatisch bewertet und analysiert werden können.

 

Mobiles EEG-System für Forschung und Industrie

Als Forschungsdemonstrator steht EEGbento für Machbarkeitsstudien und Evaluierungen zur Verfügung.

 

Mobiles Multisensorsystems für das Schlafmonitoring

Schlafstörungen beeinträchtigen langfristig die Gesundheit. Deshalb arbeiten wir an einem ohrnahen Multisensorsystem, um Schlafverhalten bequem zuhause aufzeichnen zu können.

 

Automatisiertes Screening

Mit dem »Oldenburger Sprech- und Stimmtest« wollen wir einen neuen Standard für die automatisierte Feststellung von Sprech- und Stimmstörungen setzen.

 

Kontaktloses Gesundheitsmonitoring

Die Gruppe »Mobile Neurotechnologien« arbeitet am Vitaldatenmonitoring: Kontaktlos, hygienisch und leicht einzurichten.

 

Forschungsplattform für ohrnahe Sensorik

Eine Plattform - viele Anwendungsmöglichkeiten. Die SensOhr®-Plattform ermöglicht in verschiedenen Einsatzszenarien die ohrnahe Erfassung von Biosignalen.

 

PhantomHead

Forschende entwickeln einen künstlichen Kopf zur EEG-Datenerfassung, um die Reproduzierbarkeit der aufgezeichneten Daten herzustellen.