Modulares Audio Front End »AFEnext«

Natürliche Spracheingabe und optimale Sprachausgabe in Ihren Anwendungen und Produkten

Wir sprechen mit dem Smart Speaker, dem Auto oder dem Saugroboter. Selbst in der Industrie oder Gastronomie spielt Sprachsteuerung und Sprachdokumentation eine zunehmende Rolle. Gleichzeitig geben uns Devices, Maschinen und Anwendungen ein direktes Audiofeedback. Nicht immer sind für diese Sprachkommunikation die optimalen Bedingungen gegeben. Im Videocall ist der Abstand zum Mikrofon im Notebook oder Smartphone groß, das Stimmgewirr im Restaurant macht jedes Gespräch zur Herausforderung und laute Fahrgeräusche sorgen für ein Rauschen in der Sprachaufnahme. Kunden erwarten zudem einen erstklassigen Sound aus dem kleinsten Lautsprecher für die beste Wiedergabe von Sprache und Musik.

Mit »AFEnext« haben wir ein Audio Front End entwickelt, das sich durch intelligente Algorithmen und Verfahren auf unterschiedlichste Anwendungsszenarien einstellt und die optimale Grundlage für Spracheingaben schafft. Dazu gehören auch Technologiemodule, die eine individuell passende Audioausgabe ermöglichen.
 

AI Denoising

»AFEnext« sorgt für die bestmögliche Aufnahme von Sprache durch intelligentes Herausfiltern von ungewollten Störgeräuschen, von weiteren Sprechenden und durch das Entfernen von Nachhall. Dabei wird lediglich die Aufzeichnung eines Mikrofons (anstatt wie gewöhnlich von mehreren) benötigt. Durch Verfahren des maschinellen Lernens bietet »AFEnext« eine besonders zuverlässige Bereinigung des Audiosignals selbst unter herausfordernden Bedingungen.

Speaker Engine für professionellen Sound

Großer Sound aus kleinen Lautsprechern: Die »AFEnext« Speaker Engine sorgt für eine Verbesserung des Klangs von Musik und Sprache. Damit punkten selbst Geräte, bei denen der Fokus nicht auf optimalen Lautsprechern liegt, mit professionellem Sound. Maximale Transparenz für Beethovens Neunte? Oder beste Sprachverständlichkeit für Nachrichtensendungen? Wir bieten Soundtuning von einfachen, umschaltbaren Klangprofilen bis zur vollautomatischen, adaptiven Equalizer-Regelung via Störgeräusch-Referenzmikrofon. Damit bleibt die Durchsage im Einkaufszentrum selbst an einem überfüllten Samstagnachmittag verständlich.

Unsere Speaker Engine hat die Membranauslenkung jederzeit im Griff und lässt Lautsprecher klanglich größer wirken, als sie tatsächlich sind. Gehäuseresonanzen werden dabei wirkungsvoll unterdrückt. RMS-, Peak- und thermisches Limiting sorgen für optimalen Schutz gegen Übersteuerung.

Robuste Standardverfahren

Automatic Gain Control (AGC)

Durch die AGC, im Deutschen auch automatische Verstärkungsregelung genannt, wird sichergestellt, dass das Mikrofonsignal immer in gleicher Lautstärke erfasst wird. Wenn eine Sprecherin oder ein Sprecher weiter weg im Raum steht, ist das Signal, das in die Mikrofone gelangt, deutlich leiser, als wenn die Person direkt vor dem Mikrofon steht. Die AGC gleicht diesen Pegelunterschied automatisch aus, ohne dabei leise Hintergrundgeräusche unerwünscht zu verstärken.
 

Beamforming

Beamforming ist die Technik, Signale aus mehreren Mikrofonen zu einem einzigen zusammenzufassen und dabei eine gewünschte Richtwirkung hin auf eine bestimmte Schallquelle zu erzielen. Durch das Fokussieren auf eine Sprachquelle im Raum werden seitliche Störgeräusche abgeschwächt und die Sprachverständlichkeit erhöht. Was der Mensch intuitiv kann (genau hinhören), ist für die Maschine nicht selbstverständlich.
 

Echo Cancellation

Jeder kennt es vom Telefonieren: Die Person am anderen Ende der Leitung schaltet das Telefon »auf Lautsprecher« – und plötzlich hört man die eigene Stimme als Echo. Das stört den Redefluss gewaltig! Das Sprachsignal, das beim Gegenüber aus dem Lautsprecher kommt, gelangt dort wieder ins Mikrofon. Aber eine gute Echo Cancellation, auch Echokompensation genannt, filtert das Echo heraus, bevor es über die Leitung geschickt wird. Keine einfache Sache, besonders wenn beide Partner gleichzeitig sprechen. Unsere Echo Cancellation beherrscht jedes Szenario und ist frei skalierbar, auch auf beliebig vielen Lautsprechern und Mikrofonkanälen gleichzeitig.
 

Dereverberation

Auch der natürliche Nachhall eines Raumes kann beim Telefonieren stören. Und die Qualität von automatischer Spracherkennung leidet ebenfalls stark darunter. Die sogenannte blinde Nachhallunterdrückung, auch Dereverberation genannt, entfernt störende Raumanteile aus der Sprache und sorgt für ein trockenes, gut verständliches Sprachsignal.
 

Comfort Noise Injection

»Hallo? Bist du noch da?« – auch die Situation kennen viele von Telefonaten. Wenn in Sprechpausen zu viel Störgeräusch herausgefiltert wird, bleibt völlige Stille. Es entsteht der Eindruck, die Leitung sei »tot«. Eine gute Comfort Noise Injection, im Deutschen Komfortrauschen genannt, füllt die Sprechpausen mit einem künstlich erzeugten Rauschen, das dem natürlichem Hintergrundgeräusch in Klangfarbe und Pegel entspricht, damit trotz massiver Störgeräusch-Beseitigung der Eindruck eines transparenten, offenen Kommunikationskanals besteht.

AFEnext mit anderen Lösungen kombinieren

 

Personalisierte Klangqualität

Jeder Mensch hat eine persönliche Klangpräferenz und ein eigenes Lautheitsempfinden. Darum entwickeln wir Verfahren, um die Audiowiedergabe in z.B. Smartphones, Hearables, Unterhaltungselektronik, Notebooks oder Infotainment-Systemen im Auto an individuelle Hörbedürfnisse anzupassen.

 

Sprachverständlichkeit analysieren und optimieren

Wir entwickeln Signalverarbeitungsverfahren, die in verschiedensten Anwendungen für bessere Sprachverständlichkeit und geringere Höranstrengung sorgen.

 

SI-Live

Bessere Kommunikation mit Konferenzsystemen

Ein spezifisches Problem bei Videokonferenzen ist, dass sich die Sprecher oft nicht bewusst sind, dass sie am anderen Ende der Leitung nicht gut verstanden werden. 

AFEnext in unterschiedlichen Anwendungen

 

Hearable für den smarten Industriearbeitsplatz

Wir arbeiten an technologischen Lösungen für Hearables, die in lauten Produktionsumgebungen als Gehörschutz dienen und gleichzeitig die Mitarbeiterkommunikation unterstützen.

Automatisches Sprachmonitoring für Befehle auf der Schiffsbrücke

Ein automatisches Sprachüberwachungssystem für die Schiffsbrücke soll für mehr Sicherheit sorgen. Das Fraunhofer IDMT in Oldenburg entwickelt gemeinsam mit dem Start-Up ELNAV mit Sitz im kroatischen Split ein sogenanntes Helm Order Monitoring.

The Hearing Car®

Akustische Sensoren bilden einen zentralen Bestandteil insbesondere bei der Entwicklung autonomer Fahrzeuge. Der Hörsinn des Autos sorgt in Kombination mit optischer Sensorik für mehr Sicherheit und Zuverlässigkeit im Straßenverkehr.

 

»Hilfe!«

Um in diesen Situationen Menschen in Not Gehör zu verschaffen und geltenden Arbeitsschutzvorgaben zu entsprechen, haben Expertinnen und Experten des Fraunhofer IDMT in Oldenburg laut- und ereignisbasierte Erkenner entwickelt.

Bester Klang auf kleinem Raum

Fraunhofer IDMT entwickelt Audiotechnologie für intelligenten Sprachassistenten der Deutschen Telekom

Spracherkennung in der Gastronomie

Passgenaue Audiosystemtechnik entwickelt das Fraunhofer IDMT in Oldenburg gemäß individueller Anforderungen seiner Kunden – z.B. für das Sprachbestellsystem »Ordivia« der divvoice GmbH.

Mikrofonarrays

Am Fraunhofer IDMT werden Arrays mit einer hohen Anzahl an Mikrofonen für unterschiedlichste Bauformen entwickelt.

 

Intelligente akustische Sensorsysteme für Ihre Produkte und Prozesse

Wir entwickeln leicht integrierbare Sensorsysteme für die Aufnahme und Verarbeitung akustischer Daten in Netzwerken.

 

Audiosystemtechnik

Von der Idee über die Konzeption und den Demonstrator-Bau bis zur akustischen End-Of-Line Kontrolle: Wir entwickeln für Sie Audiosystemlösungen. Ob Hardware-Design, Komponenten- und Algorithmenauswahl oder Software-Umsetzung.

 

Spracherkennung für Produkte und Prozesse

Die Spracherkennungssysteme des Fraunhofer IDMT funktionieren unter anspruchsvollen akustischen Bedingungen - mit und ohne Verbindung zum Internet.

Förderung

Die Weiterentwicklung des Institutsteils Hör-, Sprach- und Audiotechnologie HSA des Fraunhofer-Instituts für Digitale Medientechnologie IDMT in Oldenburg wird gefördert im niedersächsischen Programm »Vorab« durch das Niedersächsische Ministerium für Wissenschaft und Kultur und die VolkswagenStiftung.