Wenn das Sprechen schwerfällt

Aktuelles /

Die Folgen eines Schlaganfalls können vielfältig sein. Sind Patientinnen und Patienten im Nachhinein von Sprachstörungen betroffen, dann kann es sich um Aphasie handeln – eine neuropsychologische Folge des Schlaganfalls. Betroffenen kann hier mit einer gezielten logopädischen Versorgung geholfen werden. Unter anderem darauf konzentriert sich das jetzt gestartete Projekt mit hybrider und interaktiver Sprach- und Sprechtherapie namens »HiSSS«. Unter der Leitung der SpeechCare GmbH erarbeiten das Fraunhofer IDMT mit der HAWK Hochschule für angewandte Wissenschaft und Kunst sowie der Bitnamic GmbH neue Lösungsansätze.

© SpeechCare GmbH
Von einem Schlaganfall betroffene Personen erhalten während des logopädischen Trainings direktes Feedback und können sich stetig verbessern.

Nach einem Schlaganfall leiden laut der Deutschen Gesellschaft für Neurologie etwa 35% der Patientinnen und Patienten in der Akutphase und 20% in der chronischen Phase an den neurogen verursachten Sprach- und Sprechstörungen. Diese sogenannten Aphasien und Dysarthrophonien können isoliert oder auch in Kombination auftreten. Mit Hilfe hybrider und interaktiver teletherapeutischer Ansätze wird in »HiSSS« ein softwarebasiertes Lernsystem entwickelt, das in der Präsenztherapie und in der Videotherapie genutzt werden kann. Außerdem können die Nutzerinnen und Nutzer es zum Eigentraining ohne Betreuung verwenden. »Das System ist mobil und flexibel und funktioniert auch ohne permanenten Kontakt zu einer Therapeutin oder einem Therapeuten. Dadurch können Patientinnen und Patienten selbstständig und durch integrierte Elemente der Gamification auf spielerische Art und Weise mehr trainieren, ohne Abbruch der Therapieinhalte oder Einschränkungen in der Qualität«, erklärt Klaus Kugelmann, Geschäftsführer der SpeechCare GmbH.

»Wir freuen uns, dass wir durch unseren hybriden Ansatz die Vorteile von Sprachtechnologien weiter in die therapeutische Anwendung bringen können«, berichtet Laura Tuschen, Leiterin der Gruppe Assistive Sprech- und Sprachanalyse am Institutsteil für Hör-, Sprach und Audiotechnologie HSA des Fraunhofer IDMT. »Dadurch ergeben sich ganz neue Möglichkeiten der Teilhabe und Kommunikation für Betroffene.« Seit Anfang des Jahres wurde in den Heilmittel-Richtlinien der Weg für den Einsatz von videogestützter Therapie erleichtert, wovon sich das Konsortium einen weiteren Schub für die geplanten Technologien verspricht.

Unterstützung beim Wiedererwerb von verbaler Kommunikation mittels Verfahren des maschinellen Lernens

Zusammen mit Kolleginnen und Kollegen der Gruppe »Automatische Spracherkennung« des Fraunhofer IDMT unterstützt die Forschungsgruppe von Frau Tuschen das Projekt bei der Erfassung von Sprach- und Sprechdaten. Dabei werden Verfahren des maschinellen Lernens, der automatischen Spracherkennung und -bewertung sowie der optischen Mimik- und Gesichtsanalyse eingesetzt, um ein direktes und individuelles Feedback beim Training in der App zu ermöglichen und die verschiedenen Symptome nach Schlaganfall in der logopädischen Versorgung digital umzusetzen. Die Zusammenarbeit der unterschiedlichen Forschungsfelder am Fraunhofer IDMT sowie innerhalb des Konsortiums spiegeln die Interdisziplinarität des Vorhabens wider. »HiSSS« wird gefördert durch das Bundesministerium für Bildung und Forschung unter der Trägerschaft des VDI/VDE und läuft noch bis zum Jahr 2025.

Die Gruppe »Assistive Sprech- und Sprachanalyse« um Laura Tuschen wurde im vergangenen Jahr gegründet und fokussiert sich auf die Entwicklung und Verwertung von digitalen Sprachverarbeitungstechnologien. Dazu forschen die Expertinnen und Experten an der automatischen Sprach-, Sprech- und Stimmbewertung mittels maschinellen Lernens und Computerlinguistik. Im Bereich der Gesundheitsforschung arbeitet das Fraunhofer IDMT eng mit der Universität Oldenburg zusammen. Bereits seit ein einigen Jahren forscht der Institutsteil HSA im Bereich »Connected Health«. Dabei steht bei allen Forschungs- und Entwicklungsaktivitäten im Gesundheitsbereich der flexible Einsatz von Gesundheitssystemen ohne klinische Infrastruktur im Vordergrund. 

Weiterführende Informationen auf der Website der Deutschen Gesellschaft für Neurologie.

Hör-, Sprach- und Audiotechnologie HSA am Fraunhofer IDMT in Oldenburg

Der im Jahre 2008 unter der Leitung von Prof. Dr. Dr. Birger Kollmeier und Dr. Jens-E. Appell gegründete Institutsteil Hör-, Sprach- und Audiotechnologie HSA des Fraunhofer-Instituts für Digitale Medientechnologie IDMT steht für marktnahe Forschung und Entwicklung mit Schwerpunkten auf

  • Sprach- und Ereigniserkennung
  • Klangqualität und Sprachverständlichkeit sowie
  • Mobile Neurotechnologie und Systeme für eine vernetzte Gesundheitsversorgung.

Mit eigener Kompetenz in der Entwicklung von Hard- und Softwaresystemen für Audiosystemtechnologie und Signalverbesserung setzen über 100 Mitarbeitende am Standort Oldenburg wissenschaftliche Erkenntnisse in kundengerechte, praxisnahe Lösungen um.

Über wissenschaftliche Kooperationen ist der Institutsteil eng mit der Carl von Ossietzky Universität, der Jade Hochschule und der Hochschule Emden/Leer verbunden. Das Fraunhofer IDMT ist Partner im Exzellenzcluster »Hearing4all«.