Fraunhofer IDMT, Pius Hospital und bitvox geben Einblicke in die Forschung an Hearable-Systemen für Mensch-Maschine-Interaktionen im OP der Zukunft

Aktuelles /

Ein eng getakteter Zeitplan, viel Verantwortung, hohe Konzentration bei gleichzeitig intensiver Interaktion und zunehmender Leistungsverdichtung. Dies sind nur einige der Merkmale, die die Arbeit einer Chirurgin oder eines Chirurgen beim Operieren ausmachen. Kommt dann noch ein hoher Geräuschpegel hinzu, kann dies die fehlerfreie Kommunikation gefährden und beim OP-Team zusätzlich Stress auslösen. Das wiederum erhöht das Risiko für Fehler. Um diesen Mechanismus zu durchbrechen, wird im gemeinsamen Projekt METIOR von Fraunhofer-Institut für Digitale Medientechnologie IDMT, Pius-Hospital Oldenburg und dem Bielefelder Softwareentwickler bitvox an Assistenzsystemen geforscht, die das Stresslevel der Operierenden senken sollen. Hierbei handelt es sich um sogenannte Hearable- bzw. Sprachassistenz-Systeme. Sie sollen im OP der Zukunft die Mensch-Maschine-Interaktionen unterstützen und optimieren.

© Pius-Hospital
OP-Labor im Pius-Hospital: Während die Probanden am OP-Simulator verschiedene Eingriffe realitätsnah durchführen, wird um sie herum durch zahlreiche kleine Lautsprecher eine Soundkulisse abgespielt.

Das Hearable für den OP hat die Aufgabe, die Geräusche der Umgebung zu selektieren. Lärm und Störgeräusche sollen damit abgeschirmt werden. Benötigte Informationen, seien es akustische Signale der OP-Geräte oder die Kommunikation mit dem Team, sollen jedoch zum Hörenden klar und deutlich durchdringen. »Der Chirurg oder die Chirurgin trägt einen smarten Knopf im Ohr, der Audio- und Sprachsignale durch Verfahren des maschinellen Lernens sowie durch die Mikrofonierung am und im Ohr optimiert«, erklärt Dr. Jan Rennies-Hochmuth, Leiter der Gruppe Persönliche Hörsysteme am Fraunhofer IDMT in Oldenburg. Dabei kommen verschiedene Technologien des Fraunhofer IDMT zum Einsatz, wie zum Beispiel Algorithmen, die Umgebungsgeräusche im Pegel absenken und helfen die Sprachverständlichkeit zu verbessern. Mit Hilfe von auf neuronalen Netzen basierenden Ansätzen zur Quellentrennung kann der OP-Lärm in die Bestandteile Sprache und Hintergrundgeräusche zerlegt und die Sprache getrennt von Störgeräuschen verarbeitet werden. Das Ziel des dreijährigen Forschungsprojektes METIOR ist es, dass jede im OP beteiligte Person ihr Hearable-Signal auf ihre Präferenzen optimal einstellen kann – nicht nur mit Bezug auf Lautstärkeverhältnisse, sondern auch auf den Klang. 

Demo-Tag im OP-Labor im Pius-Hospital

Am 6. Dezember 2023 hatten OP-Mitarbeitende des Pius Hospitals die Gelegenheit den Stand der Entwicklungen live zu testen. Die METIOR Projektpartner stellten dafür technische Demonstratoren im OP-Labor zur Verfügung und freuten sich über einen anwendungsnahen Austausch sowie Impulse aus der Praxis.

Das OP-Labor wurde durch die Arbeitsgruppe von Prof. Dr. med. Dirk Weyhe der Universitätsklinik für Viszeralchirurgie im Pius-Hospital installiert, um das Hearable-System, welches auch schon im industriellen Umfeld erfolgreich getestet wurde, für die klinische Anwendung zu erforschen. Während die Probanden am OP-Simulator verschiedene Eingriffe realitätsnah durchführen, wird um sie herum durch zahlreiche kleine Lautsprecher eine Soundkulisse abgespielt. »Hier hören sie alle Geräusche, die im Laufe der OP auf sie einwirken können. Das kann das laute Klingeln eines Telefons sein, das Piepen der Monitore, Stimmgewirr auf dem Flur oder ein Gegenstand, der auf den Boden fällt. Besonders bei Komplikationen unter der OP steigen der Geräusch- und damit auch der Stresspegel in der Regel stark an«, erklärt Prof. Dirk Weyhe. »Währenddessen messen wir mit einem mobilen Gerät über Elektroden den Hautleitwiderstand, welcher ein Indikator für Stress ist. Wir betrachten, inwieweit Multitasking und Lärm im OP den Stress messbar erhöhen und welche positiven Auswirkungen die Kommunikationsassistenz per Hearables haben kann. Zum Nutzen der Patientensicherheit sollen die Erkenntnisse dann nutzbar gemacht werden, um die Effizienz der intraoperativen Arbeitsabläufe im OP zu steigern«, erläutert Weyhe den Hintergrund der Hearable-Entwicklung.

Sprachsteuerung mit Hearable

Eine weitere mögliche Entlastung der OP-Mitarbeitenden wird durch die Anwendung von Sprachsteuerung und digitaler Sprachassistenz per Hearable erforscht. »Mit dem in diesem Projekt entwickelten Assistenzsystem können Medizingeräte per Sprachbefehl gesteuert, Patientendaten aus IT-Systemen abgerufen und Informationen zum OP-Verlauf mühelos per Sprache dokumentiert werden. Dies ermöglicht dem OP-Team, sich vollständig auf die medizinischen, operationstechnischen und pflegerischen Aufgaben zu konzentrieren, während es jederzeit über seinen persönlichen Assistenten auf dem Laufenden gehalten wird«, erklärt Dennis Kaupmann, Geschäftsführer des Softwareentwicklers bitvox.

Entlastung der Mitarbeitenden im OP

»Bürokratie und Dokumentation haben im Gesundheitswesen so stark zugenommen, dass wir dringend smarte Lösungen benötigen, die den Behandelnden erlauben, sich fokussiert ihren Hauptaufgaben zu widmen. Aber auch aus hygienischer Sicht ist eine Sprachsteuerung von Geräten während eines chirurgischen Eingriffs sehr wünschenswert«, so Dirk Weyhe, der mit seinem Team bereits seit einigen Jahren an OP-Konzepten für die Zukunft forscht, zum Beispiel im Projekt Smart-OT oder im Bereich der Holomedizin. Digitalisierung und künstliche Intelligenz so zu nutzen, dass sie den Anwenderinnen und Anwendern neue unterstützende Möglichkeiten eröffnet, aber den Menschen nicht überlasten, das habe man bei allen Forschungsprojekten stets besonders im Blick, so der Viszeralchirurg.

 

Das Projekt METIOR - Mensch-Technik-Interaktion für den Operationsraum läuft bis Ende 2024 und wird mit 768.000 Euro vom Bundesministerium für Bildung und Forschung (BMBF) gefördert.

Dieser Beitrag wurde auf Grundlage einer Pressemitteilung des Pius-Hospitals Oldenburg erstellt.

 

Hör-, Sprach- und Audiotechnologie HSA am Fraunhofer-Institut für Digitale Medientechnologie IDMT in Oldenburg

Der im Jahre 2008 unter der Leitung von Prof. Dr. Dr. Birger Kollmeier und Dr. Jens-E. Appell gegründete Institutsteil Hör-, Sprach- und Audiotechnologie HSA des Fraunhofer-Instituts für Digitale Medientechnologie IDMT steht für marktnahe Forschung und Entwicklung mit Schwerpunkten auf

  • Sprach- und Ereigniserkennung
  • Klangqualität und Sprachverständlichkeit sowie
  • Mobile Neurotechnologie und Systeme für eine vernetzte Gesundheitsversorgung.

Mit eigener Kompetenz in der Entwicklung von Hard- und Softwaresystemen für Audiosystemtechnologie und Signalverbesserung setzen die Mitarbeitenden am Standort Oldenburg wissenschaftliche Erkenntnisse in kundengerechte, praxisnahe Lösungen um.

Über wissenschaftliche Kooperationen ist der Institutsteil eng mit der Carl von Ossietzky Universität, der Jade Hochschule, der Hochschule Emden/Leer verbunden. Das Fraunhofer IDMT ist Partner im Exzellenzcluster »Hearing4all«.

Die Weiterentwicklung des Institutsteils wird im Programm »Vorab« durch das Niedersächsische Ministerium für Wissenschaft und Kultur und die VolkswagenStiftung gefördert.

Letzte Änderung: