Im Interview mit Hanna Lukashevich

27.11.2019

Wenn man acht Jahre lang vier Mal pro Woche zum Klavierunterricht geht und in Musiktheorie ausgebildet wird, baut sich eine gewisse Bindung zur Musik auf. Das kann Hanna Lukashevich bestätigen. Nach ihrem erfolgreich abgeschlossenen Studium der Physik an der Staatlichen Belarussischen Universität absolvierte die gebürtige Weißrussin ein Praktikum am Fraunhofer IDMT in Ilmenau. Aus einem Praktikum wurde eine Anstellung als wissenschaftliche Mitarbeiterin und heute ist sie Leiterin der Gruppe »Semantic Music Technologies«. Seit 2005 befasst sich die Wissenschaftlerin mit der Detektion von Gesang in Musikaufnahmen anhand ihrer Metaeigenschaften und treibt somit die Wissenschaft auf dem Gebiet der semantischen Musikanalyse auf Grundlage Künstlicher Intelligenz entscheidend voran. Warum sich Musik und industrielle Audiodaten sehr ähnlich sind und wie man Algorithmen zum Vergleich von Musik auch in der Industrie einsetzen kann, erklärt sie im Interview.

Im Interview mit Hanna Lukashevich
© Fraunhofer IDMT
Hanna Lukashevich, Gruppenleiterin »Semantic Music Technologies« am Fraunhofer IDMT

Frau Lukashevich, wo ist der Unterschied zwischen der Analyse von Musikdaten zur Analyse industrieller Audiodaten?

  • Im Gegensatz zu musikalischen Audiodaten, die uns gemastert und final aufbereitet vorliegen, begegnen wir bei der Analyse industrieller Audiodaten einigen Herausforderungen bezüglich der Qualität der Messdaten. Es fließen viele äußere Einflüsse in die Audioaufnahme hinein, die zwar für die Analyse wichtig, für uns jedoch zunächst unbekannt sind. Ein Messobjekt kann sich z. B. durch Temperatureinflüsse verändern, was keinen merklichen Einfluss auf die Funktionalität des Objekts, jedoch aber auf dessen akustische Eigenschaften hat. Dies kann von uns nicht beeinflusst, muss aber bei der Analyse berücksichtigt werden. Der Aufbau von Domänenwissen ist daher unbedingt notwendig, da er dazu beiträgt, den jeweiligen Anwendungsfall zu verstehen und auf veränderte Gegebenheiten flexibel zu reagieren.

Wie viele Daten sind notwendig, um zuverlässige Aussagen über die Qualität von Produkten oder Prozessen treffen zu können?

  • Derzeit sammeln Produktionsbetriebe vielerlei Messdaten, die sie dann zur Überwachung ihrer Produkte und Fertigungsstrecken einsetzen wollen. Es heißt immer »Wir machen jetzt Big Data«, weil man davon ausgeht, je mehr Daten man hat, desto eher kann man zuverlässige Aussagen über Zustand und Qualität des Messobjekts treffen. Oft fehlt Anwendern allerdings das nötige Wissen, wie man gewonnene Daten weiterverarbeitet, um sie sinnvoll zur Qualitätssicherung ein-setzen zu können. Die Menge an Daten ist dabei nicht der entscheidende Faktor für eine zuverlässige Analyse. Moderne Systeme zur Spracherkennung benötigen beispielsweise rund einhundert Stunden Trainingsdaten, jedoch ist dabei die Ab-deckung der Variabilität der Trainingsdaten noch wichtiger als die vorliegende Datenmenge. Sind einige Anwendungsszenarien durch die Trainingsdaten nicht abgedeckt, wird es nicht helfen, für andere Anwendungsszenarien noch mehr Daten zu sammeln. Hier kommt unsere Expertise beim Trendthema Künstliche Intelligenz ins Spiel.

  • »Wir möchten Unternehmen anleiten, ihre Messdaten nutzbringend zu verwerten.«

     

  • Außerdem entwickeln wir zusammen mit KMU intelligente Systeme, die von der Annotation der aufgenommenen Messdaten über deren Analyse bis hin zum angezeigten Analyseergebnis einen Mehrwert in der industriellen Produktion bieten.

Stichwort Anomaliedetektion. Wie funktioniert das auch anhand weniger Daten?

  • Mit unseren Forschungsthemen verfolgen wir zwei An-sätze des Maschinellen Lernens. Zum einen nutzen wir die Methode des überwachten Lernens (Supervised Learning), bei der durch Experten annotierte Daten vorliegen, anhand derer das Modell lernt, Entscheidungen zu treffen. Wenn man ausschließlich annotierte Daten zum Training verwendet und die Trainingsdaten eine hohe Komplexität aufweisen, ist die Annotation sehr aufwändig. Mit modernen Deep-Learning-Verfahren wie dem Transfer Learning gelingt es uns aber von den Vorkenntnissen über die Audiodateien zu profitieren. Hierfür reichen meist wenige Daten aus, deren Eigenschaften jedoch ausreichend annotiert und gekennzeichnet sein müssen. Der Anwendungsfall gibt dabei die Anzahl und Bezeichnung der unterschiedlichen Klassen vor, nach denen klassifiziert werden soll. Bei einem zweiten Machine-Learning-Ansatz liegen keine annotierten Daten vor – die Analyse findet also komplett »unüberwacht« statt. Dem Lernalgorithmus werden Daten zugespielt, aus denen das Modell dann eine bestimmte Klasse lernt. Auf Maschinendaten und den industriellen Einsatz bezogen, trainiert man das Modell mit »in Ordnung«-Daten (iO-Daten). Der Algorithmus gleicht nun die ihm angelernten iO-Daten mit den im Echtzeitbetrieb gemessenen Daten ab und erkennt Abweichungen sofort. Die Detektion von Anomalien kann z. B. zur vorausschauenden Wartung eingesetzt werden, bei der es wichtig ist, schon die kleinste Änderung im Produktionsprozess frühzeitig und zuverlässig zu erfassen.