Interaktiver Demonstrator zur akustischen Zustandsüberwachung an mehreren Standorten
Das Exponat zeigt, wie ein KI-basiertes akustisches Überwachungssystem Maschinenzustände analysiert, Fehler erkennt und dabei auf standortübergreifendes Lernen setzt. An jedem Standort des Systems sind identische Maschinen im Einsatz, deren Betriebsgeräusche von einer KI analysiert werden. Die vortrainierten Modelle klassifizieren drei verschiedene Zustände.
Da Fehler selten auftreten, ist die Datenmenge für das KI-Training an einem einzelnen Standort begrenzt. Hier setzt verteiltes Lernen (Federated Learning) an: Statt vertrauliche Audiodaten direkt auszutauschen, teilen die KI-Modelle ausschließlich erlerntes Wissen in Form von Modellparametern. So verbessert sich die Fehlererkennung standortübergreifend, ohne Datensicherheitsrisiken einzugehen.
Der Demonstrator zeigt eine innovative Kombination aus intelligenter akustischer Zustandsüberwachung und verteiltem Lernen – in diesem Beispiel speziell zur Klassifizierung von Motorengeräuschen.
Die Zustandsüberwachung mittels Luftschallanalyse und KI ist für vielerlei Anwendungsfälle in der industriellen Produktion denkbar – sei es zur kontinuierlichen Überwachung von Motoren und Getrieben oder auch zur Überwachung einzelner Fertigungsschritte, wie etwa beim Schweißen von Batteriekästen. Dank der optimalen Auswahl akustischer Sensorik und vortrainierter KI-Modelle können Abweichungen und Fehler auch in lauten Industrieumgebungen zuverlässig erkannt werden.
Mit dieser Technologie werden neue Maßstäbe für die effiziente und sichere KI-gestützte Qualitätssicherung in der Produktion gesetzt – an jedem Standort.