20.05.2022

Predictive Maintenance, eine der Kerndisziplinen des Industrial Internet of Things (IIoT), erhält nun Unterstützung durch eine künstliche Intelligenz, die anhand der Geräusche erkennen kann, ob eine Maschine oder ein Gerät gesund ist oder auf eine Reparatur wartet.

Selbst technisch oder mechanisch völlig unbedarfte Menschen können oft hören, dass das eigene Auto oder die Waschmaschine nicht mehr ganz rund läuft. Aber um zu erkennen, dass der Motor eventuell einen Schaden hat, dafür braucht es schon das geübte Ohr von ausgewiesenen Fachleuten.

Die können nämlich anhand der Geräusche, die von den Maschinen oder Geräten ausgehen, oft schon heraushören, wo es eben „nicht rund läuft“ und welche Bauteile eventuell gewartet, repariert oder ausgetauscht werden müssen. Viele Industrieunternehmen verlassen sich auf das geübte Ohr ihrer Techniker:innen oder Mechaniker:innen.

Quelle: Adobe Stock / standret

Aber die sind auch nicht rund um die Uhr an der Maschine. Mittlerweile gibt es aber recht gute und vergleichsweise günstige Aufnahmetechniken, die das übernehmen können.

„Wellchen“ für eine bessere Erkennungsgenauigkeit

Forschenden der ETH Zürich ist es nun gelungen, ein maschinelles Lernverfahren zu entwickeln, das automatisch frühzeitig erkennen kann, ob eine Maschine gewartet oder repariert werden muss, um einem wirklich kostspieligen und langwierigen Defekt oder gar Totalausfall entgegenzuwirken.

Um die von den Mikrofonen gelieferten akustischen Signale analysieren und die benötigten Informationen herausziehen zu können, bedient man sich unter anderem der sogenannte Wavelet-Transformation. Wavelets, von französisch ondelettes, zu Deutsch „Wellchen“ oder kleine Wellen, lassen sich dehnen und stauchen, um verschiedene Frequenzen erfassen zu können. Und sie lassen sich zeitlich verschieben, um Aufschluss zu geben, wann die jeweilige Frequenz auftritt, heißt es in einer Arbeit des Münchener Physikprofessors Josef Maier. Die Wavelet-Transformation bezeichnet eine Familie von linearen Zeit-Frequenz-Transformationen, die anders als die Kurzzeit-Fourier-Transformation (STFT) eine lokale Analyse mit variabler Frequenzauflösung zulässt: bei hohen Frequenzen eine geringe Frequenzauflösung mit schmalem Zeitfenster, bei niedrigen Frequenzen eine hohe Frequenzauflösung mit breitem Fenster.

Die zeitlich verorteten wellenartigen Schwingungen erlauben es zu bestimmen, wieviel von einem Wavelet in einem Signal enthalten ist. Solche Verfahren sind zwar sehr erfolgsversprechend, erfordern aber viel Erfahrung und eine manuelle Einstellung der Parameter, so die Erklärung von Elektronikpraxis.

Hört auch, was Mensch nicht hören kann

Das an der ETH Zürich entwickelte Machine-Learning-Verfahren sei nun in der Lage, die Wavelet-Transformation vollständig selbst zu erlernen und soll sich besonders für hochfrequente Signale wie Schall- und Vibrationssignale eignen, um zu erkennen, ob die betreffende Maschine in einem guten oder schlechten Zustand ist.

Zwei Postdoktoranten und Olga Fink, Professorin für Intelligente Instandhaltungssysteme an der ETH Zürich, haben das Verfahren entwickelt und in den Proceedings of the National Academy of Sciences (PNAS) der USA veröffentlicht. Als Ergebnis von Ansätzen aus der Signalverarbeitung und Machine Learning lassen sich so Rechenregeln oder ein intelligenter Algorithmus aufstellen, um automatisch Klanganalysen von Maschinen durchzuführen. Aufgrund der Ähnlichkeit zur Wavelet-Transformation sollen sich die Ergebnisse des vorgeschlagenen Lernansatzes auch sehr gut interpretieren lassen.

Durch Vibrationserkennung kann die Intelligenz eine defekte Maschine feststellen. Quelle/ Adob Stock / phonlamaiphoto

Ziel der Forschungsarbeit ist es, dass Personal in der Industrie auch ohne spezielle Vorkenntnisse ein Tool an die Hand bekommen, welches die Maschinen und ihre Apparaturen ständig automatisch überwacht und rechtzeitig warnt, wenn abnormale oder „ungesunde“ Geräusche auf einen Defekt hindeuten könnten. Wie es in dem EP-Artikel weiter heißt, ist das maschinelle Lernverfahren nicht nur auf unterschiedliche Maschinentypen anwendbar, sondern auch auf verschiedene Arten von Signalen, Geräuschen und Vibrationen, auf sehr hoch- oder sehr niedrigfrequente Schallsignale etwa, die das menschliche Ohr nicht hören kann. Als Übung haben die Forschenden den ML-Algorithmus auf Vogelstimmen trainiert.

ML-Algorithmus trainiert sich selbst

Aufgrund der Tatsache, dass Defekte relativ selten auftreten und somit nur wenige aussagekräftige Geräusche solcher Maschinen vorhanden sind, haben die Forschenden der ETH Zürich sich darauf konzentriert, dem Algorithmus beizubringen, wie eine gesunde Maschine normalerweise klingt, wenn sie fehlerfrei läuft. Der Algorithmus meldet also nur die Abweichung vom Normalfall. Dazu haben die Wissenschaftler:innen der KI-Vorstufe eine Vielzahl von unterschiedlichen Geräuschdaten von Pumpen, Ventilatoren, Ventilen und Gleitschienen vorgespielt und den Ansatz des „unüberwachten Lernens“ gewählt. Das heißt, statt dem Algorithmus „zu sagen“, was er zu lernen hat, sollte er sich ohne Anleitung selbständig die relevanten Geräuschmuster aneignen, um dann verwandte Geräusche innerhalb eines Maschinentyps zu erkennen und zwischen bestimmten Fehlertypen unterscheiden zu können.

Das Projekt der ETH Zürich ist ein typisches Beispiel für Fortschritte bei der Predictive Maintenance.  Diese ist wie gesagt eine der Kerndisziplinen für das Industrial Internet of Things, aber nicht die einzige. Die Axians-Schwester Actemium ist Spezialist für solche Lösungen und hilft Industriebetrieben, entsprechende Szenarien zu entwickeln, um aus den so gewonnen Daten schöpfen zu können. Und diese fortschrittliche Analyse und Nutzbarmachung von Daten ist wiederum eine der Kernkompetenzen von Axians, weshalb die Unternehmen bei entsprechenden Projekten oft zusammenarbeiten.

Quelle Titelbild: AdobeStock / atitaph

Diesen Beitrag teilen:

Weitere Beiträge

13.02.2025

Augmented Reality besonders bei jungen Deutschen immer beliebter

Redaktion Digital Chiefs

Auch wenn sich der Einsatz noch meist auf Kamerafilter für lustige Einblendungen in Videochats beschränkt, ...

Zum Beitrag
11.02.2025

5 Gründe, weshalb Glasfaser für Deutschlands digitale Zukunft unverzichtbar ist

Henry Frey

Beim Streaming stockt das Video an den wichtigsten Stellen, im Home Office bricht die Verbindung bei ...

Zum Beitrag
05.02.2025

CES: Nivida stellt KI-Kraftpaket in Mini-Form vor

Redaktion Digital Chiefs

Auf der CES 2025 in Las Vegas hat Nvidia unter anderem einen Mini-Computer mit Hochleistungskomponenten ...

Zum Beitrag
04.02.2025

Auch für B2B interessant: Rückblick auf die CES 2025

Redaktion Digital Chiefs

Die Consumer Electronics Show kurz CES in Las Vegas ist dem Namen nach eher eine B2C-Messe. Sie überrascht ...

Zum Beitrag
29.01.2025

Das europäische KI-Modell „Teuken-7B“: Multilingual und Open Source

Redaktion Digital Chiefs

Seit Ende November 2024 steht erstmals ein innerhalb der EU entwickeltes Open-Source-KI-Sprachmodell ...

Zum Beitrag