Fertigungsindustrie

Fehlerprogrosen und Machine Learning.

Bevor in der Produktion entschieden wird, ob Maschinenteile vorsorglich oder erst nach einem Schaden ausgetauscht werden, bedarf es sorgfältiger Fehlerprognosen mittels Machine Learning. Eine datengetriebene Modellierung hilft dabei. 

* Von  Von Dr. Olaf Nimz, Trivadis

Die Ursachen von Fehlern können oft trotz intensiver Überwachung nicht eindeutig erkannt werden. Das Problem: Treten die Fehler selten auf, lassen sie sich auch nicht über wiederkehrende Muster aufdecken. Ermittelt man jedoch, in welchem Umfang und wie häufig die Messwerte vom typischen Betriebszustand abweichen, lassen sich Indikatoren entwickeln, mit denen mögliche Ausfälle verhältnismäßig gut vorherzusehen sind. Wartung und Instandhaltung lassen sich dann besser planen, längere Stillstandszeiten vermeiden. 

Ein erfolgversprechender datengetriebener Ansatz der Fehleranalyse beruht darauf, die gesamten Messdaten für einen repräsentativen Zeitraum zu modellieren, ohne dabei auf das detaillierte Know-how des Konstrukteurs angewiesen zu sein, etwa in Form von zeitabhängigen Differentialgleichungen. Durch die Modellierung wird die Beziehung jedes Sensors zu allen relevanten anderen erlernt und damit vorhersagbar. Zunächst muss der Normalzustand in all seinen typischen Betriebsformen erfasst werden. Dann folgt die Prüfung der Konsistenz zwischen den Sensoren, indem die Abweichung des Ist- vom Soll-Wert gemessen wird.

Skalierung der Sensoren-Konsistenz.
Die Skala, nach der die Abweichung bewertet wird, bezieht sich auf die relative Genauigkeit, mit der das Modell einen Sensorwert auf der Basis der anderen Werte vorhersagen kann. Diese Skalierung wird auch als z-Score bezeichnet und entspricht der Wahrscheinlichkeit, mit der ein neuer Messwert außerhalb des Intervalls (Prediction Interval) liegen darf. Auf diese Weise entsteht ein Panel mit sehr sensiblen Indikatoren (Virtual Sensor), die für jeden Sensor die aktuelle Konsistenz zu den übrigen anzeigen.

Der Austausch von Bauteilen, Reparaturen und Kalibrierungen erzeugt ein Offset, also eine konstante Messabweichung, die von den Indikatoren folgerichtig angezeigt wird. Dem veränderten Normalzustand wird durch Anpassen des Referenzzeitraums und gegebenenfalls auch des Modells Rechnung getragen. Die Informationen aus dem Logbuch über die vorgenommenen Systemänderungen fließen sofort als Vermerk in die Visualisierung ein. Die erzeugten Warnsignale lassen sich aufgrund der Veränderung in der Prozesssteuerung im Anschluss leichter interpretieren und einordnen.

Für Systeme mit stark schwankender Last ist ein nicht-linearer Anteil zu erwarten. Bei Windturbinen zum Beispiel stellen die Geschwindigkeit und die Richtung des Winds zusammen mit der Position der Turbine im Park und dem daraus resultierenden winkelabhängigen Windschatten wesentliche externe Einflussfaktoren dar. Um nicht-lineare Effekte zu kompensieren, wird das Modell linearisiert und so die Komplexität des Trainings erleichtert.

Akzeptanz durch Visualisierung.
Die Modelle zur Konsistenzprüfung jedes einzelnen Sensors können mithilfe einer Wasserfallvisualisierung überprüft werden, welche die relevanten und zeitweise korrelierten Eingabewerte anzeigt. Der individuelle Einfluss der Sensorwerte auf die Vorhersage ist zu jedem Zeitpunkt sichtbar und per Mittelwert oder Median sogar für längere Perioden darstellbar.
Selbst einfache Ansätze, wie die lineare Regression, stehen vor der Herausforderung, die minimale Auswahl der Variablen zu bestimmen. Insbesondere eine stark korrelierte Kennzahl bläht die Präzision der Vorhersage künstlich auf, also genau den Wert, der zur Bewertung der Abweichung benutzt wird. Eine der Modellierung vorausgehende globale Selektion ist ungeeignet, da temporäre lokale Effekte für jeden zu modellierenden Sensor unterschiedlich wichtig sind. Geeignet ist die «Multi-Parameter-Optimierung», bei der schrittweise die nächstbeste Variable hinzugefügt oder entfernt wird.

Bei der Produktivsetzung des Systems stellt nicht die statistische Modellierung oder die Datenvorbereitung, sondern die Berechnung des Business Case den heikelsten Bereich dar. Dank der Programmiersprachen R oder Python aber ist dies wesentlich einfacher geworden. In Infrastrukturen wie etwa Datenbanken, Big Data-Umgebungen oder direkt in Visualisierungstools stehen vielfältige Optionen zur Verfügung, um trainierte Modelle problemlos einzubauen.

 

 

Der Autor:

Dr. Olaf Nimz ist Principal Consultant & Discipline Manager für Data Science beim IT-Dienstleister Trivadis. Mit seinem naturwissenschaftlichen Hintergrund war er viele Jahre in der Biotech- und Pharmaforschung tätig. Seit 2012 unterstützt er Unternehmen bei Data Warehouse- und Advanced Analytics-Projekten.

 

 

Quelle: BUSINESS INTELLIGENCE MAGAZINE, www.bi-magazine.net
© ProfilePublishing Germany GmbH 2019. Alle Rechte vorbehalten.
Vervielfältigung nur mit Genehmigung der ProfilePublishing Germany GmbH

Business Intelligence Magazine: Springe zum Start der Seite