IPC Industrial Edge Analytics: Echtzeit Einsicht in der Anlage
Das Ziel der gesamtheitlichen Verbesserung von Verfügbarkeit, Leistung und Qualität in der industriellen Produktion ist nicht neu. Neu allerdings ist der datenbasierte Ansatz mittels maschineller Lern-Algorithmen. Um hierbei Sicherheitsrisiken zu minimalisieren, lassen sich auch „edge“-Lösungen einsetzen.
Anbieter zum Thema

Das durch Daten in Kombination mit dem Mooreschen Gesetz ermöglichte maschinelle Lernen treibt revolutionäre Änderungen in unserer Gesellschaft voran. Es beschäftigt sich mit der vorausschauenden Analyse und ermöglicht die Vorhersage bestimmter Situationen und somit die Optimierung betrieblicher Abläufe durch Vermeidung ungewollter Situationen. Alle Cloud- und IoT-Plattform-Anbieter haben mittlerweile eigene Datenanalyse-Lösungen in ihrem Programm aufgenommen.
Viele Entscheidungsträger haben aber ein mulmiges Gefühl bei der Idee, ihre Produktionsdaten nach draußen in die Cloud zu geben. Alternativ lässt sich mit Hilfe einer „edge“-Lösung, also in der Anlage bzw. an der Maschine, an der die Daten anfallen, auf einem Standard-IPC das Sicherheitsrisiko minimalisieren und die Gesamtanlageneffektivität – ein Produkt der drei Faktoren Verfügbarkeit, Leistung und Qualität – mittels industrieller Datenanalyse vor Ort optimieren.
Daten entwickeln sich zur wichtigsten Währung des 21. Jahrhunderts
Daten sind das Öl des 21. Jahrhunderts. Zusätzlich zu Boden, Kapital und Arbeitskraft werden Daten zunehmend zum Produktionsfaktor. Sie ermöglichen Kosteneinsparungen und neue Geschäftsmodelle. Die zunehmende Herrschaft der Daten und die daraus resultierende Änderung der Reihenfolge von „Algorithmen -> Daten -> Entscheidungen” zu „Daten -> Algorithmen -> Entscheidungen“ ist die Basis der gerade stattfindenden Revolution.
Seit dem ersten programmierbaren Chip – dem Intel 4004, der 1971 auf den Markt kam – gehen Unternehmen bei der Entwicklung ihrer Software nach dem gleichen Schema vor: sie definieren das Problem, bestimmen die zu erreichenden Ziele und legen die notwendigen Arbeitsschritte fest. Schließlich schreiben sie die Anwendung als eine Reihenfolge von Algorithmen. In der Praxis werden den Algorithmen Daten gefüttert und Anwender treffen auf deren Basis Entscheidungen.
Diese Vorgehensweise ändert sich momentan strukturell: im ersten Schritt werden die Daten gesammelt und im zweiten Schritt mittels allgemeingültiger Algorithmen analysiert. Auf Basis der daraus resultierenden Kausalitäten, trifft heute ein Mensch Entscheidungen zur Produktionsoptimierung; morgen übernehmen dies Algorithmen.
Maschinelles Lernen gibt Computern die Fähigkeit zu lernen
Ohne Algorithmen des maschinellen Lernens würden schon heute wichtige Teile unserer Geschäftswelt oder Konsumentenwelt stillstehen. Algorithmen entscheiden innerhalb von Millisekunden, ob ein Kunde am Automaten Geld ausbezahlt bekommt. Sie erkennen die Gesichter unserer Freunde in den sozialen Medien oder lassen uns dem Smartphone Aufgaben stellen und werden demnächst für das autonome Fahren zuständig sein. Dieselben Algorithmen sagen uns, wie und wo wir unsere Produktion optimieren können, solange wir sie mit den dafür relevanten Daten füttern. Bei der Produktionsoptimierung geht es darum, auf Basis von Daten einer normal funktionierenden Maschine oder Anlage zu erkennen, was bisher nicht eingetroffen ist, nämlich ein Störungsfall.
Bereits 1959 definierte der US-amerikanische Informatiker und Computerpionier Arthur Samuel „machine learning” als ein Studiengebiet, welches „Computern die Fähigkeit gibt, zu lernen ohne dazu vorher explizit programmiert zu sein“. Anders als bei klassischen Applikationen nimmt das maschinelle Lernen seine Lösung nicht direkt aus dem von Menschen geschriebenen Software-Code. Das Wesen des maschinellen Lernens ist, dass ein Muster existiert, welches wir nicht mathematisch festhalten können aber welches durch Algorithmen auf Basis von Daten gefunden werden kann. Dabei kann man die Algorithmen mit Lösungskategorien füttern und den Algorithmus beauftragen zu entscheiden, welche Kategorie zukünftige Daten repräsentieren sollen („supervised learning“). Alternativ überlässt man es dem Algorithmus, selbst Muster oder Cluster zu finden, die dem Mensch bis dato nicht bekannt waren („unsupervised learning“).
Datenbasierte Produktionsoptimierung vor Ort statt in der Cloud
Die Menge, Geschwindigkeit und Vielfältigkeit der heute anfallenden Daten übersteigt die Fähigkeiten des Bedienpersonals und verlangt nach neuen, datenbasierten Ansätzen. Vorausschauende Wartung zielt darauf ab, den großen Teil der nicht-altersbedingten Ausfälle zu reduzieren und somit die Anlagenleistung zu erhöhen. Algorithmen des maschinellen Lernens sagen den Ausfall konkreter Anlagenteile voraus. Das ermöglicht eine bedarfsgerechte Wartung spezifischer Teile zu produktionsfreien Zeiten, bevor es zum Ausfall kommt. Bei der klassischen Reihenfolge „Algorithmen -> Daten -> Entscheidungen” kann die Gesamtanlageneffektivität (GAE) nicht besser sein als der Mensch, der sie programmiert hat. Algorithmen des maschinellen Lernens, angewendet auf große Mengen Produktionsdaten, können dagegen Kausalitäten finden, welche die GAE verbessern und dem Anlagenbetreiber bis dato verborgen waren.
Hannover Messe: Halle 9, Stand A11 & D68
* Peter Seeberg, Business Development Manager Industrial Data Intelligence, Softing
(ID:45161766)