Digitale Verschmelzung Konvergenz von OT & IT: Warum Integration wieder sexy ist

Von Ulrich Hatzinger & Alessandro Chimera*

Anbieter zum Thema

Industrie 4.0, Multi-Cloud, Data Fabric – wir greifen nach den Sternen. Doch wenn wir die Bodenhaftung verlieren, bleibt der Traum ein Traum. Eine erfolgreiche, durchgängige Integration kann hier helfen. Wie sieht das aus und was hat eine goldene Schnur damit zu tun?

Die Verschmelzung von OT und IT ist real und das Thema Integration aktueller denn je.
Die Verschmelzung von OT und IT ist real und das Thema Integration aktueller denn je.
(Bild: gemeinfrei / Unsplash)

In den vergangenen Jahren sind hier auf Erden wegweisende technologische Entwicklungen erfolgt. Lang ersehnte Ziele wie die Konvergenz von IT und OT sind auf einmal möglich und machen vermeintliche Legacy-Themen wie Integration wieder attraktiv.

Speziell Fertigungsunternehmen können ein Lied davon singen. Seit Jahren schon möchten sie den Bereich der operativen Technologie, der ihre Fertigungsstraßen, Maschinen und Anlagen bestimmt und steuert, nahtlos mit der Unternehmens-IT verbinden, sodass durchgängige Informationsflüsse und Prozessketten entstehen und ein zentrales Management endlich Wirklichkeit wird. Nicht zuletzt seit dieser Wunsch mit den Termini Industrie 4.0 oder Internet der Dinge (IoT) einen Namen bekommen hat, setzen die Unternehmen sich selbst unter Druck, um die in dieser Verbindung schlummernden Produktivitätspotenziale zu heben.

Typische Herausforderungen

Dabei stoßen sie immer wieder auf dieselben Probleme und Herausforderungen:

  • Um IoT-Daten überhaupt analysieren zu können, müssen sie erst einmal integriert werden, da sie aus vielen verschiedenen Quellen stammen. Dazu zählen unter anderem Datenbanken für Zeitreihen, in denen Sensordaten gespeichert sind, oder Asset-Management- und Stammdatenmanagementsysteme, in denen die zu den Daten gehörenden Kontextinformationen abgelegt sind.
  • Hinzu kommt, dass IoT-Daten oftmals nicht aufeinander abgestimmt sind. Der eine Sensor misst jede Millisekunde einen Wert, während das bei einem anderen Sensor nur alle 30 Millisekunden der Fall ist. Solche unterschiedlichen Daten müssen für die Analyse erst aufbereitet werden. Das bedeutet einen entsprechenden Aufwand.
  • Es ist allgemein bekannt, dass IoT-Geräte sehr große Datenmengen erzeugen. Vor diesem Hintergrund ist es einfach nicht effizient, IoT-Rohdaten, die zudem nicht aufeinander abgestimmt sind, zu speichern. Unter dem Gesichtspunkt der Effizienz sollten IoT-Daten dementsprechend in Systemen vorgehalten werden, die für die Speicherung von Zeitreihendaten optimiert sind.
    Die Menge der Daten in der Welt von Industrie 4.0 und IoT droht in der Tat so sehr anzuwachsen, dass die Unternehmen lernen müssen, mit Daten umzugehen, die nur teilweise oder gar nicht aufbewahrt werden und im laufenden Prozess den relevanten Applikationen und Services zur Ad-hoc-Verarbeitung und -Analyse zur Verfügung gestellt werden.
  • Doch die schieren Datenmengen führen noch zu einem weiteren Problem – das der Komplexität. Diese Komplexität bringt den traditionellen Ansatz, Daten zu Analysezwecken in einen Data Store zu schreiben, an seine Grenze. Moderne Analyselösungen sollten daher diesen Ansatz nicht mehr voraussetzen.
  • Probleme mit der Datenqualität wie Ausreißer nach oben oder unten, Abweichungen, fehlende Datenpunkte oder veraltete Daten beeinträchtigen oder verfälschen Analyseergebnisse, sodass sie ihre Aussagekraft verlieren und eher schaden als nützen, wenn sie zur Grundlage von Entscheidungen und Maßnahmen gemacht werden. Ungültige Datensätze sollten sich deshalb erkennen und aussortieren lassen.
  • Traditionelle BI (Business Intelligence) hat den Nachteil, dass sie erst mit Verzögerung Ergebnisse liefert und deshalb nicht im Tagesgeschäft genutzt werden kann. Die Unternehmen brauchen daher Technologien und Ansätze, mit deren Hilfe Visualisierungen, Analysen oder Warnungen in Echtzeit funktionieren. Dies ist die Voraussetzung dafür, dass Betriebsteams Vorfälle und Probleme unmittelbar erkennen und beheben können.
  • Die Unternehmen stellen immer wieder fest, dass die Effizienz von Betriebsprozessen nicht nur von der Arbeit des Betriebsteams abhängt. Dabei handelt es sich vielmehr um eine Aufgabe, die alle Mitarbeiter betrifft. Daher kommt es darauf an, ihnen die Prozesseffizienz transparent zu machen, zum Beispiel in Form von Echtzeit-Kennzahlen und einem positiven Anreizsystem, das ein effizienzorientiertes Verhalten belohnt.
  • Alle diese Herausforderungen sind nur dann zu meistern, wenn System-, Applikations-, Abteilungs- und Prozessgrenzen überwunden werden. Dies setzt vor allem eines voraus: Integration. Sie ist die Basis, damit die nahtlose Verbindung von IT und OT überhaupt gelingen kann. Lange Zeit standen diesem Integrationsziel proprietäre Protokolle auf OT-Seite im Wege. Mit der Standardisierung in Richtung IP-Protokolle in den letzten Jahren wurden jedoch die wichtigsten Hürden in Richtung unternehmensweite Digitalisierung aus dem Weg geräumt, die sich durch alle Bereiche einschließlich Produktion hindurchzieht. Gleichzeitig erwächst aus der Möglichkeit einer durchgängigen Integration eine neue Herausforderung: die des erhöhten Integrationsaufwands, den die Unternehmen möglichst effizient bewältigen müssen.

Mehr Kopplung, mehr Flexibilität, mehr APIs

Moderne Applikationen, die für das digitale Unternehmen geschrieben werden, unterscheiden sich deutlich von traditionellen Anwendungen. Sie gleichen eher einer flexiblen und dynamisch änderbaren Kombination von lose gekoppelten Funktionalitäten. Einige davon entwickeln die Unternehmen selbst, andere kaufen sie von Dritten hinzu, ob in der Cloud oder von Partnern und Lieferanten. Auch die Daten stammen oft sowohl aus internen als auch externen Quellen.
Um solche Anwendungen effektiv zu betreiben und zu managen, bedarf es einer Art „Goldener Schnur“. Diese muss sich durch das gesamte Unternehmen ziehen. Sie muss nicht nur die Funktionalitäten, sondern auch die intelligenten Geräte am Netzwerkrand, die verschiedenen Datenquellen und alle anderen Elemente der Verarbeitungsschiene einschließlich Middleware nahtlos miteinander verbinden. Erst dadurch entsteht eine kanalübergreifende Anwendererfahrung, die diesen Namen verdient. An dieser Schnur sind Programmierschnittstellen (APIs) wie Perlen aufgefädelt.

So überträgt das vernetzte Auto der Zukunft zum Beispiel Motor- und Fahrerdaten- sowie Navigationsdaten. Der Austausch mit den sie verarbeitenden Anwendungen erfolgt über bidirektionale APIs. Hinzu kommen in diesem Szenario aber flüchtige Informationsflüsse oder Streaming Data, die in Echtzeit ausgewertet werden müssen, um eventuellen Handlungsbedarf anzuzeigen und entsprechende Maßnahmen auszulösen. Für diese Aufgabe müssen Werkzeuge zum Einsatz kommen, die diese Informationsflüsse auswerten können, ohne sie speichern zu müssen. Nur so bleiben die Lösungen hinsichtlich des Ressourcenbedarfs beherrschbar.

Zwar werden historische Daten gezielt für bestimmte Aufgaben gesammelt, um darin Muster zu finden und mit ihnen ein Modell für maschinelles Lernen (ML) zu trainieren. Doch für die Datenauswertung wird man angesichts der weiter oben aufgelisteten Herausforderungen auf eine vollständige Historie verzichten und die Daten in einem bestimmten Zeitfenster, das Tage, Wochen oder Monate umfassen kann, bereitstellen. Auch diese Daten müssen sich den Analyseanwendungen als API oder virtuelle Datenbank zur Verfügung stellen lassen.

Ein weiteres Phänomen, das sich in den zurückliegenden Jahren im Integrationsumfeld etabliert und jüngst durch den pandemiebedingten Zuwachs an Telearbeitsplätzen und E-Commerce-Umsätzen noch einmal stark zugelegt hat, sind Microservices-Architekturen, die Daten ebenfalls über REST-APIs (Representational State Transfer Application Programming Interfaces) zur Verfügung stellen. Konzeptionell mit serviceorientierten Architekturen verwandt, kann man mittels Microservices High-Speed-Messaging mit feingranularen Diensten kombinieren. Dadurch ist es möglich, Daten aus Quellen im Backend mit einer hohen Performanz und ohne Skalierungsprobleme auf mobilen Endgeräten auszuliefern.

Ob klassische Applikationen, granulare Funktionsbausteine in Form von Microservices oder schlicht die Daten selbst – die Anzahl der benötigten APIs im digitalen Unternehmen steigt massiv. Damit stellt sich unmittelbar die Frage nach dem Management, das mit der steigenden Quantität und der damit einhergehenden Komplexität effizient und effektiv umzugehen vermag. Denn Daten und Geschäftsfunktionalität mittels Programmierschnittstellen bereitzustellen, bedeutet stets auch ein Risiko – insbesondere des unerlaubten Zugriffs, des unbeabsichtigten Verlustes oder gar des Diebstahls von Informationen. APIs müssen deshalb in der ungleich vernetzteren Welt von heute noch mehr als in der Vergangenheit sauber verwaltet, dokumentiert, versioniert, gesichert und skaliert werden.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:47612274)