Industrie 4.0, Multi-Cloud, Data Fabric – wir greifen nach den Sternen. Doch wenn wir die Bodenhaftung verlieren, bleibt der Traum ein Traum. Eine erfolgreiche, durchgängige Integration kann hier helfen. Wie sieht das aus und was hat eine goldene Schnur damit zu tun?
Die Verschmelzung von OT und IT ist real und das Thema Integration aktueller denn je.
In den vergangenen Jahren sind hier auf Erden wegweisende technologische Entwicklungen erfolgt. Lang ersehnte Ziele wie die Konvergenz von IT und OT sind auf einmal möglich und machen vermeintliche Legacy-Themen wie Integration wieder attraktiv.
Speziell Fertigungsunternehmen können ein Lied davon singen. Seit Jahren schon möchten sie den Bereich der operativen Technologie, der ihre Fertigungsstraßen, Maschinen und Anlagen bestimmt und steuert, nahtlos mit der Unternehmens-IT verbinden, sodass durchgängige Informationsflüsse und Prozessketten entstehen und ein zentrales Management endlich Wirklichkeit wird. Nicht zuletzt seit dieser Wunsch mit den Termini Industrie 4.0 oder Internet der Dinge (IoT) einen Namen bekommen hat, setzen die Unternehmen sich selbst unter Druck, um die in dieser Verbindung schlummernden Produktivitätspotenziale zu heben.
Typische Herausforderungen
Dabei stoßen sie immer wieder auf dieselben Probleme und Herausforderungen:
Um IoT-Daten überhaupt analysieren zu können, müssen sie erst einmal integriert werden, da sie aus vielen verschiedenen Quellen stammen. Dazu zählen unter anderem Datenbanken für Zeitreihen, in denen Sensordaten gespeichert sind, oder Asset-Management- und Stammdatenmanagementsysteme, in denen die zu den Daten gehörenden Kontextinformationen abgelegt sind.
Hinzu kommt, dass IoT-Daten oftmals nicht aufeinander abgestimmt sind. Der eine Sensor misst jede Millisekunde einen Wert, während das bei einem anderen Sensor nur alle 30 Millisekunden der Fall ist. Solche unterschiedlichen Daten müssen für die Analyse erst aufbereitet werden. Das bedeutet einen entsprechenden Aufwand.
Es ist allgemein bekannt, dass IoT-Geräte sehr große Datenmengen erzeugen. Vor diesem Hintergrund ist es einfach nicht effizient, IoT-Rohdaten, die zudem nicht aufeinander abgestimmt sind, zu speichern. Unter dem Gesichtspunkt der Effizienz sollten IoT-Daten dementsprechend in Systemen vorgehalten werden, die für die Speicherung von Zeitreihendaten optimiert sind. Die Menge der Daten in der Welt von Industrie 4.0 und IoT droht in der Tat so sehr anzuwachsen, dass die Unternehmen lernen müssen, mit Daten umzugehen, die nur teilweise oder gar nicht aufbewahrt werden und im laufenden Prozess den relevanten Applikationen und Services zur Ad-hoc-Verarbeitung und -Analyse zur Verfügung gestellt werden.
Doch die schieren Datenmengen führen noch zu einem weiteren Problem – das der Komplexität. Diese Komplexität bringt den traditionellen Ansatz, Daten zu Analysezwecken in einen Data Store zu schreiben, an seine Grenze. Moderne Analyselösungen sollten daher diesen Ansatz nicht mehr voraussetzen.
Probleme mit der Datenqualität wie Ausreißer nach oben oder unten, Abweichungen, fehlende Datenpunkte oder veraltete Daten beeinträchtigen oder verfälschen Analyseergebnisse, sodass sie ihre Aussagekraft verlieren und eher schaden als nützen, wenn sie zur Grundlage von Entscheidungen und Maßnahmen gemacht werden. Ungültige Datensätze sollten sich deshalb erkennen und aussortieren lassen.
Traditionelle BI (Business Intelligence) hat den Nachteil, dass sie erst mit Verzögerung Ergebnisse liefert und deshalb nicht im Tagesgeschäft genutzt werden kann. Die Unternehmen brauchen daher Technologien und Ansätze, mit deren Hilfe Visualisierungen, Analysen oder Warnungen in Echtzeit funktionieren. Dies ist die Voraussetzung dafür, dass Betriebsteams Vorfälle und Probleme unmittelbar erkennen und beheben können.
Die Unternehmen stellen immer wieder fest, dass die Effizienz von Betriebsprozessen nicht nur von der Arbeit des Betriebsteams abhängt. Dabei handelt es sich vielmehr um eine Aufgabe, die alle Mitarbeiter betrifft. Daher kommt es darauf an, ihnen die Prozesseffizienz transparent zu machen, zum Beispiel in Form von Echtzeit-Kennzahlen und einem positiven Anreizsystem, das ein effizienzorientiertes Verhalten belohnt.
Alle diese Herausforderungen sind nur dann zu meistern, wenn System-, Applikations-, Abteilungs- und Prozessgrenzen überwunden werden. Dies setzt vor allem eines voraus: Integration. Sie ist die Basis, damit die nahtlose Verbindung von IT und OT überhaupt gelingen kann. Lange Zeit standen diesem Integrationsziel proprietäre Protokolle auf OT-Seite im Wege. Mit der Standardisierung in Richtung IP-Protokolle in den letzten Jahren wurden jedoch die wichtigsten Hürden in Richtung unternehmensweite Digitalisierung aus dem Weg geräumt, die sich durch alle Bereiche einschließlich Produktion hindurchzieht. Gleichzeitig erwächst aus der Möglichkeit einer durchgängigen Integration eine neue Herausforderung: die des erhöhten Integrationsaufwands, den die Unternehmen möglichst effizient bewältigen müssen.
Moderne Applikationen, die für das digitale Unternehmen geschrieben werden, unterscheiden sich deutlich von traditionellen Anwendungen. Sie gleichen eher einer flexiblen und dynamisch änderbaren Kombination von lose gekoppelten Funktionalitäten. Einige davon entwickeln die Unternehmen selbst, andere kaufen sie von Dritten hinzu, ob in der Cloud oder von Partnern und Lieferanten. Auch die Daten stammen oft sowohl aus internen als auch externen Quellen. Um solche Anwendungen effektiv zu betreiben und zu managen, bedarf es einer Art „Goldener Schnur“. Diese muss sich durch das gesamte Unternehmen ziehen. Sie muss nicht nur die Funktionalitäten, sondern auch die intelligenten Geräte am Netzwerkrand, die verschiedenen Datenquellen und alle anderen Elemente der Verarbeitungsschiene einschließlich Middleware nahtlos miteinander verbinden. Erst dadurch entsteht eine kanalübergreifende Anwendererfahrung, die diesen Namen verdient. An dieser Schnur sind Programmierschnittstellen (APIs) wie Perlen aufgefädelt.
So überträgt das vernetzte Auto der Zukunft zum Beispiel Motor- und Fahrerdaten- sowie Navigationsdaten. Der Austausch mit den sie verarbeitenden Anwendungen erfolgt über bidirektionale APIs. Hinzu kommen in diesem Szenario aber flüchtige Informationsflüsse oder Streaming Data, die in Echtzeit ausgewertet werden müssen, um eventuellen Handlungsbedarf anzuzeigen und entsprechende Maßnahmen auszulösen. Für diese Aufgabe müssen Werkzeuge zum Einsatz kommen, die diese Informationsflüsse auswerten können, ohne sie speichern zu müssen. Nur so bleiben die Lösungen hinsichtlich des Ressourcenbedarfs beherrschbar.
Zwar werden historische Daten gezielt für bestimmte Aufgaben gesammelt, um darin Muster zu finden und mit ihnen ein Modell für maschinelles Lernen (ML) zu trainieren. Doch für die Datenauswertung wird man angesichts der weiter oben aufgelisteten Herausforderungen auf eine vollständige Historie verzichten und die Daten in einem bestimmten Zeitfenster, das Tage, Wochen oder Monate umfassen kann, bereitstellen. Auch diese Daten müssen sich den Analyseanwendungen als API oder virtuelle Datenbank zur Verfügung stellen lassen.
gesponsertVertrauen für die digitale Transformation in der Produktion
Ein weiteres Phänomen, das sich in den zurückliegenden Jahren im Integrationsumfeld etabliert und jüngst durch den pandemiebedingten Zuwachs an Telearbeitsplätzen und E-Commerce-Umsätzen noch einmal stark zugelegt hat, sind Microservices-Architekturen, die Daten ebenfalls über REST-APIs (Representational State Transfer Application Programming Interfaces) zur Verfügung stellen. Konzeptionell mit serviceorientierten Architekturen verwandt, kann man mittels Microservices High-Speed-Messaging mit feingranularen Diensten kombinieren. Dadurch ist es möglich, Daten aus Quellen im Backend mit einer hohen Performanz und ohne Skalierungsprobleme auf mobilen Endgeräten auszuliefern.
Ob klassische Applikationen, granulare Funktionsbausteine in Form von Microservices oder schlicht die Daten selbst – die Anzahl der benötigten APIs im digitalen Unternehmen steigt massiv. Damit stellt sich unmittelbar die Frage nach dem Management, das mit der steigenden Quantität und der damit einhergehenden Komplexität effizient und effektiv umzugehen vermag. Denn Daten und Geschäftsfunktionalität mittels Programmierschnittstellen bereitzustellen, bedeutet stets auch ein Risiko – insbesondere des unerlaubten Zugriffs, des unbeabsichtigten Verlustes oder gar des Diebstahls von Informationen. APIs müssen deshalb in der ungleich vernetzteren Welt von heute noch mehr als in der Vergangenheit sauber verwaltet, dokumentiert, versioniert, gesichert und skaliert werden.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.