Tensor-Koprozessoren KI-Anwendungen in Echtzeit auf Geräteebene ausführen
Anbieter zum Thema
Anwendungen der Künstlichen Intelligenz eignen sich sehr gut für die Mustererkennung. Die Verfügbarkeit spezialisierter Tensor-Koprozessoren und deren Integration in Einplatinen-Computer und Computer on Module (COM) Boards ermöglichen die Ausführung der rechenintensiven KI-Operationen direkt am Ort des Bedarfs.

Künstliche Intelligenz ist kein Schlagwort mehr, keine Domäne für wenige Mathematikspezialisten. Sie nutzt den Strukturen im Gehirn nachempfundene künstliche neuronale Netze für die Informationsverarbeitung mit einem hohen Grad an Abstraktion.
Das verleiht Geräten und Maschinen zwar nicht die Fähigkeit zu denken, diese können jedoch zumindest auf Basis historischer Informationen Analogieschlüsse ziehen. Zudem ermöglichen ihnen, auf höherer Statistik gründende, informationsbasierte Methoden der Erfahrungssammlung wie Machine Learning und Deep Learning zu lernen.
Reaktionsfähigere Maschinen
Diese Lernfähigkeit hat mehrere Vorteile. Zum einen können Geräte und Maschinen auf unerwartete Betriebssituationen reagieren, ohne dass die Software jede Eventualität im Betrieb von vorn herein im Detail abbilden muss. Das ermöglicht die Inbetriebsetzung mit einer Grundprogrammierung und eine Selbstoptimierung während des laufenden Betriebs. In industriellen Anwendungen lassen sich solche Algorithmen nutzen, um beispielsweise Maschinen durch eine vorausschauende Positionierung von Werkzeug oder Werkstück einen Zeitvorteil zu verschaffen.
Zum anderen hält die Nutzung von Machine Learning und Deep Learning den Software-Entwicklungsaufwand überschaubar, weil ein Teil der Feinabstimmung während des Trainings von Betriebssituationen erfolgen kann. Diese müssen keineswegs erst während des Betriebs stattfinden. Vieles davon – speziell abstraktere generelle Funktionalitäten – kann vorab in der Computersimulation trainiert werden, gefahrlos und mit einem Vielfachen der Trainingsrunden, die in der Realität möglich wären.
Anspruchsvolle Informationsverarbeitung
Die Anwendungen der künstlichen Intelligenz reichen von der Spracherkennung über die Personenidentifikation oder dem Erkennen von Gegenständen mit deren Lage, Größe und Merkmalen bis zur Qualitätssicherung. Dabei ist es gut, dass sich künstliche neuronale Netze hervorragend für tiefschürfende Analysen in großen Datenmengen eignen, beispielsweise zur Mustererkennung mit hoher Treffsicherheit in Ton- Bild- und Videodaten. Allerdings stellen diese Methoden sehr hohe Anforderungen an die Rechenleistung. Diese machten in der Vergangenheit ein Auslagern von KI-Anwendungen in Hochleistungssysteme erforderlich. Solche Applikationen werden oft als Software-as-a-Service (SaaS) in der Cloud angeboten.
Aufgrund beschränkter Kommunikationsbandbreiten konnte die Verarbeitung dabei oft nicht in Echtzeit erfolgen. Zudem verursachte sie zuweilen hohe Kosten für die Datenübertragung über öffentliche Telekommunikationsnetzwerke. Darüber hinaus haben viele Anwender angesichts der beträchtlichen Datenmengen Bedenken wegen der Ausfallssicherheit der Datenverbindungen und dem Verlust der Hoheit über ihre Informationen.
Dezentrale Intelligenz
Digitalisierung und Industrie 4.0 bedingen einen Systemwechsel weg von zentralen Strukturen hin zur dezentralen Datenverarbeitung. Das betrifft einerseits die Geräte und Maschinen. Statt die Hardware von Grund auf selbst zu entwickeln, integrieren deren Hersteller heute oft Single Board Computer bzw. Controller oder auf Standards basierende Computer-on-Modules. Deren Produktvielfalt ist groß und solche Produkte sind auch in robusten Ausführungen mit erweitertem Temperaturbereich für den industriellen Einsatz verfügbar. Nicht zuletzt wegen ihrer geringen Kosten und Abmessungen gestattet Embedded Computing das Lösen individueller Steuerungs- oder Datenaufbereitungsaufgaben direkt am Ort des Geschehens.
Die Embedded-Boards als Verarbeitungseinheiten kommunizieren im Internet der Dinge sowohl miteinander als auch mit übergeordneten Diensten, immer häufiger auch mit Cloud-Services. Auch dort selbst findet mittlerweile eine Abkehr von der strikt zentralisierten Verarbeitung statt. Hier stehen den Edge Devices statt einer zentralen Intelligenz dezentrale, oft aufgabenspezifisch arbeitende Edge Server gegenüber.
:quality(80)/p7i.vogel.de/wcms/28/ea/28ea38dc67f903d26d594cb43da9d08b/0113510682.jpeg)
Automatisierung
„Wir werden unsere Plattform auf ein neues Level heben“
Verschiedene Zugänge zur KI
Um von der Übertragungsbandbreite unabhängig zu bleiben, werden besonders zeitkritische Operationen wie die Inferenzrechnungen der künstlichen Intelligenz immer öfter auf der Geräteebene durchgeführt, an der sogenannten Edge am Rand der Anlage.
Zu diesem Zweck bieten die namhaften Halbleiterhersteller bereits leistungsfähige Prozessoren (Central Processing Units; CPU) mit direkt integrierten Funktionen für das dedizierte Abarbeiten von KI-Anwendungen an. Da Inferenzrechnungen gewisse Ähnlichkeiten mit der Bildaufbereitung aufweisen, eignen sich leistungsfähige Grafik-Prozessoren (Graphic Processing Units; GPU) noch besser als klassische CPUs für das Abarbeiten vieler KI-Aufgaben. Einige bekannte Hersteller von Grafik-Boards sind daher auf den Zug aufgesprungen und bieten ihre Hardware samt unterstützender Entwicklertools spezifisch für KI-Anwendungen an.
In jüngster Zeit brachten zahlreiche Halbleiterhersteller spezielle KI-Beschleuniger auf den Markt, sogenannte Tensor Processing Units (TPU) wie dem Tensor-Prozessor Coral von Google. Noch mehr als GPUs entlasten diese die Hauptprozessoren von den besonders rechenintensiven KI-Operationen, die sie teilweise bereits beherrschen, da sie vortrainiert sind. Manche davon, etwa der Hailo-8 AI-Beschleuniger mit 26 TOPS, sind durch integrierte Speicher besonders schnell.
Unabhängigkeit durch lokale KI
Mittlerweile bieten führende Hersteller von Entwicklungsboards, Einplatinen-Computern und Computer-on-Modules Produkte aller Größen- und Leistungsklassen mit integrierter TPU an. Das ermöglicht die Ausführung von KI-Anwendungen in Echtzeit an der Edge oder sogar auf Geräteebene, also direkt am Ort des Geschehens. So können selbst sehr kompakte Maschinen und Geräte recht einfach mit der Fähigkeit zu Machine Learning und Deep Learning ausgestattet werden.
Module und Baugruppen können sich gegenseitig abstimmen
Die Dezentralisierung der künstlichen Intelligenz eröffnet dieser bisher ungeahnte Anwendungsmöglichkeiten. Sie ermöglicht den Entwicklern von Geräten und Maschinen, diese so zu gestalten, dass ihr Funktionsumfang während des Betriebs größer wird. Dieser kann dadurch einen Umfang annehmen, der mittels klassischer Programmierung nicht oder nur mit enormem Programmieraufwand realisierbar wäre.
Sie unterstützt und erleichtert aber auch die Modularisierung größerer Maschinen. Einzelne, teilautonome Module und Baugruppen können die integrierten KI-Fähigkeiten nutzen, um sich gegenseitig abzustimmen. So lässt sich ein Teil der Problematik im Zusammenhang mit dem Zusammenspiel unterschiedlicher Systemteile an diese selbst delegieren. Zusätzlich ermöglicht dies eine funktionale Optimierung der Gesamtmaschine oder -anlage durch wechselseitige Abstimmung der einzelnen Teile.
:quality(80)/p7i.vogel.de/wcms/53/a2/53a25c39f46c2db2160a22e00d8bb83f/0113729455.jpeg)
Condition Monitoring
Sofort ungewöhnliche Vibrationen erkennen
Umdenken erforderlich
Die Berücksichtigung verschiedener Optimierungsziele macht die Aufgabe mehrdimensional. Nicht nur dieses Beispiel zeigt, dass KI keineswegs die Softwareentwickler und Steuerungsprogrammierer überflüssig macht. Sie ermöglicht diesen eine veränderte Herangehensweise an die Problemstellungen und gibt ihnen andere, oft komfortablere Tools an die Hand.
Allerdings will der Umgang mit diesen gelernt und geübt sein. Und sie erfordert eine gedankliche Umstellung von der bisher noch weit verbreiteten, sequenziellen Herangehensweise an Steuerungs-, Regelungs- und Automatisierungsaufgaben.
(ID:49625595)