Framos Das Staplerauge – Forschungsprojekt der TU München: Eine Kamera statt viel Sensorik

Redakteur: Dipl. -Ing. Ines Stotz

Forscher des Lehrstuhl Fördertechnik-Materialfluss-Logistik (fml) entwickeln in einem Industriekonsortium ein System zur Optimierung des Transportprozesses mit Kameras und Beleuchtungssteuerungen von Smartek.

Anbieter zum Thema

(Framos)

Der Lehrstuhl für Fördertechnik Materialfluss Logistik (fml) an der Fakultät für Maschinenwesen der Technischen Universität München beschäftigt sich mit der technischen Entwicklung von Materialfluss-Systemen und deren Steuerung. In diesem Umfeld gibt es unter anderem den Bedarf am Transportmittel, wie zum Beispiel einem Gabelstapler, Informationen über den Transportprozess mittels geeigneter Sensorik zu erkennen.

Aktuelle Entwicklungen basieren hier auf einer Vielzahl von Insellösungen mit hohem Integrationsaufwand. Solche Sensor-Nachrüstungen sind oft wenig wirtschaftlich oder technisch kaum praktikabel. Dies behindert die breite Anwendung entsprechender Sensoren und darauf aufbauender Steuerungskonzepte im Gabelstapler-basierten Materialfluss.

An dieser Stelle setzt das IGF-Forschungsprojekt1 „Das Staplerauge“ an.

Durch die Integration von Videokameras an sehr flexibel einsetzbaren Flurförderzeugen, wie einem Gabelstapler, soll die Effizienz und Sicherheit von Materialflussprozessen entscheidend erhöht werden. Der aktuelle Ansatz zielt hierzu insbesondere auf die Erkennung der Gabelbelegung, der Hubhöhe, der räumlichen Position und des Ladegutes mittels Barcode.

Der Einsatz einer GC2441M-Kamera (5 Megapixel bei 15 Bildern pro Sekunde) mit GigE Vision (Gigabit Ethernet) Schnittstelle am Gabelstapler führt eine Vielzahl von Sensorfunktionen in einer einzigen Sensortechnologie zusammen.

Wenn es einfach wäre…

Das Bildverarbeitungssystem aus Kamera, Optik, Beleuchtung und Software muss sich bei folgenden Erkennungsaufgaben echten Herausforderungen stellen:

  • Gabelbelegung: Hier muss das System erkennen, ob die Stapler-Gabel belegt oder frei ist. Bei dieser Funktion kommt es darauf an, dass die Kamera die Zinken der Staplergabel exakt vom Bildhintergrund separieren kann. Lassen sich die Zinken in ihrer zuvor eingelernten Geometrie komplett detektieren, ist die Gabel im Zustand „nicht belegt“. Da die Zinken stahlgrau sind heben sie sich speziell vor dunklen Hintergründen nur wenig ab. Dies verlangt von der Kamera eine möglichst kontrastreiche Bildaufnahme unter verschiedensten Beleuchtungssituationen.
  • Hubhöhe: Je nach technischem Aufwand stehen hier zwei Szenarien im Fokus: Zunächst soll die Hubhöhe grob geschätzt werden, um beispielsweise zu erkennen, aus welchem Regalfach der Stapler ein Ladegut aufgenommen hat. Im zweiten Schritt soll der Staplerfahrer eine Hubhöhe einstellen können, die mittels eines Kamera-basierten Regelkreises autonom vom Stapler angefahren wird.
  • Position im Raum: Neben der Höhenbestimmung soll das zu entwickelnde System mittels Kamera ebenfalls die Position des Gabelstaplers in einem Lager kontinuierlich verfolgen. Hierbei kommen entweder 2-dimensionale Marker zum Einsatz, anhand derer die Position bestimmt werden kann, oder es gelingt durch hochentwickelte Algorithmen die Orientierung und Bewegung des Gabelstaplers zu erkennen.
  • Ladegutidentifikation: Zur automatischen Verfolgung des Materialflusses soll das Ladegut mittels 1- und 2-dimensionaler Codes identifiziert werden. Hierbei ist die Herausforderung, dass die Kamera in einem sehr breiten Blickfeld die Codes in ausreichender Auflösung und Kontrast aufnehmen kann.

Die beschriebene Applikation von Bildverarbeitungs-Technologien bringt eine Reihe von Herausforderungen mit sich:

Zum einen sind als Einsatzumgebung eines Gabelstaplers dunkle Lagerhallen und ebenso helle Außenbereiche möglich. Um weitgehende Unabhängigkeit vom Umgebungslicht zu erreichen, setzt man im Rahmen des Forschungsprojektes auf vier LED-Beleuchtungen, die mit einer 4-kanaligen IPSC4-r2 Beleuchtungssteuerung von Smartek betrieben werden. Ziel ist es die Anzahl der notwendigen Kameras zu minimieren. Daraus erwachsen besondere Anforderungen an die Optik, da für jede Kamera, je nach Anbringungsort, jeweils möglichst viele Bildverarbeitungsaufgaben für Objekte sehr unterschiedlicher Größe und Entfernung zu lösen sind.

Zudem ist das Gesamtsystem Motorvibrationen und Stößen aus dem Fahrbetrieb des Gabelstaplers ausgesetzt. Da das zu entwickelnde Demonstrations-System einer industrialisierbaren Lösung bereits möglichst nahe kommen soll, wurden die Hardware-Komponenten sorgfältig anhand ihrer technischen Funktion und Qualität, Robustheit, Zuverlässigkeit und Kosteneffizienz ausgewählt.

Was wäre die beste Hardware ohne Software

Auf Basis der komfortablen Smartek Software Development Kits implementieren die Ingenieure an der TU München ein Software-Framework unter Einbindung von etablierten Bildverarbeitungsbiliotheken und speziell entwickelten Erkennungsalgorithmen. Die Kompatibilität der Smartek Kameras zum GigE Vision Standard und die Ethernet-Schnittstelle der Beleuchtungssteuerung garantieren eine schnelle und reibungslose Einbindung dieser kritischen Systemkomponenten in das Software-Framework. So können in Zukunft weitere Sensorfunktionen in derselben Sensortechnologie durch eine Pipe-and-Filter Software-Architektur umgesetzt werden – bei minimalem Integrationsaufwand auf der Hardware-Seite.

1 Das Aif-Vorhaben 17244 N/1 der Forschungsvereinigung Bundesvereinigung Logistik e.V. - BVL, Schlachte 31, 28195 Bremen wurde über die AiF im Rahmen des Programms zur Förderung der industriellen Gemeinschaftsforschung und -entwicklung (IGF) vom Bundesministerium für Wirtschaft und Technologie aufgrund eines Beschlusses des Deutschen Bundestages gefördert.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:33746160)