Suchen

Robotertechnik

Intuitive Roboterprogrammierung mit mobilen Endgeräten

Seite: 3/3

Modellierung virtueller Robotermodelle ermöglicht Simulation des Roboterprogramms

Die App auf dem Mobilgerät dient nicht nur zur Programmverwaltung, sondern unterstützt den Programmierer auch bei der Programmevaluation mithilfe der Augmented Reality. Dabei wird das Kamerabild des Handhelds um virtuelle Objekte ergänzt, welche das Roboterprogramm repräsentieren. So lässt sich das Roboterprogramm, das normalerweise nur in textueller Form vorliegt, in realer Umgebung visualisieren. Das Programm ist somit auch für den fachfremden Anwender sofort verständlich.

Die Modellierung virtueller Robotermodelle ermöglicht, wie auch in CAD-gestützten Offline-Programmiersystemen, eine Simulation des Roboterprogramms zum Ermitteln von Taktzeiten und einer Erreichbarkeitskontrolle.

Bildergalerie

Bildergalerie mit 6 Bildern

Bild 4 zeigt die gestenbasierte Definition von Posen, die anschließende Simulation des Programms sowie das Ausführen des Programms auf der Robotersteuerung. Die Simulation des Roboterprogramms in realer Umgebung erfolgt anhand eines virtuellen Roboters, der im Kamerabild über den realen Roboter gelegt wird.

Das Roboterprogramm zum Anfassen und Anpassen

Bezüglich der Interaktion wird der Nutzer bereits während der Durchführung von Gesten anhand der Augmented Reality durch ein visuelles Feedback unterstützt. Aktuelle Informationen zum Roboterprogramm werden simultan zur Interaktion des Nutzers in das Kamerabild des Tablet-PC eingeblendet.

Eine Fingergestenerkennung ermöglicht eine neue Form der Interaktion. Der Anwender wird in die Lage versetzt, die virtuellen Objekte der Augmented Reality zu greifen und mit ihnen räumlich zu interagieren. Das bedeutet: freies Verschieben und Verdrehen in 3D. Bei den Objekten kann es sich sowohl um einzelne Posen, Bahnabschnitte als auch aufgabenorientierte Objekte handeln.

Während der Interaktion wird dem Nutzer wiederum in der Augmented Reality aktuelles Feedback zur Interaktion bereitgestellt. Anschließend an die gestenbasierte Manipulation wird das Programm automatisch angepasst. Bild 5 zeigt eine Interaktion mit virtuellen und realen Werkstücken zur Definition einer Pick-and-place-Aufgabe.

Aktuell ist eine Umsetzung des aufgabenorientierten Programmiermodells für das robotergestützte Bahnschweißen geplant. Bild 6 zeigt eine Prinzipskizze des Programmierens durch Vormachen der Bahnbewegung. Eventuelle Ungenauigkeiten des Motion-Tracking-Systems bei der gestenbasierten Bahndefinition sollen mit Sensorik zur Nahtfindung und -verfolgung ausgeglichen werden.

Automatische Kalibrierung sorgt für schnelle Einsatzbereitschaft

Auf Basis der kameragestützten Sensorik des Motion-Trackings werden automatische Kalibriermethoden für das Motion-Tracking sowie für die Augmented Reality entwickelt. Diese garantieren eine rasche erstmalige Einsatzbereitschaft des Programmiersystems schon innerhalb weniger Minuten.

Hauptkomponente des räumlichen Programmiersystems ist eine App, die auf herkömmlichen Smartphones und Tablet-PC einsetzbar ist. Über eine vereinheitlichte Schnittstelle lassen sich die Roboterprogramme von der App auf die Steuerungen beliebiger Roboterhersteller übertragen [4]. In naher Zukunft werden weitere drahtlose Schnittstellen zum Programmaustausch mit klassischen Simulationstools der digitalen Fabrik bereitgestellt.

Erstveröffentlichung auf www.blechnet.com - Redakteur Rüdiger Kroh

Literatur

[1] Forge, S. und C. Blackman: A helping hand for Europe: the competitive outlook for the EU robotics industry. Marktstudie des Institute for Prospective Technological Studies, European Commission's Joint Research Centre, Luxemburg 2010. [2] Lambrecht, J. und J. Krüger: Spatial programming for industrial robots based on gestures and augmented reality. International conference on intelligent robots and systems, 2012. [3] Lambrecht, J.; Kleinsorge, M. und J. Krüger: Markerless gesture-based motion control and programming of industrial robots. In: IEEE, 16th Conference on emerging technologies factory automation, 2011. [4] Lambrecht, J.; Chemnitz, M.und J. Krüger: Control layer for multi-vendor industrial robot interaction providing integration of supervisory process control and multifunctional control units. In: 2011 IEEE-Conference on technologies for practical robot applications, 2011.

* Dipl.-Ing. Jens Lambrecht ist wissenschaftlicher Mitarbeiter am Fachgebiet Industrielle Automatisierungstechnik des Instituts für Werkzeugmaschinen und Fabrikbetrieb (IWF) an der Technischen Universität Berlin. Prof. Dr.-Ing. Jörg Krüger leitet das Fachgebiet und das Geschäftsfeld Automatisierungstechnik des Fraunhofer-Instituts für Produktionsanlagen und Konstruktionstechnik (IPK) in Berlin.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 42289962)