Suchen

Robotertechnik

Intuitive Roboterprogrammierung mit mobilen Endgeräten

Seite: 2/3

Handheld-Geräte bilden das zentrale Programmiergerät

Dabei entstand ein leistungsstarkes Programmiersystem, das verschiedene Programmierebenen sowie verschiedene Schritte der Programmerstellung (Definition, Evaluation, Manipulation) adressiert (Bild 2). Im Projekt wird neben Gesten zur Definition und Manipulation von Programmen auch Augmented Reality zur mobilen Evaluation des Roboterprogramms eingesetzt.

Handheld-Geräte wie Smartphones oder Tablet-PC bilden das zentrale Programmiergerät. Bild 3 veranschaulicht das grundlegende Interaktionsprinzip mit gestenbasierter Interaktion zur Definition des Roboterprogramms und einer Unterstützung durch die Augmented Reality auf einem Tablet-PC. Diese Form der interaktiven 3D-Roboterprogrammierung wird im Weiteren als räumliche Industrieroboterprogrammierung bezeichnet [2].

Bildergalerie

Bildergalerie mit 6 Bildern

Ein modularer Aufbau des Programmiersystems sichert die flexible Skalierbarkeit. Verschiedene Anwendungsfelder lassen sich somit durch zugeschnittene Lösungen erschließen. Durch die Betrachtung von Low-Cost-Sensorik und durch die Nutzung von vereinheitlichten Schnittstellen wird eine allgemeine KMU-Tauglichkeit sowie die breite Einsetzbarkeit gewährleistet.

3D-Daten der Handposition werden drahtlos in die App übertragen

Die Anwendung von Motion-Tracking ermöglicht die einfache Definition des Programms im Raum über natürliche Bewegungen, beispielsweise durch Zeigen mit der Hand. Im Gegensatz zu Standardprogrammierverfahren wie Teach-in ermöglicht dies die Definition einer Vielzahl von Posen, Trajektorien oder ganzen Aufgaben in kürzester Zeit. Das zeitintensive Bewegen des realen Roboters entfällt.

Die 3D-Daten der Handposition werden drahtlos in die App auf dem Mobilgerät übertragen, dort ausgewertet und zur Programmerstellung weiterverarbeitet. Verschiedene Ansätze der markerlosen Definition von Industrieroboterprogrammen durch Gesten wurden von den Autoren bereits in [3] vorgestellt.

Ergänzend zur Definition einzelner Posen und Bahnen kann der Anwender auf einer höheren Programmierebene ein Programm anhand der Demonstration von ganzen Aufgaben definieren. Dabei werden automatisiert Arbeitsschritte des Menschen aus den Motion-Tracking-Daten erkannt und anschließend in ein Roboterprogramm umgesetzt.

Diese aufgabenorientierte Programmierung erfordert kein spezifisches Fachwissen und ist deshalb für den Anwender besonders einfach durchzuführen. Für die markerlose Gestenerkennung werden sowohl externe 3D-Kamerasysteme als auch das 2D-Kamerabild des Handheld-Geräts genutzt. Die Erkennung von Fingergesten durch spezielle Bildverarbeitungsalgorithmen findet dabei direkt auf dem Mobilgerät statt.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 42289962)