:quality(80)/images.vogel.de/vogelonline/bdb/1785900/1785941/original.jpg)
Sensorik Programmierung vereinfacht: Vision-Sensor unterstützt via App Robotersysteme
Um das Zusammenspiel zwischen Roboter und Sensorik zu vereinfachen, hat Sensopart einen Vision-Sensor entwickelt, der über eine App Robotersysteme von Universal Robots und Kuka unterstützt.
Firmen zum Thema

Sensorgesteuerte Kleinroboter sind seit einigen Jahren in der Fabrikautomation zunehmend verbreitet. Sehr wichtig für eine effektive Integration der „sehenden Robotik“ in bestehende Fertigungsprozesse ist ein perfektes Zusammenspiel zwischen Roboter und Sensorik. Sogenannte kollaborative Robotersysteme, die Seite an Seite mit menschlichen Mitarbeitern Handling- oder Montageaufgaben übernehmen, haben die Anwendungsschwelle für Robotik gesenkt. Damit ist die Automatisierung von Anwendungen in den Fokus gerückt, für die ein Robotereinsatz bisher zu aufwändig und zu teuer erschien. Um schnell und zielsicher greifen zu können, werden dem Roboter die notwendigen Steuersignale von einem Vision-Sensor geliefert. Eine Hürde ist dabei vielfach noch die Einrichtung der Sensor-Roboter-Kombination, denn nicht jeder Anwender verfügt gleichzeitig über Fachkenntnisse in der Bildverarbeitung und Roboterprogrammierung.
Robotik-Anwendungen Schritt für Schritt einrichten
Vor zwei Jahren hat der Sensorhersteller Sensopart auf diese Herausforderung reagiert und eine spezielle Version seines Vision-Sensors, den Visor Robotic, auf den Markt gebracht. Mit Hilfe einer im Sensor integrierten Kalibrierfunktion wurde die Transformation von Sensor- in Roboterkoordinaten wesentlich vereinfacht. Später kam eine Schnittstelle zu Robotersystemen des Herstellers Universal Robots (URCap) hinzu, die es ermöglichte, die händische Programmierung der Roboterbahn durch einen intuitiven Teach-in-Prozess mittels Programmiergerät zu ersetzen. Die Details der Bildaufnahme und -auswertung werden in der Konfigurationssoftware des Vision-Sensors Schritt für Schritt eingerichtet. Dadurch können einfache Anwendungen effektiv gelöst werden. Für schwierige Detektionssituationen bietet der Visor Robotic umfangreiche Bildverarbeitungfähigkeiten – diese helfen z. B. bei spiegelnden Oberflächen, eine robuste Auswertung zu erhalten.
Mit App entfällt händische Roboterprogrammierung
Durch Portierung auf eine leistungsfähigere Hardwareplattform wurden die Bildverarbeitungsfähigkeiten des Vision-Sensors nochmals erweitert. Der Hersteller hebt dabei insbesondere den integrierten Ziellaser (Laserklasse 1) sowie die motorische Fokusverstellung, wodurch die Montage und Einrichtung des Vision-Sensors einfacher und flexibler wird, hervor. Mit einer Auflösung von bis zu 1,5 Megapixeln und drei verschiedenen Sichtfeldern (Weit, Mittel, Eng) können Anwender einfach den für ihre Anwendung optimalen Bildausschnitt wählen. So ermöglicht die Variante mit engem Sichtfeld eine zuverlässige Detektion von Kleinteilen oder Codes auch aus größeren Abständen zum Prozess. Ebenfalls verbessert wurde die im Sensor integrierte Beleuchtung mit acht Hochleistungs-LEDs, beschreibt Sensopart. Für die Integration in bestehende Anlagen wurde der Visor Robotic zudem mit einer umfangreichen Konnektivität ausgestattet. Unterstützt werden aktuelle Schnittstellenprotokolle wie sFTP, SSH, EtherNet/IP und Profinet Conformance Class B, die eine Anbindung an SPS- oder PC-Systeme ermöglichen. Auch die Kommunikation mit Robotersystemen wurde erweitert: Analog zur Anbindung an Roboter von Universal Robots werden nun auch Systeme des Herstellers Kuka direkt unterstützt. Eine App in der Kuka-Steuerungssoftware schließt dabei die Lücke zwischen Bildverarbeitung und Robotersteuerung, sodass die bisherige händische Programmierung der Kommunikationsschnittstelle in der Steuerungssoftware des Roboters entfällt. Laut dem Anbieter soll dies für den Anwender eine deutliche Zeitersparnis bei der Integration in bestehende Fertigungsabläufe sowie geringeres Anwendungsrisiko bedeuten. Im laufenden Prozess stellt der Vision-Sensor für Robotik-Anwendungen dem Anwender beispielsweise ein Livebild aus der Anlage zur Verfügung. Funktionen zur Backuperstellung und -verwaltung sollen zudem die Verfügbarkeit der Anlage sicherstellen.
Robotik-Anwendungen in 2D und 3D
Damit eröffnen sich vielfältige Einsatzmöglichkeiten – vor allem klassische Pick-and-Place-Anwendungen lassen sich mit der sehenden Robotik effektiv automatisieren. Typische Beispiele sind die Teilezuführung und -montage in der Automobil- und Zulieferindustrie oder die Prüfung von Platinen in der Elektronikfertigung. Dank der vom Vision-Sensor gelieferten Umgebungsinformation werden etwaige Lageabweichungen von Bauteilen sofort erkannt, sodass der Roboter seinen Bewegungsablauf entsprechend korrigieren kann.
Dabei sind die Grenzen zu 3D-Anwendungen fließend: Wenn der Roboter in einer Anwendung eine zusätzliche Höheninformation benötigt, z. B. bei der Aufnahme mehrlagiger Blechstapel, muss hierfür nicht zwingend ein 3D-Vision-System installiert werden. Die Höheninformation kann stattdessen von einem Abstandssensor geliefert werden, so Sensopart. Der Sensorikhersteller aus Gottenheim bietet diese Abstandssensoren in den drei Baugrößen Kompakt, Miniatur und Subminiatur an. Laut dem Hersteller findet der zuckerwürfelgroße Subminiatur-Abstandssensor sogar in einem Robotergreifer Platz.
automation app award
www.elektrotechnik.vogel.de
(ID:45733163)