Robot Utility Model Wie Roboter ohne Anpassung neue Herausforderungen bewältigen können

Von Sandro Kipar 2 min Lesedauer

Anbieter zum Thema

Wissenschaftler haben einen Ansatz gefunden, um das Training von intelligenten Robotern zu vereinfachen. So können die Maschinen sich auch ungewöhnlichen Situationen stellen.

Eine Aufgabe für einen Roboter hat sich verändert? Auch kleine Abweichungen stellen die Maschine oft vor ungeahnte Herausforderungen. (Bild:  mast3r - stock.adobe.com)
Eine Aufgabe für einen Roboter hat sich verändert? Auch kleine Abweichungen stellen die Maschine oft vor ungeahnte Herausforderungen.
(Bild: mast3r - stock.adobe.com)

Künstliche Intelligenz und Robotik: das passt! Doch das trainieren von KI-Modellen für Roboter ist immer noch aufwendig und komplex. Jede Bewegung, jede mögliche Situation muss trainiert werden, damit die Maschine autonom arbeiten kann. Unter diesen Voraussetzung ist ein humanoider Roboter, der im Alltag der Menschen bei unterschiedlichsten Aufgaben assistieren soll, schwer realisierbar. In einer offenen Umgebung gibt es unzählige Situationen, die der Roboter nicht kennt und auf die er bisher nicht flexibel reagieren kann.

Hier kommt nun das Robot Utility Model ins Spiel oder kurz: RUM. Es wurde von einem Team aus Forschern rund um den Wissenschaftler Lerrel Pinto von der New York University entwickelt. Dabei handelt es sich laut der offiziellen Website des Projekts um ein Framework zum Training und Einsatz von Roboterstrategien, die ohne Feinabstimmung direkt auf neue Umgebungen angewendet werden können. Die Wissenschaftler konnten laut eigenen Angaben mithilfe des RUMs eine Erfolgsquote von 90 Prozent in unbekannten, neuen Umgebungen beim Umgang mit unbekannten Objekten erzielen.

Durch Imitation lernen

Doch wie sah das Training der Daten aus? Für das Trainieren der Aufgaben nutzten die Forscher ein Gerät, das sie „The Stick“ nennen. Dabei handelt es sich um einen günstigen Greifer, der von einem Menschen bedient werden und der mit einer Kamera ausgestattet werden kann. Auch der Roboter arbeitet mit diesem Greifer. Mit der Kamera und dem Lidar-Sensor werden Daten gesammelt, während mit dem Greifer die jeweilige Aufgabe von Hand ausgeführt wird. Die Daten fließen anschließend in das RUM. Das Lernkonzept durch Imitation vereinfacht das Sammeln der Daten, so die Wissenschaftler.

Aber woher weiß der Roboter, ob er seine Aufgabe erfüllt hat? Die Wissenschaftler nutzen dafür ChatGPT. Nachdem der Roboter seine Aufgabe erledigt hat, macht er ein Bild und schickt es an ChatGPT. Die KI gibt dem Roboter dann Feedback dazu, ob er bei seiner Aufgabe erfolgreich war. Ist dieses Feedback negativ, versucht er es nochmal.

Bei der Entwicklung und den Tests mit den RUMs konnten die Wissenschaftler vor allem drei Erkenntnisse gewinnen: Vor allem die Menge und Qualität der Daten sei entscheidend für das Training eines Nutzermodells, wobei die Wahl der Modellarchitektur weniger wichtig ist. Außerdem sei die Vielfalt der gesammelten Daten für die Generalisierung des Modells auf neue Umgebungen wichtiger als die reine Datenmenge. Das Modell wurde zudem leistungsfähiger, wenn es eine Selbstkritik seiner Leistung durch ein unabhängiges Modell durchführt und bei Bedarf erneut versucht.

Das Projekt ist Open Source, also für jeden einsehbar. Interessierte können die Trainingsdaten der Forscher auf der Website des Projekts herunterladen. Enthalten sind fünf Aufgaben mit jeweils rund 1.000 Demonstrationen in 36 unterschiedlichen Umgebungen.

(ID:50215164)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung