Robotik Objekte anhand von Gewicht und Weichheit erkennen

Quelle: MIT 4 min Lesedauer

Anbieter zum Thema

Wenn Roboter einen Gegenstand nicht sehen können, stehen sie oft vor unlösbaren Aufgaben. Mit einem Tastsinn könnten die Maschinen diese Hürden jedoch überwinden.

Dank einer neuartigen Simulationsmethode können Roboter zum Beispiel das Gewicht eines Gegenstandes erraten.(Bild:  MIT News, iStock)
Dank einer neuartigen Simulationsmethode können Roboter zum Beispiel das Gewicht eines Gegenstandes erraten.
(Bild: MIT News, iStock)

Ein Mensch, der einen Dachboden entrümpelt, kann den Inhalt einer Kiste oft erraten, indem er sie einfach in die Hand nimmt und schüttelt, ohne dass er sehen muss, was sich darin befindet. Forscher des MIT, von Amazon Robotics und der University of British Columbia haben Robotern beigebracht, etwas Ähnliches zu tun.

Sie haben eine Technik entwickelt, die es den Robotern ermöglicht, nur mithilfe interner Sensoren Informationen über das Gewicht, die Weichheit oder den Inhalt eines Objekts zu sammeln, indem sie es in die Hand nehmen und vorsichtig schütteln. Mit ihrer Methode, die keine externen Messgeräte oder Kameras benötigt, kann der Roboter Parameter wie die Masse eines Objekts innerhalb von Sekunden genau bestimmen.

Simulation mit Roboter- und Objektmodellen

Der Schlüssel zu ihrem Ansatz ist ein Simulationsprozess, der Modelle des Roboters und des Objekts einbezieht, um die Eigenschaften des Objekts zu identifizieren, während der Roboter mit ihm interagiert. „Diese Idee ist sehr allgemein, und ich glaube, dass wir gerade erst an der Oberfläche dessen kratzen, was ein Roboter auf diese Weise lernen kann. Mein Traum wäre es, dass Roboter in die Welt hinausgehen, Dinge berühren und in ihrer Umgebung bewegen und die Eigenschaften von allem, mit dem sie interagieren, selbst herausfinden“, sagt Peter Yichen Chen, ein MIT-Postdoc und Hauptautor eines Artikels über diese Technik.

Algorithmus „beobachtet“ Bewegung von Roboter und Objekt

Die Methode der Forscher nutzt die Propriozeption, auch Tiefensensibilität genannt. Dahinter steckt die Fähigkeit eines Menschen oder Roboters, seine Bewegung oder Position im Raum wahrzunehmen. Ein Mensch, der im Fitnessstudio eine Hantel hebt, kann beispielsweise das Gewicht dieser Hantel in seinem Handgelenk und Bizeps spüren, obwohl er die Hantel in der Hand hält. Auf die gleiche Weise kann ein Roboter die Schwere eines Objekts durch die vielen Gelenke in seinem Arm „spüren“.

Während der Roboter ein Objekt anhebt, sammelt das System der Forscher Signale von den Gelenkgebern des Roboters, also von Sensoren, die die Rotationsposition und die Geschwindigkeit der Gelenke während der Bewegung erfassen. Um die Eigenschaften eines Objekts während der Interaktion zwischen Roboter und Objekt abzuschätzen, stützt sich ihr System auf zwei Modelle: eines, das den Roboter und seine Bewegung simuliert, und eines, das die Dynamik des Objekts simuliert.

Ein Mensch hat keine superpräzisen Messungen der Gelenkwinkel in seinen Fingern oder des genauen Drehmoments, das er auf einen Gegenstand ausübt, ein Roboter hingegen schon. Wir machen uns diese Fähigkeiten zunutze.

MIT-Postdoktorand Chao Liu

Ihr Algorithmus „beobachtet“ die Bewegung des Roboters und des Objekts während einer physischen Interaktion und verwendet die Daten des Gelenkgebers, um rückwärts zu arbeiten und die Eigenschaften des Objekts zu identifizieren. So bewegt sich beispielsweise ein schwereres Objekt langsamer als ein leichteres, wenn der Roboter die gleiche Kraft aufwendet

Ein genauer digitaler Zwilling der realen Welt ist wirklich wichtig für den Erfolg unserer Methode.

Peter Yichen Chen

Der Trick: differenzierbare Simulationen

Sie verwenden eine Technik namens differenzierbare Simulation, mit der der Algorithmus vorhersagen kann, wie sich kleine Änderungen in den Eigenschaften eines Objekts, wie Masse oder Weichheit, auf die Endposition des Roboters auswirken.

Sobald die Simulation mit den realen Bewegungen des Roboters übereinstimmt, hat das System die richtige Eigenschaft identifiziert. Der Algorithmus kann dies in Sekundenschnelle tun und muss nur eine reale Trajektorie des Roboters in Bewegung sehen, um die Berechnungen durchzuführen.

Die Technik könnte auch Eigenschaften wie das Trägheitsmoment oder die Viskosität einer Flüssigkeit in einem Behälter bestimmen. Da ihr Algorithmus nicht wie andere Methoden, die sich auf Computer Vision oder externe Sensoren stützen, einen umfangreichen Datensatz für das Training benötigt, wäre er auch nicht so anfällig für Fehler, wenn er mit unbekannten Umgebungen oder neuen Objekten konfrontiert wird.

Was die Forschenden noch erreichen wollen

In Zukunft wollen die Forscher versuchen, ihre Methode mit Computer Vision zu kombinieren, um eine noch leistungsfähigere multimodale Sensortechnik zu entwickeln. „Diese Arbeit versucht nicht, das Computersehen zu ersetzen. Beide Methoden haben ihre Vor- und Nachteile. Aber hier haben wir gezeigt, dass wir bereits ohne Kamera einige dieser Eigenschaften herausfinden können“, sagt Chen. Die Forscher wollen auch Anwendungen für kompliziertere Robotersysteme, wie weiche Roboter, und komplexere Objekte, wie schwappende Flüssigkeiten oder körnige Medien wie Sand, erforschen.

Zu den Co-Autoren gehören der MIT-Postdoktorand Chao Liu, Pingchuan Ma PhD '25, Jack Eastman MEng '24, Dylan Randle und Yuri Ivanov von Amazon Robotics, die MIT-Professoren für Elektrotechnik und Informatik Daniela Rus, Leiterin des Computer Science and Artificial Intelligence Laboratory (CSAIL) des MIT, und Wojciech Matusik, Leiter der Computational Design and Fabrication Group innerhalb des CSAIL. Die Forschungsergebnisse werden auf der International Conference on Robotics and Automation vorgestellt.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

(ID:50427223)