Wenn Roboter einen Gegenstand nicht sehen können, stehen sie oft vor unlösbaren Aufgaben. Mit einem Tastsinn könnten die Maschinen diese Hürden jedoch überwinden.
Dank einer neuartigen Simulationsmethode können Roboter zum Beispiel das Gewicht eines Gegenstandes erraten.
(Bild: MIT News, iStock)
Ein Mensch, der einen Dachboden entrümpelt, kann den Inhalt einer Kiste oft erraten, indem er sie einfach in die Hand nimmt und schüttelt, ohne dass er sehen muss, was sich darin befindet. Forscher des MIT, von Amazon Robotics und der University of British Columbia haben Robotern beigebracht, etwas Ähnliches zu tun.
Sie haben eine Technik entwickelt, die es den Robotern ermöglicht, nur mithilfe interner Sensoren Informationen über das Gewicht, die Weichheit oder den Inhalt eines Objekts zu sammeln, indem sie es in die Hand nehmen und vorsichtig schütteln. Mit ihrer Methode, die keine externen Messgeräte oder Kameras benötigt, kann der Roboter Parameter wie die Masse eines Objekts innerhalb von Sekunden genau bestimmen.
Simulation mit Roboter- und Objektmodellen
Der Schlüssel zu ihrem Ansatz ist ein Simulationsprozess, der Modelle des Roboters und des Objekts einbezieht, um die Eigenschaften des Objekts zu identifizieren, während der Roboter mit ihm interagiert. „Diese Idee ist sehr allgemein, und ich glaube, dass wir gerade erst an der Oberfläche dessen kratzen, was ein Roboter auf diese Weise lernen kann. Mein Traum wäre es, dass Roboter in die Welt hinausgehen, Dinge berühren und in ihrer Umgebung bewegen und die Eigenschaften von allem, mit dem sie interagieren, selbst herausfinden“, sagt Peter Yichen Chen, ein MIT-Postdoc und Hauptautor eines Artikels über diese Technik.
Algorithmus „beobachtet“ Bewegung von Roboter und Objekt
Die Methode der Forscher nutzt die Propriozeption, auch Tiefensensibilität genannt. Dahinter steckt die Fähigkeit eines Menschen oder Roboters, seine Bewegung oder Position im Raum wahrzunehmen. Ein Mensch, der im Fitnessstudio eine Hantel hebt, kann beispielsweise das Gewicht dieser Hantel in seinem Handgelenk und Bizeps spüren, obwohl er die Hantel in der Hand hält. Auf die gleiche Weise kann ein Roboter die Schwere eines Objekts durch die vielen Gelenke in seinem Arm „spüren“.
Während der Roboter ein Objekt anhebt, sammelt das System der Forscher Signale von den Gelenkgebern des Roboters, also von Sensoren, die die Rotationsposition und die Geschwindigkeit der Gelenke während der Bewegung erfassen. Um die Eigenschaften eines Objekts während der Interaktion zwischen Roboter und Objekt abzuschätzen, stützt sich ihr System auf zwei Modelle: eines, das den Roboter und seine Bewegung simuliert, und eines, das die Dynamik des Objekts simuliert.
Ein Mensch hat keine superpräzisen Messungen der Gelenkwinkel in seinen Fingern oder des genauen Drehmoments, das er auf einen Gegenstand ausübt, ein Roboter hingegen schon. Wir machen uns diese Fähigkeiten zunutze.
MIT-Postdoktorand Chao Liu
Ihr Algorithmus „beobachtet“ die Bewegung des Roboters und des Objekts während einer physischen Interaktion und verwendet die Daten des Gelenkgebers, um rückwärts zu arbeiten und die Eigenschaften des Objekts zu identifizieren. So bewegt sich beispielsweise ein schwereres Objekt langsamer als ein leichteres, wenn der Roboter die gleiche Kraft aufwendet
Ein genauer digitaler Zwilling der realen Welt ist wirklich wichtig für den Erfolg unserer Methode.
Peter Yichen Chen
Der Trick: differenzierbare Simulationen
Sie verwenden eine Technik namens differenzierbare Simulation, mit der der Algorithmus vorhersagen kann, wie sich kleine Änderungen in den Eigenschaften eines Objekts, wie Masse oder Weichheit, auf die Endposition des Roboters auswirken.
Sobald die Simulation mit den realen Bewegungen des Roboters übereinstimmt, hat das System die richtige Eigenschaft identifiziert. Der Algorithmus kann dies in Sekundenschnelle tun und muss nur eine reale Trajektorie des Roboters in Bewegung sehen, um die Berechnungen durchzuführen.
Die Technik könnte auch Eigenschaften wie das Trägheitsmoment oder die Viskosität einer Flüssigkeit in einem Behälter bestimmen. Da ihr Algorithmus nicht wie andere Methoden, die sich auf Computer Vision oder externe Sensoren stützen, einen umfangreichen Datensatz für das Training benötigt, wäre er auch nicht so anfällig für Fehler, wenn er mit unbekannten Umgebungen oder neuen Objekten konfrontiert wird.
Was die Forschenden noch erreichen wollen
In Zukunft wollen die Forscher versuchen, ihre Methode mit Computer Vision zu kombinieren, um eine noch leistungsfähigere multimodale Sensortechnik zu entwickeln. „Diese Arbeit versucht nicht, das Computersehen zu ersetzen. Beide Methoden haben ihre Vor- und Nachteile. Aber hier haben wir gezeigt, dass wir bereits ohne Kamera einige dieser Eigenschaften herausfinden können“, sagt Chen. Die Forscher wollen auch Anwendungen für kompliziertere Robotersysteme, wie weiche Roboter, und komplexere Objekte, wie schwappende Flüssigkeiten oder körnige Medien wie Sand, erforschen.
Zu den Co-Autoren gehören der MIT-Postdoktorand Chao Liu, Pingchuan Ma PhD '25, Jack Eastman MEng '24, Dylan Randle und Yuri Ivanov von Amazon Robotics, die MIT-Professoren für Elektrotechnik und Informatik Daniela Rus, Leiterin des Computer Science and Artificial Intelligence Laboratory (CSAIL) des MIT, und Wojciech Matusik, Leiter der Computational Design and Fabrication Group innerhalb des CSAIL. Die Forschungsergebnisse werden auf der International Conference on Robotics and Automation vorgestellt.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.