Sensorik Kollege Roboter bekommt einen Sensor-Daumen

Anbieter zum Thema

Forscher haben einen speziellen Sensor aus einem Elastomer entwickelt, der mit maschinellen Sehen und tiefes neuronales Netzwerk weiß, wo und wie stark er berührt wird. Damit soll sich die haptische Wahrnehmung künftiger Roboterfinger verbessern.

Sensor-Daumen: Forscher haben einen Sensor entwickelt, der die Form eines menschlichen Daumens hat. Dank Algorithmen und Kamera reagiert der Sensor auf Berührungen.
Sensor-Daumen: Forscher haben einen Sensor entwickelt, der die Form eines menschlichen Daumens hat. Dank Algorithmen und Kamera reagiert der Sensor auf Berührungen.
(Bild: Max-Planck-Institut)

Feinfühlige Roboterhände: Dank eines weichen haptischen Sensors mit dem Namen “Insight” soll der Sensor mithilfe maschinellen Sehens und eines tiefen neuronalen Netzwerks genau abschätzen, wo Objekte mit dem Sensor in Kontakt kommen und wie groß die einwirkenden Kräfte sind. Für die Forscher ist das ein wichtiger Schritt auf dem Weg zu Robotern, die ihre Umgebung genauso präzise ertasten wie Menschen und Tiere.

Wie sein biologisches Gegenstück ist der Fingerspitzen-Sensor sehr empfindlich, robust und hochauflösend. Der Sensor ist daumenförmig und besteht aus einer weichen Schale, die um ein leichtes, steifes Skelett herum aufgebaut ist.

Sensor-Daumen mit Skelett und Kamera

Das innenliegende Skelett stützt die Struktur, ähnlich wie Knochen das weiche Fingergewebe stabilisieren. Die Schale besteht aus einem Elastomer, das mit dunklen, reflektierenden Aluminium-Flocken gemischt ist. Dadurch bekommt die Hülle eine gräuliche Farbe, die undurchsichtig ist. Es dringt kein Licht von außen ein. Im Inneren der fingergroßen Kappe ist eine kleine Fischaugenkamera, die 160° abdeckt. Sie nimmt farbige Lichtmuster auf, die von einem Ring aus LEDs erzeugt werden.

Berühren Objekte die Sensorhülle, dann verändert sich das Farbmuster im Inneren des Sensors. Die Kamera nimmt mehrmals pro Sekunde Bilder auf und füttert ein tiefes neuronales Netz mit diesen Daten.

Maschinelles Lernen

Der Algorithmus erkennt selbst die kleinste Veränderung des Lichts in jedem Pixel. Innerhalb eines Sekundenbruchteils kann das trainierte maschinelle Lernmodell herausfinden, wo genau der Finger ein Objekt berührt, wie stark die Kräfte sind und in welche Richtung sie wirken. Das Modell erstellt eine so genannte Kraftkarte: Es liefert einen Kraftvektor für jeden Punkt der dreidimensionalen Fingerspitze.

Aber wie lernt der Sensor? Doktorand Huanbo Sun am Max-Planck-Instituts für Intelligente Systeme (MPI-IS) hat einen Prüfstand entwickelt. Damit lassen sich Trainingsdaten generieren, die für das maschinelle Lernmodell benötigt werden. Mit den Daten wollen die Wissenschaftler die Korrelation zwischen der Veränderung der Rohbildpixel und den aufgebrachten Kräften verstehen.

Auch ein Fingernagel ist vorhanden

Der Prüfstand tastet den Sensor rund um seine Oberfläche ab und zeichnet den tatsächlichen Kontaktkraftvektor zusammen mit dem Kamerabild im Inneren des Sensors auf. Auf diese Weise wurden etwa 200.000 Messungen erzeugt. Es dauerte fast drei Wochen, um die Daten zu sammeln und einen weiteren Tag, um das maschinelle Lernmodell zu trainieren.

Der Sensordaumen überstand das lange Experiment und zeigte, wie robust das mechanische Design ist. Eine weitere Besonderheit des Sensor-Daumens: Er verfügt über einen Bereich mit einer dünneren Elastomerschicht, die einem Fingernagel nachempfunden ist.

Diese taktile Zone ist so konzipiert, dass sie selbst kleinste Kräfte und detaillierte Objektformen erkennen kann. Für die hochempfindliche Zone wählten die Wissenschaftler eine Elastomerdicke von 1,2 mm statt der 4 mm, die sie für den Rest des Fingersensors verwendeten.

(ID:48548308)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung