Bisher sind Roboter recht gut im Sehen, nicht aber im Ertasten von Informationen – das aber könnte sich nun ändern. Denn Forscher haben einen Sensorhandschuh entwickelt, der schnell und günstig den charakteristischen Tasteindruck von Objekten erfassen kann. Durch simples Greifen und Betasten eines Gegenstands stellt das System ein hochaufgelöstes Muster des sich verändernden Drucks auf verschiedene Handbereiche zusammen. Aus diesen Daten wiederum kann ein lernfähiger Algorithmus erkennen, welches Objekt gerade gehalten wird und wie schwer es ist. Die mit diesem Handschuh gesammelten Tastdatensätze könnten so helfen, Robotern und Prothesen mehr Gefühl für ihre Umwelt zu verleihen.
Unser Tastsinn liefert uns nicht nur wertvolle Informationen über die Beschaffenheit von Materialien und Objekten, er hilft uns auch dabei, beim Handhaben von Gegenständen das richtige Maß an Kraft und Kontakt einzusetzen. „Wenn wir ein Objekt berühren, können wir durch Befühlen feststellen, um was es sich handelt“, erklärt Erstautor Subramanian Sundaram vom Massachusetts Institute of Technology (MIT). „Roboter haben diese Art des Feedbacks nicht. Bisher gibt es keine Sensorplattformen und große Datensätze, durch die Roboter die Tastinformation bekommen könnten, wie sie der Mensch bei Betasten von Objekten nutzt.“ Das Problem: Bisherige Sensorhandschuhe sind extrem teuer und besitzen meist eine noch zu geringe Sensordichte. Robotern und lernfähigen Algorithmen stehen dadurch nicht genügend Daten zur Verfügung, um sich aus den Tasteindrücken ein stimmiges Bild zu machen.
Muster aus wachsenden und schrumpfenden Punkten
Das hat sich nun geändert. Denn Sundaram und sein Team haben einen Sensorhandschuh entwickelt, der aus einfachen, günstigen Komponenten besteht und dennoch eine große Menge an Tastdaten liefern kann. Basis des Handschuhs ist ein Textilmaterial, das mit einem leitfähigen, flexiblen Polymerfilm beschichtet ist. Dieser Film verändert bei Druck seinen Widerstand und damit seine Leitfähigkeit. Über diesem Film liegt ein Gitter aus 64 dünnen Elektrodenfäden, die sich an 548 Punkten der Hand- und Fingerinnenseiten kreuzen. Diese Punkte bilden die Tastsensoren, indem die Elektroden dort die jeweilige Veränderung der Leitfähigkeit im Polymerfilm abgreifen. „Jedes Sensorelement reagiert schon auf kleine Kräfte ab rund 25 Millinewton und erreicht dann jenseits von 0,8 Newton seine Sättigung“, berichten die Forscher. Obwohl dieser Handschuh damit hochaufgelöste Tastdaten liefere, bestehe er aus kommerziell erhältlichen Materialien, die insgesamt nur zehn US-Dollar kosten.
Wenn nun der Träger dieses Tasthandschuhs ein Objekt ergreift, registriert jeder Sensor den Druck, den dieses auf die Handfläche oder den Finger an dieser Stelle ausübt. Auf Basis dieser Daten erstellt ein Programm taktile Karten: Unterschiedlich große Punkte zeigen, wo und wie stark die Hand zugreift und wie sich dieses Muster bei wechselnden Griffen und Tastaktionen verändert. Auf diese Weise entsteht ein Video, das den charakteristischen Tasteindruck beim Befühlen des Objekts wiedergibt – und so seine Identifizierung ermöglicht. Denn ein in der Hand gehaltener Stift erzeugt beispielsweise ein anderes Tastmuster als eine Tasse oder ein Ball. Anhand dieser Muster lässt sich nicht nur erkennen, wie viel Druck welche Handregion ausübt, sondern auch, welche Bereiche beim Greifen und Betasten involviert sind, wie die Forscher erklären. Das wiederum erlaubt Rückschlüsse auf die Form und das Gewicht des Objekts.
Tastsinn für Roboter
Im Rahmen ihres Experiments nutzten Sundaram und sein Team den Sensorhandschuh, um 26 verschiedene Objekte eingehend zu betasten und so rund 135.000 Video-Frames an Tastmustern zu sammeln. „Meines Wissens nach ist dies einer der größten Datensätze dieser Art“, kommentiert die nicht an der Studie beteiligte Forscherin Giulia Pasquale von der Universität Genua. „Dieser Handschuh eröffnet damit vielversprechende Aussichten für robotische Anwendungen.“ Denn solche umfangreichen Tastdaten-Sammlungen ermöglichen es nun Robotern und anderen lernfähigen Systemen, die Eigenheiten des Greifens und der taktilen Objekterkennung zu trainieren und zu lernen. Dass dies bereits mit diesem ersten Testdatensatz funktioniert, haben die Forscher bereits demonstriert: Sie fütterten ein neuronales Netzwerk mit den Tastmuster-Videos und programmierten es darauf, sich aus jedem einem Objekt zugeordneten Satz jeweils sieben möglichst unterschiedliche Muster herauszusuchen. „Das ähnelt der Art und Weise, wie ein Mensch verschiedene Griffweisen ausprobiert, wenn er ein Objekt durch Tasten erkundet“, erklärt Co-Autor Petr Kellnhofer vom MIT.
Im Test gelang es dem so trainierten lernfähigen Algorithmus, Objekte wie eine Schere, einen Tennisball oder eine Getränkedose zu 76 Prozent korrekt zu identifizieren – allein anhand der charakteristischen Tastmuster. Über sie konnte das System auch das Gewicht der meisten Objekte bis auf rund 60 Gramm genau abschätzen, wie die Forscher berichten. Und noch etwas verrieten die mit dem Sensorhandschuh gesammelten Tastmuster: „Wir zeigen zum ersten Mal quantitativ, wie verschiedene Handregionen beim Greifen kollaborativ zusammenarbeiten“, berichten Sundaram und seine Kollegen. So nutzen wir beispielsweise bei den meisten Präzisionsgriffen Fingerspitzen und Daumen gemeinsam, während wir beim Zupacken primär die Innenflächen von Handfläche und Fingern einsetzen. „Unsere Ergebnisse demonstrieren damit den breiten Nutzen solcher hochdimensionaler taktiler Sensoren“, konstatieren die Forscher. Vor allem die Robotik und Prothesentechnik könnten ihrer Ansicht nach von solchen Datenhandschuhen und den mit ihnen gesammelten Tastdaten profitieren. Aber auch die bisher meist auf visuellen Daten basierende Objekterkennung könnte so um zusätzliche Sinne erweitert werden.