Telepräsenzroboter: ReMotion überträgt Körpersprache zur besseren Zusammenarbeit

Telepräsenzroboter können herumfahren und zeigen nur das Gesicht. Dabei bleibt die nonverbale Kommunikation auf der Strecke. ReMotion soll das ändern.

In Pocket speichern vorlesen Druckansicht

ReMotion in einem Einsatzszenario: Er ahmt die Körperstellung und die Kopfbewegung bei der Fern-Zusammenarbeit nach.

(Bild: Cornell University)

Lesezeit: 3 Min.

Wissenschaftler der Cornell University (CU) in New York haben mit ReMotion einen Telepräsenzroboter entwickelt, der Körpersprache seines fernen Nutzers in Echtzeit widerspiegeln kann. Der Roboter transportiert so körpersprachliche Informationen, die in herkömmlichen virtuellen Standardumgebungen verloren gehen.

Nonverbale Kommunikation über die Entfernung hinweg zu transportieren, sei schwierig, sagt Mose Sakashita, Doktorand der Informationswissenschaft an der CU. Die Wahrnehmung eines Blicks etwa und damit das intuitive Wissen darüber, wo die Aufmerksamkeit liegt, gehe bei herkömmlichen Telepräsenzsystemen verloren. Dabei seien die nonverbalen, impliziten Hinweise für die Zusammenarbeit besonders wichtig.

Der Telepräsenzroboter ReMotion soll das ändern. Er ist mobil und ermöglicht dynamische Interaktionen, wie aus dem Paper "ReMotion: Supporting Remote Collaboration in Open Space with Automatic Robotic Embodiment" hervorgeht, das auf der Conference on Human Factors (CHI) in Hamburg vorgestellt worden ist.

Der Roboter ist knapp zwei Meter groß. Sein beweglicher Kopf besteht aus einem Monitor. Eine Kinect-Azure-Kamera zeichnet die Bewegungen im Raum auf, eine weitere Kamera das Gesicht. Omnidirektionale Räder lassen den Roboter in jede nur erdenkliche Richtung bewegen. Die Steuerung erfolgt über eine Game-Engine-Software und ein NeckFace genanntes Gerät, das der Fernbenutzer tragen muss. Das von den CU-Wissenschaftlern entwickelte Gerät überträgt die Kopf- und Körperbewegungsdaten automatisch in Echtzeit auf den entfernten Roboter, der sie dann ausführt.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Telepräsenzroboter sind zwar nicht neu, allerdings müssen sie in der Regel manuell von den Nutzerinnen und Nutzern gesteuert werden. Das lenkt sie von ihrer eigentlichen Aufgabe ab, schreiben die Forschenden. Andere Optionen, wie etwa das gemeinsame Arbeiten in Virtual-Reality-Umgebungen (VR) sowie in Augmented Reality (VR) seien ebenfalls nicht optimal. Sie erfordern oftmals auch eine aktive Rolle des Fernnutzers, zudem schränke die Verwendung von VR- und AR-Brillen dessen periphere Wahrnehmung zu sehr ein.

Die Wissenschaftler führten eine Studie mit mehreren Probanden durch, die ReMotion verwendeten. Sie berichteten davon, im Gegensatz zu herkömmlichen Telepräsenzsystemen, eine bessere Verbindung zu ihrem Teamkollegen aufbauen zu können. Auch habe man eine signifikant höhere geteilte Aufmerksamkeit unter den entfernten Nutzern feststellen können.

Derzeit funktioniert ReMotion lediglich mit zwei Nutzern, die in einer 1:1-Umgebung zusammenarbeiten können. Dazu benötigen Benutzer jeweils einen identisch großen physischen Raum mit gleicher Anordnung. Die Forschenden beabsichtigen, dieses Manko aufzuheben. Sie wollen zukünftig daran forschen, wie ReMotion in asymmetrischen Szenarien funktionieren kann. Darunter fällt auch die virtuelle Zusammenarbeit eines Teammitglieds mit mehreren anderen in einem großen Raum.

Das Wissenschaftsteam rund um Sakashita sieht eine mögliche Anwendung des Systems überall dort, wo Personen, die nicht physisch anwesend sein können, zusammenarbeiten müssen. Auch in Schulen oder anderen Bildungseinrichtungen könnten so kooperative Umgebungen geschaffen werden, in denen Schüler mit anderen über die Ferne zusammenarbeiten können.

(olb)