Dieser Roboter für den Einsatz im Weltraum ist mit einer weiter entwickelten Sensorik ausgestattet,

Dieser Roboter für den Einsatz im Weltraum ist mit einer weiter entwickelten Sensorik ausgestattet, die sich unter anderem auf zwei Farbkameras für die Bilderkennung und –verarbeitung stützt. (Bild: Allied Vision Technologies GmbH)

Stadtroda (rm). Der Roboter soll dort einfache, sich wiederholende oder gefährliche Aufgaben übernehmen, später auch auf der Erde. Entwickelt wurde er in Zusammenarbeit von General Motors, Oceaneering Space Systems und der NASA. Der 136 kg schwere modulare und hochflexible Roboter besteht aus einem Kopf, einem Torso und zwei Armen mit  Händen.

Eine der technischen Verbesserungen der zweiten Generation ist die weiter entwickelte Sensorik, unter anderem mit den beiden Farbkameras von Allied Vision Technologies und einer Infrarot-Time-of-Flight-Kamera (TOF). R2 kann bis zu viermal so schnell arbeiten wie sein Vorgänger R1 und hat insgesamt 350 Sensoren unter anderem für Tastsinn, Kraft, Position, Entfernungsmessung und Bilderfassung. Ausgestattet ist er mit 38 Power-PC-Prozessoren, die Aufgaben wie Objekterkennung und -Verarbeitung unterstützen.

Der Roboter kann auf seine Umgebung reagieren und halbautomatisch arbeiten. Weitere Verbesserungen sind die intensivere Beweglichkeit beider Arme mit überlappendem Arbeitsbereich und die elastische Gelenktechnik. Ebenso eine erweiterte Finger- und Daumenbewegungsspanne, miniaturisierte 6-Achsen-Kraftmesszellen, die schnellere Gelenksteuerung und ein besonders gelenkiger Hals. Mit 42 Freiheitsgraden – darunter 24 allein in den Händen – kann R2 mit demselben Werkzeug arbeiten wie menschliche Astronauten, so dass roboterspezifische Ausführungen überflüssig werden.

Die Bildverarbeitungskomponenten des Roboters sind im Helm untergebracht. Die Bilddaten beider GC-Kameras und der TOF-Kamera werden mit Hilfe der Software Halcon 9.0 von MVTec in Echtzeit verarbeitet. Das System setzt dazu verschiedene Bildauswertungstechniken ein, um die notwendigen Informationen zu errechnen. Dazu zählen Farbwerte, Pixelhelligkeit, Mustererkennung und Bildsegmentierung.

Um die Leistung des Systems zu erhöhen, konzentriert sich die Auswertung auf bestimmte Teile des Bildes. Dazu wird die ROI-Funktion (Region of Interest) der Kameras genutzt. Sie begrenzt die ausgelesenen Bildinformationen auf einem bestimmten Bereich des Bildes. Vorteil ist, dass weniger Bilddaten übertragen und verarbeitet werden müssen. Dies bewirkt höhere Bildraten und nimmt weniger Rechenleistung in Anspruch.

Dank der TOF-Daten lassen sich außerdem unnötige Hintergrundinformationen ausblenden, um die Bildverarbeitung auf bestimmte Objekte wie Werkzeuge und Kisten zu fokussieren. Die Software kann 3D- und Mustererkennungsanalysen in Echtzeit durchführen. Auf dieser Basis errechnet und plant der Roboter R2 Trajektorien (Bahnkurven), beispielsweise um mit seinen Händen einen Behälter selbstständig zu öffnen.

R2 ist im Februar 2011 an Bord des Shuttle Discovery zur Internationalen Raumstation ISS geflogen. Dort wird er vorerst im Destiny Labor fest installiert und probeweise bestimmte Aufgaben durchführen, die er schon auf der Erde erlernt hat.

Danach könnte der Roboter mobil eingesetzt werden und Wartungsarbeiten durchführen, darunter Staubsaugen oder Filterwechsel. Längerfristiges Ziel ist es, R2 für besonders gefährliche sogenannte EVAs (Extra-Vehicular Activities) ins Weltall zu schicken. Wo er auch bleiben dürfte, denn es gibt keine Pläne, ihn zurück zur Erde zu fliegen.