DreamWaQer: Blinder vierbeiniger Roboter bewegt sich sicher durchs Gelände

Ein Roboter kann auch durch unwegsames Gelände laufen, ohne dabei auf visuelle und taktile Informationen zurückgreifen zu können. Er schätzt das Gelände ein.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen

Der DreamWaQer-Roboter läuft blind durch die Gegend.

(Bild: KAIST (Screenshot))

Lesezeit: 3 Min.

Ein Forschungsteam des Korea Advanced Institute of Science and Technology (KAIST) hat einen vierbeinigen Roboter entwickelt, der sich ohne visuelle und taktile Sensoren fortbewegen kann. So kann der "blinde" und "gefühllose" Roboter in schwierigen Katastrophensituationen ohne visuelles Feedback agieren. Möglich macht das eine Technik namens DreamWaQ, eine Steuerungstechnik für Laufroboter, die das Gelände einschätzt und die Bewegung des Roboters entsprechend ansteuert.

Der vom KAIST entwickelte und in "DreamWaQ: Learning Robust Quadrupedal Locomotion With Implicit Terrain Imagination via Deep Reinforcement Learning" beschriebene Laufcontroller für Roboter basiert auf Methoden des Deep Reinforcement Learning (RL). Die Studie ist auf Arxiv veröffentlicht und soll auf der Ende Mai in London stattfindenden IEEE International Conference on Robotics and Automation (ICRA) vorgestellt werden.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Anhand von im Simulator in verschiedenen virtuellen Geländeumgebungen gewonnenen Daten werden schnell geeignete Steuerbefehle für jeden Motor des Laufroboters berechnet. Eine separate Re-Orchestrierung, wie sie bei der Übertragung auf einen realen Roboter normalerweise nötig ist, entfällt, schreiben die Wissenschaftler. Ihr Steuerungssystem ist sofort auf verschiedenen Laufroboter anwendbar und bedarf keines weiteren Abstimmungsprozesses.

Der DreamWaQ-Controller umfasst ein kontextbezogenes Schätznetzwerk und ein Policy-Netzwerk. Das Schätznetzwerk schätzt die Bodenbeschaffenheit und den Bewegungsstatus des Roboters ein, wie etwa dessen Gelenkpositionen. Das Policy-Netzwerk berechnet daraus resultierend die passenden Steuerbefehle. In der Simulation werden beide Netze zugleich angelernt. Das geschieht im Falle des Schätzernetzes durch überwachtes Lernen (Supervised Learning), beim Policy-Netzwerk kamen "Deep RL"-Methoden zum Einsatz. Da in der Simulation das Gelände bekannt ist, kann die daraus angewendete Bewegungsstrategie des Akteurs bewertet werden. Der gesamte Lernprozess sei in etwa einer Stunde erledigt gewesen, schreiben die Forschenden.

Mit dem so Erlernten ausgestattet, begibt sich der Roboter in reales Gelände. Er stellt sich quasi vor, in welcher Umgebung von den vielen erlernten Umgebungen er sich gerade bewegt. Dazu bezieht er lediglich Daten seiner inertialen Messeinheit zur Lagebestimmung und die der Sensorik zur Messung der Gelenkwinkel an den Beinen mit ein. Berührt etwa ein Fuß einen Treppenabsatz, so weiß der Roboter erst dann, dass sich dort vermutlich eine Treppe befindet, wenn der Fuß die Treppe bereits berührt hat. Der Roboter schätzt das wahrscheinlichste Gelände, um daraus unmittelbar den passenden Steuerungsbefehl für den Motor zu ermitteln und zu senden. Das ermöglicht ein schnelles, angepasstes Gehen.

Den DreamWaQer-Roboter testeten die Wissenschaftler auch außerhalb von Laborbedingungen im freien Feld. Dabei musste er Bordsteine, Baumwurzeln und Bodenwellen überwinden sowie eine Treppe, deren Stufen etwa zwei Drittel seiner eigenen Körperhöhe entsprach. Diese Herausforderung meisterte der Roboter "blind" und konnte dabei stabil laufen. Das gelang sowohl bei langsamer Geschwindigkeit von etwa 0,3 m/s bis zu höheren Geschwindigkeiten von 1 m/s.

(olb)