In den letzten Jahren gab es im Bereich der intelligenten industriellen Produktion vermehrt Bestrebungen, neue Umgebungen zu schaffen, in denen Menschen und autonome Systeme gemeinsam agieren können. Während für einige Aufgaben in der Produktion die Ausführung vordefinierter, sich wiederholender Bewegungen ausreicht, gibt es zahlreiche Szenarien, die Planungs-, Lern- und Schlussfolgerungsfähigkeiten erfordern. Dazu zählt unter anderem die kundenspezifische flexible Produktion oder Montage. Auch Inspektions- und Wartungsaufgaben, die genauer Planung bedarfen, werden zunehmend autonomen Agenten anvertraut.
Genau wie Menschen werden autonome Roboter jedoch häufig mit unbekannten Szenarien konfrontiert, in denen sie von Experteninput profitieren könnten, z.B. durch die Bereitstellung von Beispieltrajektorien, aus denen ein Roboter lernen kann. Um dieses Sammeln von Beispielen zu erleichtern, stellt unser Team aus dem Think Tank Daten eine neuartige Augmented-Reality-Schnittstelle vor, über die ein Benutzer einen Roboterarm mit dem Augmented-Reality-Headset Hololens 2 von Microsoft steuern kann. Die aktuelle Implementierung ermöglicht es dem Benutzer, den Roboterarm UR5 von Universal Robots intuitiv über Hand-Tracking zu steuern. Dieses Setup bietet unter anderem eine Lösung für Szenarien, in denen ein Mensch einen Roboterarm aus sicherer Entfernung steuern möchte, zum Beispiel wenn er hinter einer Plexiglasscheibe steht, während er mit gefährlichen Substanzen arbeitet.
Die nächsten Schritte des Think Tank-Teams mit dem Roboter Setup sind die Erkennung von Gesten und die Datenerfassung für das Human-in-the-Loop-Lernen.
Im Video: Demonstration der Arbeit mit der Hololens 2 und dem UR5 von Tat Trong Vu, mit Dr. Gregory Palmer.