NEURA Robotics

Ein Beitrag in eigener Sache: Mitte Mai diesen Jahres – heute vor genau 3 Monaten – bin ich als Head of Engineering zu NEURA Robotics gewechselt. NEURA ist ein noch recht junges deutsches Robotik-Startup, das spätestens seit dem öffentlichkeitswirksamen Zugang von Till Reuter für mächtig Aufmerksamkeit sorgt … und noch weiter sorgen wird. Wohl aufgrund der hohen Dynamik und Geschwindigkeit im Unternehmen fühlt es sich mittlerweile tatsächlich schon nach mehr als 3 Monaten an.

Head of Software im Vordergrund, ich im Hintergrund, MAiRA dazwischen.

Als Head of Engineering hab ich dort Verantwortung über die Engineering-Departments, sowohl Software als auch Hardware (Mechanik, Elektronik, Mechatronik). Damit darf ich neue Entwicklungen koordinieren und unterstützen und überall dort mitmischen, wo es interessant ist. Meiner Meinung nach ist nämlich genau diese Wechselwirkung zwischen Software, Hardware und KI das, was Robotik so spannend macht und in der noch so viel Potential liegt.

KI ist dabei bei NEURA nämlich von Anfang an direkt mit und in den Roboter integriert. Neben der beeindruckenden Performance der Roboter-Hardware an sich ist NEURA Robotics nämlich stolz darauf, den ersten kommerziell verfügbaren kognitiven Roboter der Welt zu bauen. Kognitive Roboter sind dabei eine Roboterklasse, die erst von NEURA so richtig geschaffen wurde. Sie meint kollaborative Roboter, die über zusätzliche kognitive Fähigkeiten verfügen, um noch flexibler einsetzbar zu sein und natürlich(er) mit Menschen zu interagieren.

Neben der Head of Engineering-Stelle an sich hat mich genau der Teil überzeugt, den sicheren Schoß der Bosch Forschung zu verlassen. Seit meinem ersten Kontakt mit NEURA bin ich nämlich von der Tatsache fasziniert, jetzt die Art Roboter Wirklichkeit werden zu lassen, an denen ich schon zu meiner Promotionszeit – damals allerdings noch unter Laborbedingungen – geforscht habe und von denen wir uns damals ausgemalt haben, dass es sie vielleicht eines Tages auch außerhalb des Labors im kommerziellen Einsatz geben wird. Die Zukunft ist da!

Disclaimer: Der Autor dieses Beitrags ist Mitarbeiter der NEURA Robotics GmbH. Die Inhalte des Blogs vertreten ausschließlich Meinungen und Ansichten des Blog-Betreibers und sind nicht als Unternehmensmeinung zu verstehen. Der offizieller Blog von NEURA findet sich hier.

Pepper erinnert an Masken

Ein weiterer Artikel aus der Serie „Roboter gegen COVID-19“: Pepper erinnert uns daran, unsere Mund-Nasen-Bedeckung (MNB) zu tragen.

Pepper mit Maske
Die Mund-Nasen-Bedeckung hilft Pepper sicher nicht. Sie soll aber daran erinnern, eine zu tragen.

Geplante Einsatzorte für Pepper sind sowohl Geschäfte als auch Büros, in denen Menschen auch mal versehentlich vergessen, Ihre Masken zu tragen. Die in Pepper eingebaute, auf OpenCV basierende Gesichtserkennung kann das erkennen und ein entsprechendes Verhalten bei Pepper auslösen. Erkennt Pepper etwa, dass die untere Gesichtshälfte nicht ordentlich bedeckt ist, weist der Roboter freundlich darauf hin („You have to always wear a mask properly.“, etwa: „Sie müssen ihre Maske immer ordentlich tragen.“). Setzt die betreffende Person ihre Maske dann allerdings auf, bedankt sich Pepper auch artig: „Thank you for having put on your mask“ (etwa: „Danke für das Ausetzen der Maske“).

Wie im folgenden Video zu sehen ist, kann Pepper mehrere Personen gleichzeitig nach Masken scannen und zeigt diese auf seinem Display entweder mit roter Umrandung (trägt keine MNB) oder grüner Umrandung an:

Pepper erinnert Menschen an das Tragen ihrer Mund-Nasen-Bedeckung

Das Verhalten des Roboters kann laut Hersteller SoftBank noch erweitert werden, zum Beispiel dem Geschäft zu melden, wenn sich in ihm Personen ohne Masken aufhalten. Als Roboter-Polizei sei das nicht gedacht, versichert man bei SoftBank, sondern nur als freundliche Erinnerung. Nunja…

Im Video ist leider nicht zu erkennen, wie gut das wirklich funktioniert. Dort wirkt es doch etwas aufgesetzt und alle Personen beugen sich ganz deutlich vor die Kamera des Roboters. Solch optimalen Bedingungen für die Gesichts- bzw. Maskenerkennung dürfte es im echten Geschäfts- und Büroumfeld doch seltener geben.

Robotics Debates 2020

Am heutigen Freitag, den 5. Juni 2020, finden im Rahmen der ICRA 2020 die Robotics Debates statt: drei fokussierte Debatten mit jeweils vier Expert:innen und einem/einer prominenten Moderator:in. Da die ICRA 2020 virtuell stattfindet, gilt dies auch für die Robotics Debates, die damit glücklicherweise für jeden zugänglich sind. Hier ist der offizielle Trailer dazu:

Robotics Debates 2020 – Trailer

Die drei Debatten sind:

  1. Die Frage, ob die Kosten von großen, globalen wissenschaftlichen Konferenzen deren Nutzen überwiegen – moderiert von dem Berliner Robotik-Professor Oliver Brock, diskutieren werden Ruzena Bajcsy von der UC Berkeley, Katherine Kuchenbecker vom Max-Planck-Institut für Intelligente Systeme in Stuttgart, Steven LaValle und Gregory Dudek vom Samsung AI Center – 15:10 – 16:30 Uhr mittel-europäischer Zeit.
  2. Die Frage, ob die Robotikforschung Benchmarks, standardisierte Datensätze und Simulation überbewertet – moderiert von Michael Milford, diskutieren werden Aleksandra Faust von Google Brain, Vijay Reddi, Pieter Abbeel von der UC Berkeley und Davide Scaramuzza von der ETH Zürich – 16:40 – 18:00 Uhr mittel-europäischer Zeit.
  3. Die Hypothese, dass Haushaltsroboter bislang gescheitert sind, weil wir noch fundamentale Missverständnisse der Mensch-Roboter-Interaktion haben – moderiert von Hadas Kress-Gazit, diskutieren werden AJung Moon, Maja Mataric von der University of Southern California, Jennifer Dawson vom Toyota Research Institute und Henrik Christensen von der University of San Diego – 18:10 – 19:30 Uhr mittel-europäischer Zeit.

(alle Zeiten ohne Gewähr und unter der Annahme, dass ich mich mit den Zeitzonen nicht verrechnet habe 😉 )

Mehr dazu auf roboticsdebates.org, die Debatten gibt’s im Livestream auf icradebates.github.io.

Ich finde großartig, dass die Robotik die aktuelle Situation nutzt, um sich so zu öffnen, dass diese Debatten zum Beispiel nicht nur den zahlenden Konferenzteilnehmer:innen offen stehen, sondern weltweit allen Interessierten.

„How many robots do you have building robots?“

Eine mittlerweile beliebte Frage auf Messen und Konferen­zen, auf denen Her­steller der neuen Gene­ration kollaborativer Roboter als praxis­tauglich preisen ist: Wie viele eurer Roboter setzt ihr denn selbst bei der Her­stel­lung eurer eigenen Roboter ein?

Die Antwort war bislang in aller Regel ernüchternd: Der KUKA iiwa wird hand­gefer­tigt, Baxter habe ich bislang nicht viel mehr als das Aufheben von Objekten machen sehen (und Rodney Brooks musste die Frage auf einer Konferenz auch verneinen), und meine dies­bezüg­liche Frage beim Bosch APAS wurde auch zögerlich bis ausweichend beantwortet.

Der dänische Roboter­bauer Universal Robots, das seit einigen Jahren mit günstigen und kraft­geregel­ten Leicht­bau­robotern den inter­nationalen Roboter­markt aufräumt, scheint das nun zu ändern. Der neu vorgestellte Universal Robots UR3 ist genau für Fertigungs­arbeiten und Werkstatt­aufgaben gemacht und wird daher Univer­sal Robots eingesetzt, um Kopien von sich selbst herzustellen 1 :

“Our robots are indeed helping to build our robots.”
— Esben Østergaard, CTO und Mitgründer von Universal Robots

So sollte es sein. Wenn sie stimmt, gibt mir diese Aussage Vertrauen in die Praxis­taug­lich­keit des Roboters. Und umgekehrt: Wenn der Her­stel­ler seine Produkte selbst nicht einsetzt, warum sollte ich glauben, dass sie mir helfen können?

tl;dr: Der neue Universal Robots UR3 wird von Universal Robots beim Bau seiner eigenen Kopien eingesetzt. Und das ist gut so!

/images/blog/universal-robots.png
Die Universal Robots UR10, UR5 (von rechts) und links der neue kleine UR3.

Auf nach Berlin zum Final PiSA Project Workshop

Heute geht’s nach Berlin zur Abschlussveranstaltung des EU-Projekts PiSA. PiSA ist ein IP-Projekt (Integrated Project) der EU, also eines der größeren Projekte mit vielen internationalen Partnern. Das Projekt beschäftigt(e) sich mit flexiblen Fertigungssystemen mit Mensch-Maschine-Interaktion. Dieses Projekt ist thematisch so nah an dem Szenario FlexIRob, an dem ich in den letzten Wochen mitgearbeitet habe, dass sich hier ein Blick über den Tellerrand sicher lohnt.

Beim PiSA-Projekt geht es darum, Fertigung so zu gestalten, dass der Mensch weiterhin Teil dieses Prozesses bleibt, aber durch Maschinen und Robotik leistungsfähige Werkzeuge und Hilfen zur Verfügung hat. Die direkte Zusammenarbeit von Mensch und Maschine, von der man zu recht großes erwartet, steckt im Moment allerdings noch in den Kinderschuhen. Allein sicherheitstechnisch und rechtlich sind noch unheimlich viele Fragen offen. Einen Menschen in der direkten Umgebung eines tonnenschweren Industrieroboters arbeiten zu lassen, geschweige denn ihn mit dem Roboter in direkten physischen Kontakt kommen zu lassen, ist ein schwieriges Feld wenn nicht nur vorgegebene Aufgaben abgespult werden sollen, sondern eine flexible Zusammenarbeit gewollt ist.

Ich bin gespannt, welche Lösungen und Ideen im Rahmen des Projekts entwickelt wurden und morgen vorgestellt werden. Die Liste der Projektpartner mit unter Anderem Volkswagen, den Fraunhofer-Instituten für Pro­duk­tions­an­la­gen und Kon­struk­tions­tech­nik (IPK) sowie für Pro­duk­tions­tech­nik und Au­to­ma­ti­sie­rung (IPA), EADS, COMAU und weiteren ist auf jeden Fall mit großen Namen besetzt.

Ich hoffe, zu sehen, ob innerhalb des Projekts ähnliche Fragestellungen aufgekommen sind wie bei uns und welche Ideen und Lösungen von den Partnern gezeigt werden. Ich freue mich schon auf die Gespräche und Kontakte, die sich hoffentlich ergeben. Zumindest das Social Event, die abendliche Fahrt über die Spree, sollte dazu eigentlich ausreichend Gelegenheit bieten.