European Robotics Forum 2020 – ausgedünnt

Seit Freitag bin ich zurück vom European Robotics Forum 2020. Auf dem Hinweg hatte ich noch gerätselt, ob wohl die Auswirkungen des Coronavirus‘ zu bemerken sein würden. Jetzt kann ich sagen: ja, waren sie. Corona war gefühlt neben der Strategic Research Agenda für das kommende Forschungsrahmenprogramm Horizon Europe und künstlicher Intelligenz das vorherrschende Thema.

Direkt zu Beginn wurde erstens klar, dass die EU-Kommission wegen Reisebeschränkungen ausnahmsweise dem ERF komplett fernbleiben würde. Zweitens galt während des gesamten Events striktes Handschüttelverbot (das wird uns in nächster Zeit wohl noch häufiger begegnen). Und drittens wurden jeden Tag am Eingang des Veranstaltungsortes bei allen Teilnehmern die Temperatur gemessen. Ob wirklich jemand nach Hause geschickt wurde, weiß ich nicht, die Atmosphäre hat es aber natürlich trotzdem beeinflusst. Mein Husten und Schnupfen wurde während der Veranstaltung auch regelmäßig äußerst skeptisch beäugt.

Händeschütteln verboten beim ERF 2020
Händeschütteln verboten beim ERF 2020

Exhibition

Die Ausstellungsfläche, auf der beim ERF traditionell in den Mittags- und Kaffee-Pausen Roboter und Robotikprojekte gezeigt werden, war auch dementsprechend ausgedünnt. Unter Anderem fehlte der Hauptsponsor des Events, ABB. ABB hätte dort sonst wahrscheinlich einen größeren Stand mit mehreren Robotern gezeigt.

Ausgedünnte Ausstellungsfläche beim ERF
Viele offene Flächen, wo eigentlich Roboter stehen sollten

Unserem Stand, vom micro-ROS-Projekt, tat dieser Umstand allerdings keinen Abbruch. Wir hatten über alle Tage viele interessierte Besucher, die unsere Demo gesehen und mit uns über ROS auf Mikrocontrollern diskutiert haben. Überraschenderweise schienen die Besucher des ERF ähnlich viele Unklarheiten und Fragen zu dem – theoretisch verbreiteten und schon über zwei Jahre alten – ROS-NachfolgerROS 2‚ zu haben wie zu unserem vergleichsweise kleinen Projekt. Da hat ROS 2 wohl noch Nachholbedarf in der Dokumentation und Kommunikation.

micro-ROS-Stand beim ERF 2020
Viel Diskussion am micro-ROS-Stand

Workshops

Abseits der Ausstellungsfläche haben in den Workshops meinem Eindruck nach zwei Themen dominiert: künstliche Intelligenz (AI) und die Strategic Research and Innovation Agenda (SRIA) für Horizon Europe. Dies betrifft zumindest die Workshops, die auch tatsächlich stattgefunden haben. Mehrere der ursprünglich geplanten Workshops und Vorträge fielen nämlich aus oder wurden spontan von anderen Teilnehmern vertreten.

Die SRIA war so präsent, da sie beeinflusst, zu welchen Themen die EU-Kommission in den Jahren 2021–2027 ca. 100 Milliarden Euro Forschungsgelder zur Verfügung stellen wird (nicht ausschließlich für die Robotik, selbstverständlich). Dass AI so im Fokus des ERF stand liegt daran, wie die EU-Kommission das Verhältnis von AI und Robotik sieht bzw. – besser gesagt – definiert. Sie hat nämlich erklärt, dass sie Robotik als Teil von AI versteht und nur in dem Rahmen fördern wird. Die Robotik-Community sieht das natürlich anders, nämlich dass AI und Robotik zwei separate Disziplinen mit einigen Überschneidung sind. Will man sich allerdings mit der EU-Kommission vertragen, muss man diese Sichtweise zähneknirschend tolerieren.

In diesem Rahmen habe ich während der Veranstaltung auch gelernt, dass ich in diesem Jahr wohl noch ein bis zwei Male in Brüssel sein werde. Als Koordinatoren einer der euRobotics-Topicgroups werde ich dort wohl am Input für die SRIA mitarbeiten. Wahrscheinlich geht’s damit schon im Mai los.

Abseits davon hat mich persönlich gefreut, dass auch das Thema Sicherheit (sowohl im Sinne von Safety als auch von Security) beim ERF präsenter wird. So habe ich drei gute Workshops zum Thema Safety besucht, unter anderem in der Industrierobotik, in dem ich auch selbst vorgetragen habe. Ich hoffe, das bleibt so, denn dieses Thema schien mir in den letzten Jahren bei euRobotics deutlich unterrepräsentiert.

Insgesamt also ein ausgedünntes European Robotics Forum in diesem Jahr, mit trotzdem einigen interessanten Themen, aber leider wenigen Robotern. Im nächsten Jahr hoffentlich dann wieder mit vollem Schwung, dann geht’s zum ERF 2021 nach Rotterdam!

European Robotics Forum 2019

Ich hatte den Blogeintrag schon fertig geschrieben, wollte von meinem geplanten fünften Besuch bei einem European Robotics Forum (ERF) in diesem Jahr erzählen, da hab ich doch noch einmal zur Sicherheit nachgesehen: es ist in diesem Jahr sogar schon mein sechstes ERF. Vergessen hatte ich meine erste Teilnahme, 2012 in Odense. Damals, genau wie beim ERF 2013 in Lyon, noch als Doktorand von der Uni, jetzt seit 2016 in Ljubljana, 2017 in Edinburgh und 2018 in Tampere als Mitarbeiter von Bosch.

In diesem Jahr, übernächste Woche, findet das ERF in Bukarest in Rumänien statt. Nachdem ich seit Jahren darauf hinwirke, wird sich dieses Mal mein Arbeitgeber, Bosch Research, auch etwas präsenter zeigen und mit Sponsoring und einem Ausstellungsstand beteiligen.

Ich selbst werde als einer von zwei Koordinatoren der Topicgroup zu Software Engineering, System Integration und System Engineering in der Robotik wie auch im letzten Jahr wieder einen Workshop ausrichten, sowie am letzten Konferenztag einen Kurzvortrag zu Safety in der Robotik halten. Abseits davon wird es mir wieder hauptsächlich darum gehen, die aktuelle Stimmung in der europäischen Robotik mitzubekommen, Bekannte aus der Robotik wieder zu treffen, neue Roboter zu sehen und wahrscheinlich werde ich mich auch regelmäßig mal am Bosch-Stand sehen lassen.

Ich freue mich über jeden Leser, der auch in Bukarest ist, mich anspricht und mit mir tagsüber einen Kaffee oder abends beim Social Event mit mir anstößt.

Hier geht’s zum diesjährigen European Robotics Forum 2019. #erf2019

Disclaimer: Ich bin Mitarbeiter der Robert Bosch GmbH und forsche dort an Robotern und autonomen Systemen. Die hier geäußerten Meinungen und Ansichten sind allerdings ausschließlich persönlich und stimmen nicht zwingend mit der Unternehmenssicht überein.

Compliance

Traditionell ist die Interaktion mit Robotern darauf beschränkt, dass dem Roboter Kommandos zugesandt werden (in der Regel als textuelle Kommandos, seltener per Sprache) und der Roboter über geeignete Sensorik (Kameras, Mikrofone, Laserscanner, …) seine Umgebung wahrzunehmen versucht. Was dabei in der Interaktion mit Menschen entsteht, ist allerdings häufig eine holprige, wenig natürliche und dadurch für Menschen oft anstrengende Interaktion. Dass man auf diese Art und Weise auch Menschen mit Robotern interagieren lässt, die nicht an der Entwicklung beteiligt waren und dadurch nicht Verständnis für diese Schwierigkeiten aufbringen, passiert daher eher selten.

Eine Form der Interaktion, die sehr viel natürlicher ist, weil sie durch die physische Rückkopplung sehr viel direkter ist, ist die direkte Berührung und damit das Führen des Roboters. Der Mensch fasst den Roboter an der Hand (sofern er eine solche besitzt) und leitet den Roboter an. In der Robotik ist dies ein relativ aktueller Zweig der sogenannten Mensch-Maschine-Interaktion (MMI, Human Machine Interaction – HMI). Im Umfeld der industriellen Robotik sind ähnliche Techniken unter den Begriffen Teach-In und Kinestethic Teaching zu finden.

Es gibt mehrere Möglichkeiten, einen Roboter für diese Form der Interaktion auszustatten. Eine Möglichkeit ist es, die Hardware des Roboters bewusst so zu konstruieren, etwa durch die Integration von mechanischen Federn in Struktur des Roboters, dass dieser nachgiebig ist. Diese Art der Nachgiebigkeit wird in der Robotik bzw. Regelungstechnik als Passive Nachgiebigkeit (engl.: Passive Compliance) bezeichnet, da sie – einmal verbaut – das System ohne weiteres Zutun dauerhaft nachgiebig gestaltet.

Eine aufwendigere, aber dafür auch flexiblere Möglichkeit ist die Aktive Nachgiebigkeit (engl.: Active Compliance). Hierbei kann die Roboterhardware mechanisch völlig steif sein; die Nachgiebigkeit des Systems wird durch eine entsprechende Ansteuerung der Motoren simuliert. Dafür ist der Roboter mit Kraftsensorik ausgerüstet, die dem System konstant die auf den Roboter einwirkenden externen Kräfte meldet. Eine geschickte Regelung (Wikipedia) lässt den Roboter dann auf diese Kräfte auf die gleiche Art und Weise reagieren, wie es eine reale Feder tun würde: Bei kleiner Krafteinwirkung gibt der Roboter mit einer kleinen Bewegung nach, bei größerer Krafteinwirkung reagiert der Roboter mit einer deutlicheren Ausweichbewegung. Nicht, weil die Motoren nicht kräftig genug wären, den Kräften entgegenzuhalten, sondern weil dieses Verhalten den Eindruck eines weichen, nachgiebigen Systems erweckt und erwecken soll. Wie so eine Interaktion aussehen kann, zeigt das folgende Video:

Der iCub wird geführt und kann Objekte ertasten

Nachgiebigkeit ist dabei allerdings nicht allein für Interaktion eingesetzt; es ist auch ein enormer Sicherheitsaspekt. Ein Roboter, der mit seiner Umgebung (im schlimmsten Fall dem Menschen) kollidiert, weil er sie nicht richtig erkannt hat, richtet potentiell deutlich weniger Schaden an, wenn er nachgiebig ist;
Schaden an sich und der Umwelt. Dies gilt für passive Nachgiebigkeit, genauso wie für aktive Nachgiebigkeit, wie das Deutsche Luft- und Raumfahrtzentrum im folgenden Video eindrücklich und mit offenbar ausreichend Vertrauen in die Technik beweist; am Ende des Videos mit Messer und einem menschlichen Probanden:

KUKA Lightweight Robot IV mit Kollisionserkennung

Asimovs Roboter-Gesetze überarbeitet

Isaac Asimov ist bekannt für seine drei Roboter-Gesetze, die er 1942 in seiner Geschichte Runaround erstmals erwähnte:

  1. Ein Roboter darf kein menschliches Wesen wissentlich verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel 1 kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel 1 oder 2 kollidiert.

Noch sind Roboter (ist die künstlich Intelligenz) noch nicht weit genug, dass sie eigene Entscheidungen treffen. Diese Gesetze sind also nach wie vor rein fiktional. Mit den Fortschritten in der Robotik und der künstlichen Intelligenz der letzten Jahre … nein … mit den absehbaren Fortschritten in den nächsten Jahren … nein … mit den möglichen, zukünftigen Fortschritten in dem Bereich der künstlichen Intelligenz kann es Sinn machen, diese Regeln für ihren realen Einsatz vorzubereiten, meint David Woods, Robotiker an der Ohio State University. Er sagt, die zunehmende Faszination für immer eigenständigere Roboter führt mitunter dazu, dass ihnen mehr und mehr Entscheidungen überlassen werden – was böse Folgen haben kann.

Woods und seine Kollegen schlagen daher eine Abwandlung der drei Asimov-Regeln vor, die den Schaffer mehr in die Verantwortung nimmt. Frei übersetzt:

  1. Menschen dürfen keine Roboter einsetzen, die nicht die höchsten rechtlichen und fachlichen Standards bzgl. Sicherheit und Ethik mitbringen. („[…] says that humans may not deploy robots without a work system that meets the highest legal and professional standards of safety and ethics.“)
  2. Roboter müssen Menschen gemäß ihrer Stellung gehorchen. Es gibt eine Gruppe von Menschen von denen Roboter Befehle entgegennehmen. („[…] requires robots to respond to humans as appropriate for their roles, and assumes that robots are designed to respond to certain orders from a limited number of humans.“)
  3. Roboter sind selbstständig genug, um ihre eigene Existenz zu schützen, solange dies nicht mit Regel 1 oder 2 kollidiert. („[…] proposes that robots have enough autonomy to protect their own existence, as long as such protection does not conflict with the first two laws and allows for smooth transfer of control between human and robot.“)

Woods empfiehlt außerdem, dass sich Robotiker in dieser Hinsicht an der NASA orientieren sollten, die z. B. Regel 3 schon erfolgreich einsetzt. Die Marsrover sind nur begrenzt selbstständig, in dem Sinne, dass sie jeden Tag erneut die Anweisungen entgegennehmen, was sie als nächstes zu tun haben. Sie sind aber selbstständig genug, über keine Klippe zu fahren, solange die NASA-Ingenieure ihnen nicht die explizite Anweisung dazu geben. Dies dürfte unter Anderem daran liegen, dass sich die NASA nicht leisten kann, mit ihren Robotern unvorsichtig umzugehen. Sei es, ihnen zu viel Kontrolle zu überlassen und diese gegebenenfalls zu verlieren, oder sei es, ihnen zu wenig Kontrolle zu überlassen und damit zu riskieren, dass sie versehentlich von den NASA-Ingenieuren ins Verderben manövriert werden. Man wird eben vorsichtiger im Umgang mit Robotern, wenn Reparatur oder Ersatz mehrere Millionen Kilometer und Milliarden Dollar entfernt sind.

Via MSNBC.