Elon Musk hat auf dem Tesla „AI Day“ den Tesla Bot angekündigt: einen Humanoiden mit einer Größe von knapp 1,80 m. Er soll zukünftig „gefährliche, sich wiederholende oder langweilige Aufgaben“ für den Menschen übernehmen können.
Elon Musk hat mit Tesla und SpaceX durchaus gezeigt, dass er gewisse Disziplinen (Elektromobilität, Raumfahrt) kräftig aufräumen kann, aber diese Ankündigung wirkt doch nochmal ein gutes Stück verwegener. Die Reaktionen reichen daher bislang auch eher von„AI Day, und damit auch dieser Roboter, ist eher Marketinginstrument beim Buhlen um Mitarbeiter“ bis zu „Elon Musk hat noch nicht verstanden, was ein humanoider Roboter eigentlich überhaupt ist und was man dafür benötigt“:
Elon Musk behauptet in seinem Auftritt jedenfalls, dass Tesla mit seinen Autos praktisch schon alle Komponenten für einen intelligenten, autonomen Humanoiden besitzt und beherrscht. Dass die Ankündigung, anders als Ankündigungen etwa von neuen Auto-Modellen, allerdings ohne Prototyp auskommt, sondern stattdessen einen Roboterdarsteller nutzt, ist sicher kein Zufall:
Spannend finde ich bei der Ankündigung, dass Elon Musk – bislang eher als Turbo-Kapitalist aufgefallen – die Notwendigkeit von allgemeinem Grundeinkommen anspricht. Ob das Thema langsam gesellschaftsfähig(er) wird? Eine breitere Diskussion und größere Bühne ist bei zunehmender Automatisierung zumindest sicher nicht schädlich.
Übrigens: Hat Elon Musk nicht noch kürzlich vor intelligenten Robotern gewarnt und gefordert, per Gesetz KI und selbstständige Roboter zu beschränken, weil sie uns alle töten werden?
Was Boston Dynamics heute zeigt ist aber einfach ein Brett und so unfassbar gut! Die Bewegungen der Roboter sind so flüssig und dynamisch, dass ich mich mehrfach während des Videos daran erinnern muss, dass es weder CGI noch ein Mensch in Roboterkostüm ist:
I’m back to let you know I can really shake ‚em down
Eigentlich sollte die IROS, neben der ICRA die wohl wichtigste Robotik-Konferenz, in diesem Jahr im Oktober in Las Vegas stattfinden. Eigentlich. Natürlich macht der neuartige Coronavirus diesem Plan einen Strich durch die Rechnung, wie zuletzt schon der ICRA und auch der ROSCon und vielen anderen Konferenzen weltweit.
Die gute Nachricht ist aber: sie findet virtuell statt, als IROS 2020 On-Demand. Und noch besser: sie ist komplett kostenlos.
Mit der kostenlosen Registrierung gibt es Zugang zu allen technischen Vorträgen, Panel-Diskussionen, Keynotes, Workshops, Tutorials, etc. Wenn ich es richtig verstehe, gibt es damit auch kostenlosen Zugriff auf die Proceedings bei IEEE und damit auf alle Konferenzbeiträge in schriftlicher Form.
Es lohnt also, sich zu registrieren und zwar hier: IROS 2020 Sign-Up. Am 25. Oktober 2020 geht’s los und geht bis zum 25. November.
Ein weiterer Artikel aus der Serie „Roboter gegen COVID-19“: Pepper erinnert uns daran, unsere Mund-Nasen-Bedeckung (MNB) zu tragen.
Geplante Einsatzorte für Pepper sind sowohl Geschäfte als auch Büros, in denen Menschen auch mal versehentlich vergessen, Ihre Masken zu tragen. Die in Pepper eingebaute, auf OpenCV basierende Gesichtserkennung kann das erkennen und ein entsprechendes Verhalten bei Pepper auslösen. Erkennt Pepper etwa, dass die untere Gesichtshälfte nicht ordentlich bedeckt ist, weist der Roboter freundlich darauf hin („You have to always wear a mask properly.“, etwa: „Sie müssen ihre Maske immer ordentlich tragen.“). Setzt die betreffende Person ihre Maske dann allerdings auf, bedankt sich Pepper auch artig: „Thank you for having put on your mask“ (etwa: „Danke für das Ausetzen der Maske“).
Wie im folgenden Video zu sehen ist, kann Pepper mehrere Personen gleichzeitig nach Masken scannen und zeigt diese auf seinem Display entweder mit roter Umrandung (trägt keine MNB) oder grüner Umrandung an:
Das Verhalten des Roboters kann laut Hersteller SoftBank noch erweitert werden, zum Beispiel dem Geschäft zu melden, wenn sich in ihm Personen ohne Masken aufhalten. Als Roboter-Polizei sei das nicht gedacht, versichert man bei SoftBank, sondern nur als freundliche Erinnerung. Nunja…
Im Video ist leider nicht zu erkennen, wie gut das wirklich funktioniert. Dort wirkt es doch etwas aufgesetzt und alle Personen beugen sich ganz deutlich vor die Kamera des Roboters. Solch optimalen Bedingungen für die Gesichts- bzw. Maskenerkennung dürfte es im echten Geschäfts- und Büroumfeld doch seltener geben.
Dieser Artikel wird weniger schlüpfrig als es der Titel verspricht. Gisela ist nämlich ein Roboter und mit Bikini ist das Bikini Berlin gemeint, also ein Einkaufszentrum. Dort steht, wie mich eine Freundin vor einigen Tagen aufmerksam gemacht hat, ein Roboter, der Spielzeugroboter zusammensteckt und verkauft.
Der sogenannte Workerbot hat zwei 85 cm langen Arme, dem Anschein nach zwei Universal Robots, und eine Größe von 2,10 m. Gebaut wurde er von der Berliner Firma pi4. Seinen Namen, Gisela, hat der Roboter von der Mutter des Erfinders und Firmenchefs, Matthias Krinke.
Interessierte können Gisela im Erdgeschoss des Einkaufszentrums Bikini Berlin bestaunen. Gegen 6 Euro baut der sogenannte Workerbot innerhalb von sechs Minuten einen kleinen Papp-Roboter aus 14 Teilen zusammen. Elf Stunden am Tag, ohne Pause. Wenn ich nächstes Mal in Berlin bin, will ich die 6 Euro auf jeden Fall investieren.
Gemäß zweier Studien der TU Darmstadt steigt durch die Corona-Pandemie die Akzeptanz für humanoide Roboter, schreibt die Süddeutsche. In den Studien wurden 475 Arbeitnehmer:innen beziehungsweise Führungskräfte aus den USA befragt und 250 aus Deutschland.
Die Ergebnisse seien recht eindeutig, mehr als zwei Drittel der Befragten hätten deutliche Vorteile von Servicerobotern gesehen, z.B. gesenktes Infektionsrisiko, Vorbeugen vor Fachkräftemangel und Entlastung menschlicher Arbeitskräfte.
Ob diese Ergebnisse auch über die Pandemie hinaus Bestand haben?
Schon seit längerem geplant und jetzt in Vorbereitung eines längeren Artikels endlich mal dazu gekommen: ein Interview mit Arne Maibaum von NotMyRobots über NotMyRobots.
Ich bin eigentlich nur mit einigen, wenigen Fragen ins Interview gegangen, rund um eine Kernfrage in Vorbereitung meines Artikels. Das Gespräch hat dann aber doch insgesamt fast eine Stunde gedauert und war extrem interessant. Es ging um den Terminator und Roboter, die uns die Jobs weg nehmen, aber auch um viele unerwartete Aspekte wie Sexismus, Rassismus und Epistemologie. Wie Arne Maibaum zum Ende des Gesprächs sagt: „Das kommt davon, wenn man mit SozialwissenschaftlerInnen redet.“ Hier also das ganze Interview:
Ich: Hallo, Arne! Für alle, die es noch nicht kennen: Was ist NotMyRobots überhaupt?
Arne Maibaum: Wir haben ja auch eine kleine Beschreibung in unserem Twitter-Profil und auf unserer Website. Vor allem auf Twitter haben wir gesehen, dass wahnsinnig viele ganz fürchterliche, unrealistische, aber vor allem auch tatsächlich falsche Visualisierungen für populärwissenschaftliche Robotik-Artikel benutzt werden. Allerdings teilweise auch in Teasern zu wissenschaftlichen Artikeln. Das sind unrealistische Bilder in Artikeln zu Robotern, aber auch – in letzter Zeit immer mehr – in Artikeln zu AI, die ja häufig auch mit Robotern bebildert werden.
‚Wir‘ sind dabei Philipp,Lisa, Laura und ich. Phillip und ich arbeiten bei einer Robotikgruppe an der TU Berlin. Laura und Lisa sind in München und arbeiten auch aus einer sozial- bzw. kultur-wissenschaftlichen Perspektive an dem Thema Robotik. Phillip und ich sind zwar beide Soziologen, sind aber in der Mensch-Roboter-Interaktion gelandet. Wir haben alle schon immer diese Bilder gesammelt. Das heißt, alle von uns hatten ohnehin schon so eine kleiner Galerie des Schreckens in der Hand. Lisa widmet sich außerdem in ihrer Arbeit dem Roboter in der Popkultur der Amerikanischen Geschichte. Das heißt, sie hat das auch in Ihrer Dissertation benutzen können.
Aus diesem Konglomerat haben wir uns dann überlegt, dass wir das in irgendeiner Weise publik kritisieren müssen. Als eine Maßnahme dafür haben wir den Twitter-Account @NotMyRobots gegründet, der versucht, auf Twitter aufzuzeigen, wenn diese Symbolbilder verwendet werden. Wenn uns jemand solche Bilder über den Hashtag #notmyrobot zuträgt, das machen mittlerweile ziemlich viele, re-tweeten und sammeln wir die. Je nach Bild versuchen wir auch mit eigenen kritischen Kommentaren aufzuzeigen, warum wir das nicht gut finden.
Wie sind die Leute auf Euch gekommen? Also wie ist das passiert, dass da jetzt mittlerweile so viele mithelfen?
Ich denke mal, viele Robotiker stört das ganz gewaltig. Ich glaube aber auch, gerade viele Leute, die aus den Humanwissenschaften kommen, sind da auch extrem sensibel für. Viele von denen haben solche Bilder auch vorher schon immer gesehen und den Kopf geschüttelt. Da ergibt sich dann eine gewisse Anzahl von Leuten, die dieses Problem auch sehen und denen unsere Initiative gefällt. Die nutzen dann unseren Hashtag oder taggen uns.
Das ist interessant. Mir fallen diese Bilder natürlich auch seit Jahren auf, mindestens seitdem ich selber in der Robotik bin. Ich rolle dann auch mit den Augen, habe aber nie wirklich reflektiert, dass das wirklich schädlich ist. Warum ist das denn so schlecht?
Also wovon wir immer ausgehen ist, dass Technik nicht aus dem leeren Raum kommt und Roboter nicht einfach so gebaut werden, wie es die Technik empfiehlt. Sondern, und das ist jetzt die soziologische Perspektive, Technik ist immer mensch-gemacht und immer sozial konstruiert. Als ein solches ist sie natürlich auch Aushandlungsprojekt davon, wie die Gesellschaft Robotik und Roboter sieht. In die Kommunikation darüber, wie so eine Technologie konstruiert wird, spielt natürlich Visualisierung eine große Rolle. Bei Pflegerobotern zum Beispiel sehen wir zwei Erwartungen, die stark mit Visualisierungen gekoppelt sind:
Als allererstes ist da immer der Terminator-Roboter, der aus irgendwelchen Gründen bei Robotik-Artikeln immer wieder auftaucht. Damit geht die Erwartung einher, dass zukünftige Roboter eiskalt sein werden und potentiell tödliche Maschinen sind, mit Metallgreifern, die nach uns greifen wollen. Das ist natürlich das Horrorszenario, das schürt Angst und führt dazu, dass Leute damit nichts mehr zu tun haben wollen.
Eines meiner liebsten Beispiele ist aus einem Projekt, in dem ich als Student tätig war. Wir hatten autonom fahrende Transportsysteme, die in Krankenhäusern zum Beispiel zum Transport von Wäschekisten eingesetzt wurden: der Casero-Roboter. Die sollten dann auf einer Bohrinsel eingesetzt werden, also bei Männern, die über viele Kilometer explosionsfähiges Material anbohren. Die haben sich aber strikt geweigert, einen solchen Roboter auf ihre Bohrinsel zu nehmen, weil sie Angst davor hatten, dass der sie alle umbringt. Dieses Bild kommt natürlich durchaus aus der Science-Fiction und dieser Angst, einer solchen Maschine ausgeliefert zu sein. Und wenn wir dann Artikel sehen, die so ein Bild unter ‚Roboter sollen uns helfen‘ setzen, ist das natürlich inhärent problematisch dafür, wie die Technik wahrgenommen wird. Das hat natürlich dann auch Einfluss auf Fördergelder usw.
Seit Freitag bin ich zurück vom European Robotics Forum 2020. Auf dem Hinweg hatte ich noch gerätselt, ob wohl die Auswirkungen des Coronavirus‘ zu bemerken sein würden. Jetzt kann ich sagen: ja, waren sie. Corona war gefühlt neben der Strategic Research Agenda für das kommende ForschungsrahmenprogrammHorizon Europe und künstlicher Intelligenz das vorherrschende Thema.
Direkt zu Beginn wurde erstens klar, dass die EU-Kommission wegen Reisebeschränkungen ausnahmsweise dem ERF komplett fernbleiben würde. Zweitens galt während des gesamten Events striktes Handschüttelverbot (das wird uns in nächster Zeit wohl noch häufiger begegnen). Und drittens wurden jeden Tag am Eingang des Veranstaltungsortes bei allen Teilnehmern die Temperatur gemessen. Ob wirklich jemand nach Hause geschickt wurde, weiß ich nicht, die Atmosphäre hat es aber natürlich trotzdem beeinflusst. Mein Husten und Schnupfen wurde während der Veranstaltung auch regelmäßig äußerst skeptisch beäugt.
Exhibition
Die Ausstellungsfläche, auf der beim ERF traditionell in den Mittags- und Kaffee-Pausen Roboter und Robotikprojekte gezeigt werden, war auch dementsprechend ausgedünnt. Unter Anderem fehlte der Hauptsponsor des Events, ABB. ABB hätte dort sonst wahrscheinlich einen größeren Stand mit mehreren Robotern gezeigt.
Unserem Stand, vom micro-ROS-Projekt, tat dieser Umstand allerdings keinen Abbruch. Wir hatten über alle Tage viele interessierte Besucher, die unsere Demo gesehen und mit uns über ROS auf Mikrocontrollern diskutiert haben. Überraschenderweise schienen die Besucher des ERF ähnlich viele Unklarheiten und Fragen zu dem – theoretisch verbreiteten und schon über zwei Jahre alten – ROS-Nachfolger ‚ROS 2‚ zu haben wie zu unserem vergleichsweise kleinen Projekt. Da hat ROS 2 wohl noch Nachholbedarf in der Dokumentation und Kommunikation.
Workshops
Abseits der Ausstellungsfläche haben in den Workshops meinem Eindruck nach zwei Themen dominiert: künstliche Intelligenz (AI) und die Strategic Research and Innovation Agenda (SRIA) für Horizon Europe. Dies betrifft zumindest die Workshops, die auch tatsächlich stattgefunden haben. Mehrere der ursprünglich geplanten Workshops und Vorträge fielen nämlich aus oder wurden spontan von anderen Teilnehmern vertreten.
Die SRIA war so präsent, da sie beeinflusst, zu welchen Themen die EU-Kommission in den Jahren 2021–2027 ca. 100 Milliarden Euro Forschungsgelder zur Verfügung stellen wird (nicht ausschließlich für die Robotik, selbstverständlich). Dass AI so im Fokus des ERF stand liegt daran, wie die EU-Kommission das Verhältnis von AI und Robotik sieht bzw. – besser gesagt – definiert. Sie hat nämlich erklärt, dass sie Robotikals Teil von AI versteht und nur in dem Rahmen fördern wird. Die Robotik-Community sieht das natürlich anders, nämlich dass AI und Robotik zwei separate Disziplinen mit einigen Überschneidung sind. Will man sich allerdings mit der EU-Kommission vertragen, muss man diese Sichtweise zähneknirschend tolerieren.
In diesem Rahmen habe ich während der Veranstaltung auch gelernt, dass ich in diesem Jahr wohl noch ein bis zwei Male in Brüssel sein werde. Als Koordinatoren einer der euRobotics-Topicgroups werde ich dort wohl am Input für die SRIA mitarbeiten. Wahrscheinlich geht’s damit schon im Mai los.
Abseits davon hat mich persönlich gefreut, dass auch das Thema Sicherheit (sowohl im Sinne von Safety als auch von Security) beim ERF präsenter wird. So habe ich drei gute Workshops zum Thema Safety besucht, unter anderem in der Industrierobotik, in dem ich auch selbst vorgetragen habe. Ich hoffe, das bleibt so, denn dieses Thema schien mir in den letzten Jahren bei euRobotics deutlich unterrepräsentiert.
Insgesamt also ein ausgedünntes European Robotics Forum in diesem Jahr, mit trotzdem einigen interessanten Themen, aber leider wenigen Robotern. Im nächsten Jahr hoffentlich dann wieder mit vollem Schwung, dann geht’s zum ERF 2021 nach Rotterdam!
Auf dem Weg zum ERF 2020 nach Málaga, trotz Coronavirus! Ich weiß schon von mehreren Teilnehmern, die ihre Reise zum European Robotics Forum in diesem Jahr aus diesem Grunde ganz kurzfristig gecancelt haben. Ich halte mich allerdings an die von den Organisatoren extra eingerichtete Seite Coronavirus Policy for ERF2020, die sich recht informiert und pragmatisch gibt und aktuell (Stand 28. Februar) keinen Grund zur Absage sieht.
Ich bin aber gespannt, ob sich vor Ort eine Ausdünnung im Vergleich zu den letzten Jahren erkennen lässt.
Ich bin schon heute unterwegs, da a) Eurowings nur Sonntags, Mittwochs und Freitags zwischen Stuttgart und Málaga direktfliegt und b) da ich morgen am Tag vor dem ERF schon ein Projekttreffen mit dem micro-ROS-Projekt (OFERA) habe. Zusammen mit dem MROS-Projekttreffen auch im Rahmen des ERF ist der CO²-Ausstoß des Flugs (der von meinem Arbeitgeber kompensiert wird) zumindest effektiv genutzt.
Wie immer gilt: Ich freue mich über jeden Leser, der auch beim ERF ist, mich anspricht und mit mir tagsüber einen Kaffee trinkt oder abends beim Social Event mit mir anstößt. Ich bin wahrscheinlich in den Pausen auch regelmäßig an Stand 27 zu finden.
Wo kann man sich im deutsch-sprachigen Raum von Robotern bekochen oder bedienen lassen? Im asiatischen Raum gibt es jede Menge Restaurants mit Roboterpersonal, auch in den USA einige, aber auch in Deutschland und Österreich habe ich welche gefunden. Kennt ihr noch mehr? Dann rein in die Kommentare!
Insgesamt scheint man sich einigermaßen einig zu sein, dass das chinesische Restaurant „Neue Epoche“ in Moers bei Düsseldorf das erste Restaurant in Deutschland war, in dem Roboter ihren Dienst verrichten.
Hier sind allerdings noch ein paar weitere, die ich auftreiben konnte:
„Neue Epoche“ (Chinesisch) in Moers – Roboter servieren Speisen und Getränke
„Rollercoaster Restauarant“ in Wien – Roboter mixen die Getränke und schicken sie über Rutschen zu den Tischen — es gibt zwar auch weitere Rollercoaster Restaurants in Deutschand (Dresden, Hamburg, ..), aber wohl ohne Roboter, nur mit Rutschen
„AI Wok“ (Asiatisch) in Düsseldorf – erst letztes Jahr eröffnet
„Kofookoo“ (Asiatisch) in Hamburg – Bestellung per Tablet, fahrendes Regal bringt die Bestellung zum Tisch
„HIRO“ (Japanisch) in Wien – Roboter bringen das Sushi an den Tisch
Zwei Sachen sind dabei auffällig: erstens sind die Restaurants überwiegend (bis auf eine Ausnahme) asiatisch. Das passt zu der Tatsache, dass China und Japan weltweit mit Abstand in der Rangliste der Roboter-Restaurants führen. Zweitens ist in den Artikeln über Roboter-Restaurants nicht in erster Linie von dem besonderen Erlebnis als Hauptgrund für Roboterpersonal die Rede. Stattdessen wird als primärer Grund der Fachkräftemangel in der Gastronomie angegeben, siehe zum Beispiel hier und hier.
Ich würde auf jeden Fall gerne mal ein solches Restaurant besuchen und mich von Robotern bekochen und bedienen lassen, habe es aber bislang noch nicht geschafft. Bei der obigen dünnen Auswahl im deutschsprachigen Raum scheint die Gelegenheit dazu ja auch im Ausland fast besser zu sein.
Hier noch ein cooles Video von einem chinesischen Restaurant (in China), das mit Robotern förmlich vollgestopft ist:
(Youtube weißt bei dem Video übrigens explizit darauf hin, dass dieses Video ganz oder teilweise von der chinesischen Regierung finanziert wird. Dass es sich um ein Marketingvideo handelt, dürfte aber ohnehin erkennbar sein)