NotMyRobots – Interview mit Arne Maibaum

Schon seit längerem geplant und jetzt in Vorbereitung eines längeren Artikels endlich mal dazu gekommen: ein Interview mit Arne Maibaum von NotMyRobots über NotMyRobots.

HAL
HAL 9000, augenzwinkerndes Logo von NotMyRobots [Quelle]

Ich bin eigentlich nur mit einigen, wenigen Fragen ins Interview gegangen, rund um eine Kernfrage in Vorbereitung meines Artikels. Das Gespräch hat dann aber doch insgesamt fast eine Stunde gedauert und war extrem interessant. Es ging um den Terminator und Roboter, die uns die Jobs weg nehmen, aber auch um viele unerwartete Aspekte wie Sexismus, Rassismus und Epistemologie. Wie Arne Maibaum zum Ende des Gesprächs sagt: „Das kommt davon, wenn man mit SozialwissenschaftlerInnen redet.“ Hier also das ganze Interview:

Ich: Hallo, Arne! Für alle, die es noch nicht kennen: Was ist NotMyRobots überhaupt?

Arne Maibaum: Wir haben ja auch eine kleine Beschreibung in unserem Twitter-Profil und auf unserer Website. Vor allem auf Twitter haben wir gesehen, dass wahnsinnig viele ganz fürchterliche, unrealistische, aber vor allem auch tatsächlich falsche Visualisierungen für populärwissenschaftliche Robotik-Artikel benutzt werden. Allerdings teilweise auch in Teasern zu wissenschaftlichen Artikeln. Das sind unrealistische Bilder in Artikeln zu Robotern, aber auch – in letzter Zeit immer mehr – in Artikeln zu AI, die ja häufig auch mit Robotern bebildert werden.

Google-Bildersuche nach'Robot AI'
Beispielhafte Google-Bildersuche nach ‚Robot AI‘

‚Wir‘ sind dabei Philipp, Lisa, Laura und ich. Phillip und ich arbeiten bei einer Robotikgruppe an der TU Berlin. Laura und Lisa sind in München und arbeiten auch aus einer sozial- bzw. kultur-wissenschaftlichen Perspektive an dem Thema Robotik. Phillip und ich sind zwar beide Soziologen, sind aber in der Mensch-Roboter-Interaktion gelandet. Wir haben alle schon immer diese Bilder gesammelt. Das heißt, alle von uns hatten ohnehin schon so eine kleiner Galerie des Schreckens in der Hand. Lisa widmet sich außerdem in ihrer Arbeit dem Roboter in der Popkultur der Amerikanischen Geschichte. Das heißt, sie hat das auch in Ihrer Dissertation benutzen können.

Aus diesem Konglomerat haben wir uns dann überlegt, dass wir das in irgendeiner Weise publik kritisieren müssen. Als eine Maßnahme dafür haben wir den Twitter-Account @NotMyRobots gegründet, der versucht, auf Twitter aufzuzeigen, wenn diese Symbolbilder verwendet werden. Wenn uns jemand solche Bilder über den Hashtag #notmyrobot zuträgt, das machen mittlerweile ziemlich viele, re-tweeten und sammeln wir die. Je nach Bild versuchen wir auch mit eigenen kritischen Kommentaren aufzuzeigen, warum wir das nicht gut finden.

Wie sind die Leute auf Euch gekommen? Also wie ist das passiert, dass da jetzt mittlerweile so viele mithelfen?

Ich denke mal, viele Robotiker stört das ganz gewaltig. Ich glaube aber auch, gerade viele Leute, die aus den Humanwissenschaften kommen, sind da auch extrem sensibel für. Viele von denen haben solche Bilder auch vorher schon immer gesehen und den Kopf geschüttelt. Da ergibt sich dann eine gewisse Anzahl von Leuten, die dieses Problem auch sehen und denen unsere Initiative gefällt. Die nutzen dann unseren Hashtag oder taggen uns.

Das ist interessant. Mir fallen diese Bilder natürlich auch seit Jahren auf, mindestens seitdem ich selber in der Robotik bin. Ich rolle dann auch mit den Augen, habe aber nie wirklich reflektiert, dass das wirklich schädlich ist. Warum ist das denn so schlecht?

Also wovon wir immer ausgehen ist, dass Technik nicht aus dem leeren Raum kommt und Roboter nicht einfach so gebaut werden, wie es die Technik empfiehlt. Sondern, und das ist jetzt die soziologische Perspektive, Technik ist immer mensch-gemacht und immer sozial konstruiert. Als ein solches ist sie natürlich auch Aushandlungsprojekt davon, wie die Gesellschaft Robotik und Roboter sieht. In die Kommunikation darüber, wie so eine Technologie konstruiert wird, spielt natürlich Visualisierung eine große Rolle. Bei Pflegerobotern zum Beispiel sehen wir zwei Erwartungen, die stark mit Visualisierungen gekoppelt sind:

Als allererstes ist da immer der Terminator-Roboter, der aus irgendwelchen Gründen bei Robotik-Artikeln immer wieder auftaucht. Damit geht die Erwartung einher, dass zukünftige Roboter eiskalt sein werden und potentiell tödliche Maschinen sind, mit Metallgreifern, die nach uns greifen wollen. Das ist natürlich das Horrorszenario, das schürt Angst und führt dazu, dass Leute damit nichts mehr zu tun haben wollen.

Eines meiner liebsten Beispiele ist aus einem Projekt, in dem ich als Student tätig war. Wir hatten autonom fahrende Transportsysteme, die in Krankenhäusern zum Beispiel zum Transport von Wäschekisten eingesetzt wurden: der Casero-Roboter. Die sollten dann auf einer Bohrinsel eingesetzt werden, also bei Männern, die über viele Kilometer explosionsfähiges Material anbohren. Die haben sich aber strikt geweigert, einen solchen Roboter auf ihre Bohrinsel zu nehmen, weil sie Angst davor hatten, dass der sie alle umbringt. Dieses Bild kommt natürlich durchaus aus der Science-Fiction und dieser Angst, einer solchen Maschine ausgeliefert zu sein. Und wenn wir dann Artikel sehen, die so ein Bild unter ‚Roboter sollen uns helfen‘ setzen, ist das natürlich inhärent problematisch dafür, wie die Technik wahrgenommen wird. Das hat natürlich dann auch Einfluss auf Fördergelder usw.

Continue reading „NotMyRobots – Interview mit Arne Maibaum“

Interview mit einem Roboter

Amy Harmon, Reporterin der New York Times, hat einen Artikel über den Roboter Bina48 geschrieben, einen sprechenden Roboterkopf. Hinter dem Kopf steckt eine künstliche Intelligenz, wie es heißt, und der Roboter soll sich mit seinem Gegenüber in der Art seiner Vorlage Bina Rothblatt, einer lebendigen Person, unterhalten. Was die Reporterin Amy Harmon unter dem vielversprechenden Titel Making Friends With a Robot Named Bina48 („Freundschaft schließen mit einem Roboter namens Bina48“) zeigt, ist für denjenigen, der ein natürliche Kommunikation erwartet, etwas ernüchternd. So auch für die Reporterin selbst, wie in der Aufzeichnung des Interviews erkennbar ist:

Interview mit Bina48 (englisch)

Der Roboter fokussiert seine Gesprächspartnerin nicht, versteht Fragen falsch oder gar nicht, usw. …

Eine natürliche Gesprächssituation zu erzeugen, ist für einen Roboter (bzw. deren Erschaffer) eine unglaublich schwierige Aufgabe. Der Mensch kommuniziert eben in einem Gespräch nicht nur über Sprache, sondern gleichzeitig über viele weitere Kanäle: Gestik, Mimik, Betonung, … entsprechend erwarten wir Menschen in einem Gespräch, auf sämtlichen dieser Kanäle von unserem Gegenüber plausible Signale zu empfangen. Ein Roboter, der mit uns spricht, aber über keine Mimik verfügt, wird niemals natürlich, menschlich wirken. Ein Roboter, der die Betonung nicht variiert, wird niemals Emotionen transportieren oder beim Gegenüber erzeugen können wie es mein Mensch vermag.

Und so sieht man die Schwierigkeiten der Reporterin, mit dem Roboter ein Gespräch zu führen. Schwierigkeiten, die nichtmal inhaltlicher Natur sind. Selbst wenn der Roboter die Frage versteht und eine einigermaßen plausible Antwort erzeugen kann: Wie er dabei wirr umhersieht, immer einen Moment zu lange mit dem Antworten wartet und mangels ausgeprägter Mimik nicht zu erkennen gibt, ob er gerade nachdenkt oder einfach die Frage nicht verstanden hat … all das verwirrt die Reporterin und sorgt mehrfach für ein stockendes Gespräch und gegenseitiges Unterbrechen.

Die Leistungen der Truppe um David Hanson von Hanson Robotics sollten bei alledem aber nicht unterschätzt werden. Der Chatbot Bina48 ist nicht schlecht … die Aufgabe – natürliche, menschliche Kommunikation – ist nur einfach eine unglaublich schwierige. Hier ist man in der Robotik noch ganz am Anfang der Entwicklung (das allerdings schon seit Jahrzehnten) und hat noch zahlreiche ungelöste Fragen vor sich.

Insofern ist Bina48 und dieses Interview einfach als ein weiterer Baustein in dieser Entwicklung zu verstehen und als weiterer Quell neuer Erkenntnisse. Für den Zuschauer macht dieses Interview anschaulich, wie sehr Roboter – bei allen Erfolgen in letzter Zeit – versagen, wenn man sie ins Feld lässt, in die sogenannte unstrukturierte Umgebung. Das ist unsere natürliche Umgebung, die nicht den künstlichen, vereinfachten Laborbedingung entspricht. In diesem Fall eine Reporterin, die einfach nur ein normales Gespräch führen möchte.

Der Original-Artikel in der New York Times mit Amy Harmons ganzem Erfahrungsbericht findet sich hier: Making Friends With a Robot Named Bina48 (englisch)