<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>interview Archive &ndash; botzeit</title>
	<atom:link href="https://botzeit.de/tag/interview/feed/" rel="self" type="application/rss+xml" />
	<link></link>
	<description>Robotik-Blog</description>
	<lastBuildDate>Wed, 20 Jul 2022 07:34:45 +0000</lastBuildDate>
	<language>de-DE</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.0.1</generator>

<image>
	<url>https://botzeit.de/wp-content/uploads/2020/01/cropped-favicon-1-1-32x32.png</url>
	<title>interview Archive &ndash; botzeit</title>
	<link></link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Robotics for Software Engineers – Interview mit Andreas Bihlmaier</title>
		<link>https://botzeit.de/robotics-for-software-engineers-interview-mit-andreas-bihlmaier/</link>
					<comments>https://botzeit.de/robotics-for-software-engineers-interview-mit-andreas-bihlmaier/#respond</comments>
		
		<dc:creator><![CDATA[Arne]]></dc:creator>
		<pubDate>Tue, 19 Jul 2022 18:04:48 +0000</pubDate>
				<category><![CDATA[Artikel]]></category>
		<category><![CDATA[Haushaltsroboter]]></category>
		<category><![CDATA[Industrieroboter]]></category>
		<category><![CDATA[Mobile Roboter]]></category>
		<category><![CDATA[abb]]></category>
		<category><![CDATA[andreas bihlmaier]]></category>
		<category><![CDATA[architektur]]></category>
		<category><![CDATA[buch]]></category>
		<category><![CDATA[hardware]]></category>
		<category><![CDATA[interview]]></category>
		<category><![CDATA[robodev]]></category>
		<category><![CDATA[software]]></category>
		<category><![CDATA[software engineering]]></category>
		<category><![CDATA[softwarearchitektur]]></category>
		<guid isPermaLink="false">https://botzeit.de/?p=1749</guid>

					<description><![CDATA[<p>Mitte Mai habe mich mit Andreas Bihlmaier unterhalten, mittlerweile Chief Software Architect bei ABB. Ich kenne Andreas schon länger und er schreibt aktuell an dem Buch Robotics for Software Engineers“, von dem man schon erste Leseproben und Kapitel lesen kann.<br />
Worum es in dem Buch geht und wie es dazu kam, habe ich mit ihm besprochen.</p>
<p><!-- /wp:paragraph --></p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/robotics-for-software-engineers-interview-mit-andreas-bihlmaier/">Robotics for Software Engineers – Interview mit Andreas Bihlmaier</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>Mitte Mai habe mich mit Andreas Bihlmaier unterhalten, mittlerweile Chief Software Architect bei ABB. Ich kenne Andreas schon länger und er schreibt aktuell an dem Buch „Robotics for Software Engineers“, von dem man schon erste Leseproben und Kapitel lesen kann.</p>



<p>Worum es in dem Buch geht und wie es dazu kam, habe ich mit ihm besprochen.</p>


<div class="wp-block-image">
<figure class="alignright size-full is-resized"><img src="https://botzeit.de/wp-content/uploads/2022/07/andreas-bihmaier.jpg" alt="" class="wp-image-1795" width="209" height="209" srcset="https://botzeit.de/wp-content/uploads/2022/07/andreas-bihmaier.jpg 591w, https://botzeit.de/wp-content/uploads/2022/07/andreas-bihmaier-300x300.jpg 300w, https://botzeit.de/wp-content/uploads/2022/07/andreas-bihmaier-150x150.jpg 150w" sizes="(max-width: 209px) 100vw, 209px" /><figcaption>Andreas Bihlmaier, Chief Software Architect bei ABB</figcaption></figure></div>


<p><strong>Ich: Andreas, woher und wie lange kennen wir uns eigentlich?</strong></p>



<p>Andreas Bihlmaier: Wir sind uns glaube ich im ERF-Universum (<a href="https://botzeit.de/tag/erf/">European Robotics Forum</a>) immer wieder über den Weg gelaufen. Das Thema Software Engineering for Robotics liegt mir ja schon länger sehr am Herzen und da warst Du ja schon deutlich aktiver als ich, z.B. in der Topicgroup. Ich glaube, das waren die ersten Überschneidungen. Vermutlich haben wir uns auch 2014 auf de SIMPAR in Bergamo in Italien gesehen.</p>



<p><strong>Das stimmt! Da haben wir uns bestimmt gesehen, da war ich auf jeden Fall auch für den <a href="https://arxiv.org/html/1411.7148">DSLRob-Workshop</a>.</strong></p>



<p>Also 8 Jahre kennen wir uns damit auf jeden Fall schon! Davon abgesehen verbinde ich Dich immer schon mit dem Thema „Software &amp; Systems Engineering for Robotics“, ERF, und der <a href="https://sparc-robotics-portal.eu/web/software-engineering/home">euRobotics Topicgroup „Software Engineering, Systems Integration and Systems Engineering“</a>. </p>



<p><strong>Damals warst Du aber ja noch bei <a href="https://twitter.com/roboticdevices">robodev</a>.</strong></p>



<p>Genau! Beziehungsweise ganz am Anfang war ich noch am Lehrstuhl. Dann habe ich noch einen kleinen Abstecher zu Google Research gemacht, Ende 2015 meine Dissertation fertig geschrieben und dann im April 2016 robodev gründet. Unter der Flagge war ich dann seither auf den ERFs unterwegs.</p>



<p>Unser gemeinsames Thema war allerdings immer schon Softwareengineering und Robotik, darum dreht sich ja auch in diesem Gespräch. Da ist noch viel zu tun und da ist das letzte Wort definitiv auch noch nicht gesprochen.</p>



<p><strong>Aber Du <em>hast</em> ein Wort gesprochen! Du hast ja nämlich ein Buch darüber geschrieben: Robotics for Software Engineers. Darauf bin ich via LinkedIn aufmerksam geworden, habe die schon verfügbaren Kapitel gelesen und darüber möchte ich heute mit Dir sprechen. Kannst Du für all diejenigen, die das Buch noch nicht gelesen haben kurz zusammenfassen, worum es geht?</strong></p>


<div class="wp-block-image">
<figure class="alignright size-full is-resized"><img src="https://botzeit.de/wp-content/uploads/2022/05/image.png" alt="" class="wp-image-1752" width="242" height="503"/><figcaption>Inhaltsverzeichnis zum Zeitpunkt des Interviews, mit den ersten 4 Kapiteln schon online verfügbar (mittlerweile sind es schon mehr).</figcaption></figure></div>


<p>Ja, gerne! Das Buch kam dadurch zustande, dass mich jemand vom Manning-Verlag angeschrieben hat, ob ich eine Idee für ein Buch hätte. Meine erste Reaktion war: <em>„Nein, das Schreiben der Dissertation hat mir genügt.“</em></p>



<p>Dann habe ich aber überlegt, was mir denn eigentlich noch fehlt. Es gibt ja schließlich schon zig Bücher über Robotik: das <a href="https://link.springer.com/referencework/10.1007/978-3-540-30301-5">Springer Handbook of Robotics</a>, <a href="http://hades.mech.northwestern.edu/index.php/Modern_Robotics">Modern Robotics</a>, Klassiker wie <a href="https://mitpress.mit.edu/books/probabilistic-robotics">Probabilistic Robotics</a> und <a href="http://aima.cs.berkeley.edu/">A Modern Approach</a>, <a href="https://mitpress.mit.edu/books/understanding-intelligence">Understanding Intelligence</a>, etc. Wahnsinnig viele Robotikbücher, zum Teil sehr angewandt &#8211; <em>wie programmiere ich Roboter mit <a href="https://botzeit.de/tag/ros/">ROS</a></em> &#8211; zum Teil sehr akademisch oder forschungsorientiert; da übersteht man dann die ersten drei Seiten nicht ohne Lie-Gruppen und irgendwelche Exponential Maps. Und dann gibt es noch eine dritte Kategorie der Art „so bau ich mir einen Roboter“. Da geht es dann zu achtzig Prozent darum, wie ich einen DC-Motor anlöte und um den Mikrocontroller, um so ein bisschen Linien zu folgen. Und dann gibt es natürlich auch Bücher zum Programmierenlernen, die lediglich einen Roboter als Beispiel nutzen.</p>



<p>Das ist ja eigentlich wunderbar, aber irgendetwas fehlte mir. Nämlich ein Buch, das ich neu eingestellten Softwareentwickler:innen in die Hand drücken kann, die nicht per se Robotiker:innen sind. Das können Embedded-Software-Entwickler:innen sein, Cloud-Fullstack-Entwickler:innen, C++-Pogrammierer:innen und so weiter sein. Viel Softwareentwicklung für die Robotik ist ja nicht Hardcore-Regelungstechnik, oder Algorithmus-Engineering, sondern häufig ganz normales (embedded) Software Engineering. Ob ich das in Automotive mache oder für einen Roboter oder für eine Waschmaschine oder ein IoT device &#8230; ich brauche nicht immer extrem viel Domänenwissen.</p>



<p>Was mir immer gefehlt hat, ist ein Buch, das ich Personen in die Hand geben kann, die Software in einer einigermaßen modernen Sprache schreiben können &#8211; Python, C++, von mir aus auch Javascript &#8211; von Robotik aber noch nicht viel gehört haben &#8211; abseits vielleicht vom <em>Terminator</em>, <em>Nummer 5 lebt!</em>, und ein paar <a href="https://botzeit.de/tag/boston-dynamics/">Boston-Dynamics</a>-Videos. So fange ich dann bezogen auf die Robotik wirklich bei Adam und Eva an, aber ich muss nichts über grundlegende Programmstruktur erklären. So ein Buch habe ich tatsächlich nicht gefunden.</p>



<p>Aber die Robotik wächst ja auch als Feld. Es gibt ja sehr viele Bereiche um die Kernrobotik herum, sei es Serviceroboter, autonome Fahrzeuge, Drohnen, etc. Das ja ein breites Feld und es passiert extrem viel&#8230;</p>



<p><strong>&#8230;und braucht entsprechend viele neue Softwareentwickler:innen.</strong></p>



<p>Absolut! Und das ist die Zielgruppe.</p>



<p><strong>Du hast erklärt, wie es zu der Kernidee und dem Titel des Buches gekommen ist und tatsächlich bin ich immer wieder über den Titel gestolpert. Irgendwie habe ich unbewusst immer wieder ein Buch zu „Softwareengineering in der Robotik“ erwartet, aber das ist es ja gerade nicht. Du willst ja stattdessen Softwareentwickler:innen und Programmierer:innen befähigen, zu verstehen, was eigentlich Softwareengineering für Roboter ausmacht und wie sie von Software in verwandten Disziplinen unterscheidet.</strong></p>



<p>Genau! Es wird natürlich auch ein Kapitel dazu geben, worauf ich umgekehrt achten sollte, wenn ich Robotiksoftware schreiben will &#8211; im Sinne von Software Best Practices: welche Patterns sollte ich vielleicht nutzen oder wiedererkennen. Aber der Hauptteil ist wirklich wie du sagst: <em>„ich bin schon Programmierer:in, jetzt möchte in der Robotik erfolgreich arbeiten können“</em>.</p>



<p>Es ist also nicht das Buch, das ich Robotiker:innen gebe, die aus der Regelungstechnik kommen und Dynamikgleichungen ohne zu zögern an die Tafel schreiben, aber eben auch genauso ihren Code schreiben würden: also unwartbar und unverständlich.</p>



<p>Denn eigentlich ist ja Programmieren in der Robotik nicht so anders als in anderen Domänen: wenn ich ein Ziel habe, sammele ich mir die benötigten Softwarebibliotheken zusammen. Möchte ich einen Roboter bewegen, lade ich mir z.B. Bibliotheken herunter, die mir Kinematik machen. In diversen ROS-Büchern, z.B. <a href="https://www.oreilly.com/library/view/programming-robots-with/9781449325480/">Programming Robots with ROS</a> von Quigley und Gerkey und Co. sehe ich aber, dass man als Robotik-Neuling dann mitunter ROS mit Robotik verwechselt. ROS ist so dominant, dass man dann z.B. denkt, der <a href="http://wiki.ros.org/tf">tf-Baum</a> sei das fundamentale Konzept und nicht verteilte Koordinatensysteme oder wie ich diese repräsentiere. Das möchte ich anders handhaben und bringe erst einmal Grundlagen bei. Allerdings ohne Beweise und immer in der Robotik angewendet. Das ist natürlich ein schmaler Grat zwischen einfachen Kochrezepten und einem Buch über Mathematikgrundlagen.</p>



<p><strong>Was ist denn Deiner Meinung nach der Vorteil davon, nicht tf zu lernen, sondern zu verstehen, warum verteilte Koordinatensystem in der Robotik so essentiell sind?</strong></p>



<p>Ich denke, das ist eine grundlegende Herangehensweise: erst das Konzept, dann die Implementierung, nicht umgekehrt. Denn die Implementierung ist ja häufig willkürlich: warum ich mich für die eine konkrete Ausprägung der API entschieden habe und wie sich die Software genau sich verhält. Es ist also eher ein pädagogisches Grundkonzept, vor der spezifischen tf-API z.B. erst einmal zu verstehen, wie ich die Bewegung von Körpern im Raum relativ zueinander beschreiben kann.</p>



<p>Neben dem persönlichen Vorgeschmack für diesen Aufbau spricht aber auch die bessere Übertragbarkeit. Die großen Roboterhersteller &#8211; für einen davon arbeite ich ja seit einiger Zeit &#8211; haben ja ihre eigenen proprietären Robotik-Softwarestacks. Das heißt, wenn ich mich dann extrem gut mit ROS auskenne, aber das Konzept nicht verstanden habe, kann ich das schwer auf andere Implementierung übertragen und stehe auf verlorenem Posten. Ich glaube tatsächlich, dass es möglich ist, einen ROS <a href="http://wiki.ros.org/navigation">Nav-Stack</a> für mein mobilen Roboter aufzusetzen oder <a href="https://moveit.ros.org/">MoveIt</a> zum Laufen zu bekommen ohne eigentlich Ahnung davon zu haben, was ich tue. Das ist aber natürlich kein robotik-spezifisches Problem&#8230;</p>



<p><strong>&#8230; und erst einmal ja auch nicht schlimm, sondern auch eine Stärke von ROS, die wichtig für die Robotik war. Dadurch finden Leute einen Einstieg, die sich so irgendwann mal für Bücher wie Deines interessieren, aber ohne ROS erst einmal vor eine Wand gerannt wären &#8211; und vielleicht abgebrochen hätten.</strong></p>



<p>Absolut! Ich werde auch nach den ersten paar Kapiteln, in denen ich noch gar keine Implementierung brauche, auf ROS 2 und <a href="https://gazebosim.org/">Gazebo</a> eingehen und Beispiele dann damit zeigen. Mit was denn auch sonst?! Ich konstruiere ja nicht extra irgendein Spielzeug-Robotikframework nur für ein Buch. Das hat dann vielleicht eine schöne und saubere API, aber ich kann halt nichts real damit tun. Ich erkläre den Lesern lieber, wie ich grundsätzlich z.B. inverse Kinematik mache und wie ich das beispielhaft mit <a href="http://wiki.ros.org/rviz">RVIZ</a> und <a href="http://wiki.ros.org/urdf">URDF</a> umsetze und mit Code, der gegen ROS linkt. </p>



<p>Das ist natürlich ein Spagat: ich habe ja selbst auch viele Jahre sehr intensiv mit ROS gearbeitet, so dass ich da nicht auch selber in die Falle tappen will. Ich verwechsle dann selbst auch schonmal den Namen des ROS-Pakets mit dem eigentlichen Problem, das ich lösen will.</p>



<p><strong>Das ist natürlich auch schwer, weil es ja schon eine Art Best Practice gibt, Robotiksysteme zu bauen. Und viele dieser Methoden und Best Practices sind ja auch in ROS bzw. ROS 2 umgesetzt. Wenn man deswegen <em>ROS-artig</em> über Systeme nachdenkt, ist man meines Erachtens ja häufig auch nicht ganz weit davon entfernt, insgesamt eine plausible Sicht auf Robotersysteme zu haben. Das macht es natürlich umso schwieriger, die Teile zu erkennen, in denen ROS eine sehr spezifische Implementierung gewählt hat &#8211; zum Beispiel vielleicht tf &#8211; die vielleicht nicht immer auch gleichzeitig die Nützlichste ist. Sondern dann wieder zur abstrahieren: was ist eigentlich das zugrundeliegende Problem und was sind dann mögliche Lösungen?</strong></p>



<p>Genau. Um eben auch sicherzustellen, dass die Leute verstehen, was hinter den Kulissen passiert. Ich will zumindest versuchen zu erklären, dass man inverse Kinematik nutzt, wenn man zum Beispiel von MoveIt eine Gelenkposition für eine kartesische Pose anfragt. Und dass ich das auf diese und jene Art angehen kann, dass die praktische Realisierung aber meistens eine numerische Lösung ist, usw. Die Leser:innen sollen zumindest verstehen, was dort im Hintergrund abläuft und ein Gefühl dafür bekommen, was passiert.</p>



<p>Best Practice versuche ich, vom Anfang an zu vermitteln. Also, kein Mensch würde seine Datenbank oder Webapplikationen so programmieren, dass er im Webserver mit dem Treiber der Festplatte redet, sondern da sind diverse Abstraktionsschichten zwischen. Und in der Robotik, gerade im Hobbybereich (manchmal auch von Leuten, die es an der Uni so betrieben haben) findet man zum Teil Systeme komplett ohne alle Abstraktionen. Da wird ein digitaler Eingang alle Ebenen hochgereicht. Da gibt es dann zwar eine ROS-Nachricht für, aber keine sinnvolle Semantik mehr.</p>



<p>Gerade in Robotiksystemen, weil sie oft komplex und vielfältig sind, muss ich mir von Anfang über die Architektur Gedanken machen, z.B. wie ich konzeptionell in verschiedene Belange aufteilen kann, die von verschiedenen Leuten bearbeitet werden können. Es muss dann ja auch nicht alles hardcore embedded Software sein. Es gibt einfach vielfach dieses Vorurteil, um überhaupt was mit Robotik machen zu können, müsse man sich erst einmal Mathematik reinziehen und dann quasi tief in den Registern herumstochern. Das schreckt viele ab.</p>



<p><strong>Interessant! Diesem Vorurteil bin ich noch nicht begegnet. Ich habe manchmal den gegenteiligen Eindruck: dass viele Leute sehr hemdsärmlig herangehen, sich einen best effort ROS-Grafen zusammenhauen und sich um ganz viele Control- und Realtime-Aspekte gar nicht kümmern. Wenn das irgendwie läuft, ist das Robotik.</strong></p>



<p><strong>Es funktioniert ja beides leider nicht. Es geht nicht, nur mit Registern und Signalen zu arbeiten, dann habe ich schnell ein unwartbares System, das wahrscheinlich auch von Anfang an nicht das tut, was es tun soll. Aber das Gegenteil funktioniert auch nicht. Ich kann mir das, was sich vielleicht Webapplikationen, die vielleicht noch in einer Cloud laufen, leisten können, in der Robotik nicht leisten. Nämlich, dass ich mir alles in aller Schönheit abstrahieren und verteile. Sonst gehen mir die ganzen Regelkreise auf die Bretter, die vielleicht auch noch Realtime sein müssen.</strong></p>



<p><strong>Ich brauche halt eine Organisation von all diesen Aspekten. Denn wir haben ja mittlerweile in der Robotik auch Aspekte, die mitunter in der Cloud laufen müssen: Fleet Management, Deep Learning, Object Detection, und so weiter &#8230; aber in der Robotik muss es dann trotzdem am Ende irgendwie &#8211; im zweifel safety-kritisch, realtime, sehr verstanden und vorhersagbar &#8211; irgendwo in schnellen Regelkreisen enden.</strong></p>



<p>Genau! Und da kommen wir zu der Frage, was denn der Kern der Robotik ist. Je nachdem, von welcher Richtung in der Robotik man blickt, sind es ganz unterschiedliche Dinge. Die einen sagen, alles oberhalb der Roboter-Dynamik ist nur Beiwerk. Die anderen sehen den Roboter als reines Positionier-Eisen und das wirklich spannende heutzutage liefe in der KI, der Bildverarbeitung, in Wissensmodellierung. Aber wie du sagst, spielt das alles mit.</p>



<p>Wenn jemand sich 15 Jahre um Echtzeit-Embeddedsysteme gekümmert hat und dann anfängt, Cloud-Systeme zu entwickeln, dann geht das schief. Und das Gegenteil habe ich auch schon gesehen: wenn Leute, die bisher skalierbare Softwarelösungen für Onlinedienste entwickelt haben, plötzlich Embedded-Robotiksoftware entwickeln, dabei aber alles erst einmal durch fünf Versionen von Memcashed und Redis schieben, kommt dabei auch nichts Gutes raus.</p>



<p>Es ist eben das Spannende an der Robotik, dass all diese Aspekte eine Rolle spielen. Das möchte ich mit dem Buch anreißen, um einfach den Lesern auch zu zeigen: hey, wenn du keinen Bock auf Regelungstechnik hast, aber trotzdem Robotik geil findest, dann gibt es für dich immer noch die anderen 90% dessen, was es braucht, um eine Robotikanwendung in die echte Welt zu bringen. Je nachdem, was ich eben mag: mag ich Mikrocontroller, mag ich Clouddienste, mag ich Echtzeit, mag ich Regelungstechnik, mag ich Algorithmik, mag ich Physiksimulation &#8230; da muss für jede:n Softwareentwickler:in was dabei sein.</p>



<p><strong>Wir kreisen gerade um eine Frage herum, die ich mir auch schon gestellt habe. Gibt es eine Kernaussage, einen Kerngedanken, den Du mit diesem Buch transportieren möchtest? Der der besonders wichtig ist, weil es den so deutlich noch nicht gibt? Oder würdest du sagen, dass ist eher ein strukturiertes Zusammentragen von bekanntem Wissen der Robotik-Software-Community ist?</strong></p>



<p>Ich würde nicht behaupten, dass ich mit diesem Buch jetzt etwas dem <em>Robotics Body of Knowledge</em> hinzufüge. Ich hab jetzt allerdings mehrere Wochenenden damit zugebracht, zu versuchen, mal nur für dieses Buch eine einheitliche Notation zu finden, die nicht nur für Manipulatoren passt oder nur für mobile Roboter. Daran bin ich fast verzweifelt. Du nimmst drei Bücher zur Hand und findest mindestens fünf Notationen. Aber man wird ja ein Buch sofort wegwerfen, wenn die Notation zwischen den Kapiteln über Kinematik von Manipulatoren und dem über mobile Roboter plötzlich inkonsistent ist. Das ist vielleicht so ein kleiner Beitrag, aber auch da orientiere ich mich natürlich an den großen Werken und erfinde nichts komplett Neues.</p>



<p>Ansonsten ist es eine einheitliche Darstellungen auf einem zugänglichen Niveau, würde ich sagen. Meine Kernbotschaft ist, was ich auch auf einer der ersten Seiten schreibe, dass für mich die Robotik das Feld ist, das sich damit beschäftigt, wie ich aus der virtuellen Welt in die reale Welt hinausreichen kann, und aus der realen Welt wieder zurück in die virtuelle Welt. Jedes Smartphone hat natürlich irgendwie einen Vibrationsalarm, ein Display und eine Kamera, aber in der Robotik ist es ja weit mehr. Die Frage, wie ich das, was ich in Software ausdrücken kann, in eine Manipulation oder Einflussnahme der echten Welt umsetzen kann. Das finde ich faszinierend!</p>



<p>Was wäre denn zum Beispiel das Robotik-Äquivalent zur universellen Turingmaschine. Also: wir wollen ein Mapping haben von dem, was wir in Software frei und flexibel ausdrücken können in die echte Welt. Es ist ja wirklich fast schon Magie: ich schreib hier in irgendwelchen arkanen Sprachen Symbole hin und dadurch teleportiert sich irgendwie der Kaffee von der Kaffeemaschine auf meinen Tisch. Nur dass die Teleportation momentan noch etwas kompliziert über ein mobilen Roboter erledigt wird, aber hey &#8230; es ist nah dran.</p>



<p><strong>Dann jetzt ein Sprung zurück zum Buch selbst. Als ich die ersten Kapitel gelesen habe, die ich übrigens echt gerne gelesen habe, ist mir aufgefallen, dass es eine erstaunliche Zahl Vorwärtsreferenzen gibt. Die versucht man ja typischerweise beim Schreiben von wissenschaftlichen Arbeiten zu vermeiden. Als ich die so las, habe ich mich gefragt, ob das Dein Schreibstil ist, oder vielleicht ein Kernproblem der Robotik. Dass so viele Dinge so eng verzahnt sind, dass ich die gar nicht nicht systematisch oder chronologisch aufbauen kann. </strong></p>



<p>Wenn man ein Buch oder Kapitel konzipiert, fragt man sich natürlich immer, von welcher Seite man den Gaul jetzt aufsattelt. Was ich auf jeden Fall vermeiden wollte, ist eine systematische Einführung. Also: erst einmal kommen zwei Kapitel Mathematik, dann x Kapitel Geometrie, etc. &#8230; und ganz am Ende vom Buch rede ich mal über Anwendungen in der Robotik. Das wäre zwar eine akademisch saubere Struktur, aber ich würde da viele Leser einfach früh verlieren. Das ist also der Mission des Buches geschuldet.</p>



<p>Das andere ist aber auch: es hängt natürlich vieles miteinander zusammen, wie Du gesagt hast. Nehmen wir z.B. Regelkreise: ich möchte den Lesern am Anfang über Vorwärtsreferenzen als Motivation direkt mitgeben, dass das noch an mehreren Stellen auftauchen wird. Relativ früh, wie ich den einzelnen Motor auf Geschwindigkeit oder auf Position bringen kann. Bei mobilen Robotern brauch ich dann irgendeine Rückmeldung aus der Umgebung, via LIDAR, Taster, und so weiter&#8230; ich möchte da früh die Augen öffnen: das kommt jetzt über den Rest des Buchs verteilt vor und taucht noch in der Sensordatenverarbeitung, der Bildverarbeitung etc. vor.</p>



<p>Das ist dann ja auch der direkte Anschluss zum Software Engineering: ich kann das ja auch abstrahieren und im Einzelfall ignorieren, dass ich keine perfekte Positionsregelung habe und das natürlich auch nicht instantan passiert. Aber ich ziehe bewusst eine Abstraktionsebene ein, ab der es nur noch um Positionen geht und alle Dynamik darunter ignoriere ich. Das kann eine gute oder eine sehr schlechte Idee sein. In der Robotik ist es glaube ich schwer, diese guten Ebenen zu finden. Denn es hängt auch vom Robotertyp und der Anwendung ab. Wenn ich mit einem normalen Industrieroboter eine einfache Anwendung mit niedrigen Geschwindigkeiten habe, arbeite ich mit Positionen. Wenn ich dann aber Anspruchsvolleres als z.B. Pick &amp; Place will, dann wird es plötzlich extrem wichtig, auf diese Ebenen doch noch runter zu schauen. Diese natürliche Abstraktionsebenen wie zum Beispiel das Betriebsystemlevel in der IT gibt es in der Robotik noch nicht. Und diese Suche nach nützlichen Abstraktion zieht sich durch das gesamte Buch.</p>



<p><strong>Es kommen ja noch ziemlich viele coole Kapitel, die hast Du jetzt zum Teil schon angedeutet. Zum Beispiel Simulation, KI, etc. Was erwartet uns denn sonst noch, zum Beispiel im Kapitel 23: „More awesome Robotics</strong>“<strong>?</strong></p>



<p>Da gehe ich zum Einen auf neue Robotertypen ein, also Schwarmroboter, selbst-rekonfigurierende Roboter, modulare Roboter, humanoide Roboter, Soft Robotics, Bionik, etc. &#8230; jedes natürlich für sich selbst nochmal mindestens ein weiteres Buch wert. Damit möchte ich das Feld weiten, um zu zeigen: das gibt es auch noch alles und Du verstehst jetzt vielleicht schon 80% davon. Das mache ich ja auch in jedem Kapitel klar: das lernst Du, das hast Du jetzt verstanden, und das kannst Du damit schon schon anfangen. Auch wenn das konkrete Beispiel gerade vielleicht ein <a href="https://de.wikipedia.org/wiki/Letzte_Meile">Last Mile</a> Delivery Robot ist und Du eigentlich einen stationären Roboter programmieren willst, der Fritten zubereitet &#8230; das Grundwissen ist in beiden Anwendungen relevant und übertragbar. Das versuche ich zu zeigen mit dem Buch: das autonome Auto hat deutlich mehr mit einem humanoiden Roboter zu tun oder mit meinem klassischen Industrieroboter, als auf den ersten Blick ersichtlich.</p>



<p>Ich selbst habe mich ja in der Diplomarbeit mit selbstkonfigurierenden modularen Robotern beschäftigt, danach dann eine Promotion im Bereich Chirurgierobotik, dann ein Unternehmen im Bereich modulare Robotik für Industrieanwendungen gegründet, und bin jetzt in eine Unternehmen für Industrieroboter und mobile Roboter. Das geht ja nur, weil man nicht alles wieder von vorne lernen muss, sondern weil sich halt unglaublich viel übertragen lässt an Herangehensweisen, Grundlagen, Konzepten, bis hin zu Algorithmen und Implementierungen.</p>



<p><strong>Das ist eine perfekte Überleitung zu meiner wahrscheinlich ungefähr letzten Frage: wie viel von diesem Buch ist robodev-Andreas und wie viel ist ABB-Andreas?</strong></p>



<p>&#8230; und wieviel ist <a href="https://cognitionguidedsurgery.de/">Sonderforschungsbereich125</a>-Andreas? </p>



<p><strong>Genau. Wie viel Einfluss haben Deine verschiedenen Stationen auf das Buch?</strong></p>



<p>Das ist eine gute Frage, da habe ich noch nicht drüber nachgedacht. Ich glaube, die Einflüsse kommen vielmehr aus den Interaktionen mit den Menschen, mit denen ich zusammen gearbeite habe. Mein Anspruch ist, dass Leser:innen anschlussfähig sind und sich mit den verschiedenen Kolleg:innen der verschiedenen Disziplinen austauschen können. Also dass man eben nicht dasteht und man so spezialisiert auf das Thema ist, dass man kein Wort versteht von dem, worüber sich die Kolleg:innen beim Kaffee unterhalten. Dieses Grundwissen sicher zu stellen, da haben mich sicher alle bisherigen Robotikerfahrungen geprägt.</p>



<p>Ich finde, dass man mit relativ wenig Grundkenntnissen schon Brücken zwischen erstaunlich fortgeschrittenen Details der verschiedenen Robotikdisziplinen spannen kann. Das war sowohl im Startup also auch im großen Konzern wichtig, weil man immer die Spezialisierungen hat, aber gleichzeitig gemeinsam an einem System baut. Natürlich wollen wir unser System modular aufbauen, damit sich jeder Experte auf sein Teilsystem konzentrieren kann, aber es muss am Ende eben gut integrierbar sein. Was in der Robotik aus meiner Sicht eben gar nicht funktioniert &#8211; egal ob im kleinen oder großen Unternehmen &#8211; ist ein Modul über den Zaun zu werfen oder sich abzuschotten, jede Abteilung baut ihr Spezial-Softwaremodul und dann stecke ich die zusammen. Ich möchte ja am Ende ein Robotiksystem haben, das seine Aufgabe erfüllt. Dann ist es mir völlig egal, ob die Computervision ihr Ding jetzt richtig macht, die Bewegungsplanung ihr Ding richtig macht und das Basissystem seine Sache richtig gemacht habe, wenn die am Ende nicht zusammen funktionieren.</p>



<p>Ich bewundere immer wieder die Uni-Labore, die es schaffen, hochkomplexe Robotiksysteme auf Jahre aufzubauen und am leben zu halten. Ich beschäftige mich mit Gaits, Gait Learning, etc., möchte mich nur um die Algorithmik kümmern, muss aber trotzdem die Maschine bauen, muss mich dann trotzdem mit der Motorenregelung herumschlagen, muss mich trotzdem irgendwie um verteilte Softwaresysteme und eine halbwegs skalierbaren Infrastruktur kümmern, damit ich Daten aufnehmen und auswerten kann. Sobald ich mich von der Zeichnung oder Simulation weg bewege, fange ich mir extrem schnell ganz ganz viel von der gesamten Robotik ein. Deshalb muss man seinen Kontext verstehen, um seine Spezialität richtig ausüben zu können.</p>



<p>Es ist tatsächlich gut, wenn man sich <em>gegenseitig </em>versteht. Dann werden am Ende beide Seiten bessere Entscheidungen treffen, um einen real funktionierenden Roboter hinzubekommen. Und nur real funktionierende Roboter finde ich interessant, Roboter nur auf Papier oder nur in der Simulation finde ich langweilig.</p>



<p><strong>Das sehe ich genauso. Ich will noch erklären, wie ich auf die vorige Frage gekommen bin. Du führst ja am Anfang eine Sicht auf Robotersysteme ein: jedes System besteht aus Aktuator, Acting, Sensor, Sensing, Planning, und Environment. Diese Sicht kombiniert mit Deinem Hinweis im Buch: Überlegt euch mal für einzelne Features Eurer Robotersysteme, ob ich die gut mit einem einfachen Hardwarebaustein lösen kann oder mit Software, oder einer Kombination &#8230; da klang für mich robodev durch. Wir werden aber wahrscheinlich in dem Buch auch viele Sichtweisen lesen, die Du Dir bei ABB angeeignet hast.</strong></p>



<p>Da ist sicher viel dran. Vieles stammt auch aus der Zeit vor beidem, als ich mich viele Jahre an der Uni damit beschäftigt habe, wie man für Robotikforschung eine flexible Infrastruktur mit ROS aufbaut. Z.B. für Medizinrobotik, aber im Kontext eines sehr kreativen Pulks von zehn bis zwanzig Doktorand:innen &#8211; und dementsprechender Stabilität und Qualität der einzelnen Komponenenten. </p>



<p>Ich hatte ja beim ERF mal ein paar Workshops zum Thema Modularität in der Robotik. Dabei ist auch immer wieder die Frage aufgekommen, wie wichtig das einzelne Modul ist oder geht es am Ende nicht immer nur um das gesamte System. Meine Module, sozusagen meine Legosteine, baue ich natürlich am Ende nicht aus Selbstzweck, sondern um damit ein Haus, ein Schiff, etc. bauen zu können. Ich muss dementsprechend mein System in Einzelteile zerlegen können, darf es aber gleichzeitig nicht so weit zerlegen und die Einzelteile isoliert bearbeiten, dass ich den Kontext vergesse, in dem diese Bausteine arbeiten.</p>



<p><strong>Jetzt könnte man meinen, Du redest gerade über die Konzernwelt</strong>.</p>



<p>*lacht* Ja, das ist sicher im Startup ein geringeres Problem als in eine großen Unternehmen. Im Startup machen die meisten alles, im großen Unternehmen habe ich spezialisierte Teams für alle Aspekte. Aber es kommt immer wieder glaube ich zu ähnlichen Konstellationen: ich möchte Spezialisierung &#8211; in Personen wie in der Implementierung &#8211; aber gleichzeitig darf ich den holistischen Gedanken, den Systemgedanken nicht aus den Augen verlieren. Im Startup hast du vielleicht manchmal zu wenig Spezialisierung, im großen Unternehmen manchmal so viel, dass es auch schon wieder nicht mehr gut tut. Es geht darum, dass man Schnittstellen einzieht, auch <em>Information Hiding</em> betreibt und auch mal <em>Blackboxes</em> baut, aber gleichzeitig nicht so undurchsichtig wird, dass es zu rigide wird. Das sind dann Architektur- und Designthemen: wie kann ich Software strukturieren, damit es unabhängige Komponenten sind, aber gleichzeitig sie nicht so weit in Komponenten zerlegen, dass die Integration wieder ein Problem für sich wird. </p>



<p><strong>Noch eine letzte Frage: wann kann man das Buch kaufen?</strong></p>



<p>Uuuh, schwierige Frage. Die späteren Kapitel werden etwas kürzer werden und wahrscheinlich auch etwas leichter zu schreiben als die Grundlagenkapitel zu Beginn. Ziel ist, dass es irgendwann im ersten Halbjahr 2023 fertig erscheint.</p>



<p><strong>Ich habe es auf jeden Fall schon gekauft &#8211; sozusagen die Katze im Sack. Die ersten vier Kapitel konnte ich mir deswegen einfach runterladen und auf meinen Ebook-Reader schieben. </strong></p>



<p>Genau, wenn man es jetzt kauft, gibt es auch einen Rabatt, zeitweise bis 30%. Und wenn die Kapitel aktualisiert werden oder neue Kapitel erscheinen, bekommt man dann die neuen Versionen. Das finde ich von Manning gut gemacht, auch alle early access Kapitel sind nämlich schon vom Editor sprachlich und inhaltlich redigiert.</p>



<p><strong>Vielen Dank, Andreas</strong>, <strong>und viel Erfolg weiterhin mit dem Buch!</strong></p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/robotics-for-software-engineers-interview-mit-andreas-bihlmaier/">Robotics for Software Engineers – Interview mit Andreas Bihlmaier</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
<img src="https://vg08.met.vgwort.de/na/33efa8577f4f469cb34bfacb18d19abd" width="1" height="1" alt="" class="wpvgw-marker-image" loading="eager" data-no-lazy="1" referrerpolicy="no-referrer-when-downgrade" style="display:none;" />
]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/robotics-for-software-engineers-interview-mit-andreas-bihlmaier/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>NotMyRobots &#8211; Interview mit Arne Maibaum</title>
		<link>https://botzeit.de/notmyrobots-interview-mit-arne-maibaum/</link>
					<comments>https://botzeit.de/notmyrobots-interview-mit-arne-maibaum/#comments</comments>
		
		<dc:creator><![CDATA[Arne]]></dc:creator>
		<pubDate>Sun, 05 Apr 2020 16:51:00 +0000</pubDate>
				<category><![CDATA[Artikel]]></category>
		<category><![CDATA[Autonome Roboter]]></category>
		<category><![CDATA[Humanoide]]></category>
		<category><![CDATA[Mobile Roboter]]></category>
		<category><![CDATA[Sonstiges]]></category>
		<category><![CDATA[ai]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[epistemologie]]></category>
		<category><![CDATA[hal]]></category>
		<category><![CDATA[haushaltsroboter]]></category>
		<category><![CDATA[interview]]></category>
		<category><![CDATA[kuenstliche intelligenz]]></category>
		<category><![CDATA[notmyrobots]]></category>
		<category><![CDATA[pflegeroboter]]></category>
		<category><![CDATA[rassismus]]></category>
		<category><![CDATA[sexismus]]></category>
		<category><![CDATA[soziologie]]></category>
		<category><![CDATA[symbolbild]]></category>
		<category><![CDATA[terminator]]></category>
		<category><![CDATA[tu berlin]]></category>
		<category><![CDATA[twitter]]></category>
		<category><![CDATA[white robot guy]]></category>
		<category><![CDATA[wizard of oz]]></category>
		<guid isPermaLink="false">https://botzeit.de/?p=737</guid>

					<description><![CDATA[<p>Schon seit längerem geplant und jetzt endlich mal dazu gekommen: ein Interview mit Arne Maibaum über NotMyRobots und fürchterliche Robotik-Symbolbilder.</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/notmyrobots-interview-mit-arne-maibaum/">NotMyRobots &#8211; Interview mit Arne Maibaum</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p class="has-small-font-size"><em>(this interview is <a href="https://planet-robotics.net/articles/notmyrobots-interview-with-arne-maibaum/">available in English</a>)</em></p>



<p>Schon seit längerem geplant und jetzt in Vorbereitung eines längeren Artikels endlich mal dazu gekommen: ein Interview mit Arne Maibaum von <strong>NotMyRobots</strong> über <a href="https://notmyrobot.home.blog/about/">NotMyRobots</a>.</p>



<div class="wp-block-image"><figure class="alignright size-large is-resized"><img src="https://botzeit.de/wp-content/uploads/2020/04/notmyrobots-1024x1024.png" alt="HAL" class="wp-image-1048" width="250" height="250" srcset="https://botzeit.de/wp-content/uploads/2020/04/notmyrobots.png 1024w, https://botzeit.de/wp-content/uploads/2020/04/notmyrobots-300x300.png 300w, https://botzeit.de/wp-content/uploads/2020/04/notmyrobots-150x150.png 150w, https://botzeit.de/wp-content/uploads/2020/04/notmyrobots-768x768.png 768w" sizes="(max-width: 250px) 100vw, 250px" /><figcaption><a href="https://de.wikipedia.org/wiki/HAL_9000">HAL 9000</a>, augenzwinkerndes Logo von NotMyRobots <a href="https://commons.wikimedia.org/wiki/File:HAL9000.svg">[Quelle]</a></figcaption></figure></div>



<p>Ich bin eigentlich nur mit einigen, wenigen Fragen ins Interview gegangen, rund um eine Kernfrage in Vorbereitung meines Artikels. Das Gespräch hat dann aber doch insgesamt fast eine Stunde gedauert und war extrem interessant. Es ging um den Terminator und Roboter, die uns die Jobs weg nehmen, aber auch um viele unerwartete Aspekte wie Sexismus, Rassismus und Epistemologie. Wie Arne Maibaum zum Ende des Gesprächs sagt: &#8222;Das kommt davon, wenn man mit SozialwissenschaftlerInnen redet.&#8220; Hier also das ganze Interview:</p>



<p><strong>Ich: Hallo, Arne! Für alle, die es noch nicht kennen: Was ist NotMyRobots überhaupt?</strong></p>



<p><strong>Arne Maibaum:</strong> Wir haben ja auch eine kleine Beschreibung <a href="https://twitter.com/notmyrobots">in unserem Twitter-Profil</a> und <a href="https://notmyrobot.home.blog/about/">auf unserer Website</a>. Vor allem auf Twitter haben wir gesehen, dass wahnsinnig viele ganz fürchterliche, unrealistische, aber vor allem auch tatsächlich falsche Visualisierungen für populärwissenschaftliche Robotik-Artikel benutzt werden. Allerdings teilweise auch in Teasern zu wissenschaftlichen Artikeln. Das sind unrealistische Bilder in Artikeln zu Robotern, aber auch &#8211; in letzter Zeit immer mehr &#8211; in Artikeln zu AI, die ja häufig auch mit Robotern bebildert werden.</p>



<figure class="wp-block-image size-large"><a href="https://www.google.com/search?q=robot+ai&amp;tbm=isch" target="_blank" rel="noreferrer noopener"><img width="1024" height="576" src="https://botzeit.de/wp-content/uploads/2020/04/google-image-search-robot-ai-1024x576.png" alt="Google-Bildersuche nach 'Robot AI'" class="wp-image-1091" srcset="https://botzeit.de/wp-content/uploads/2020/04/google-image-search-robot-ai-1024x576.png 1024w, https://botzeit.de/wp-content/uploads/2020/04/google-image-search-robot-ai-300x169.png 300w, https://botzeit.de/wp-content/uploads/2020/04/google-image-search-robot-ai-768x432.png 768w, https://botzeit.de/wp-content/uploads/2020/04/google-image-search-robot-ai.png 1231w" sizes="(max-width: 1024px) 100vw, 1024px" /></a><figcaption>Beispielhafte Google-Bildersuche nach <a href="https://www.google.com/search?q=robot+ai&amp;tbm=isch">&#8218;Robot AI&#8216;</a></figcaption></figure>



<p><em>&#8218;Wir&#8216; </em>sind dabei <a href="https://twitter.com/ala_pax">Philipp,</a> <a href="https://twitter.com/meineckelisa">Lisa</a>, Laura und <a href="https://twitter.com/lordelend">ich</a>. Phillip und ich arbeiten bei einer Robotikgruppe an der TU Berlin. Laura und Lisa sind in München und arbeiten auch aus einer sozial- bzw. kultur-wissenschaftlichen Perspektive an dem Thema Robotik. Phillip und ich sind zwar beide Soziologen, sind aber in der Mensch-Roboter-Interaktion gelandet. Wir haben alle schon immer diese Bilder gesammelt. Das heißt, alle von uns hatten ohnehin schon so eine kleiner Galerie des Schreckens in der Hand. Lisa widmet sich außerdem in ihrer Arbeit dem Roboter in der Popkultur der Amerikanischen Geschichte. Das heißt, sie hat das auch in Ihrer Dissertation benutzen können. </p>



<p>Aus diesem Konglomerat haben wir uns dann überlegt, dass wir das in irgendeiner Weise publik kritisieren müssen. Als eine Maßnahme dafür haben wir den Twitter-Account <a href="https://twitter.com/NotMyRobots">@NotMyRobots</a> gegründet, der versucht, auf Twitter aufzuzeigen, wenn diese Symbolbilder verwendet werden. Wenn uns jemand solche Bilder über den Hashtag <a href="https://twitter.com/hashtag/notmyrobot">#notmyrobot</a> zuträgt, das machen mittlerweile ziemlich viele, re-tweeten und sammeln wir die. Je nach Bild versuchen wir auch mit eigenen kritischen Kommentaren aufzuzeigen, warum wir das nicht gut finden.</p>



<p><strong>Wie sind die Leute auf Euch gekommen? Also wie ist das passiert, dass da jetzt mittlerweile so viele mithelfen?</strong></p>



<p>Ich denke mal, viele Robotiker stört das ganz gewaltig. Ich glaube aber auch, gerade viele Leute, die aus den Humanwissenschaften kommen, sind da auch extrem sensibel für. Viele von denen haben solche Bilder auch vorher schon immer gesehen und den Kopf geschüttelt. Da ergibt sich dann eine gewisse Anzahl von Leuten, die dieses Problem auch sehen und denen unsere Initiative gefällt. Die nutzen dann unseren Hashtag oder taggen uns.</p>



<p><strong>Das ist interessant. Mir fallen diese Bilder natürlich auch seit Jahren auf, mindestens seitdem ich selber in der Robotik bin. Ich rolle dann auch mit den Augen, habe aber nie wirklich reflektiert, dass das wirklich schädlich ist. Warum ist das denn so schlecht?</strong></p>



<p>Also wovon wir immer ausgehen ist, dass Technik nicht aus dem leeren Raum kommt und Roboter nicht einfach so gebaut werden, wie es die Technik empfiehlt. Sondern, und das ist jetzt die soziologische Perspektive, Technik ist immer mensch-gemacht und immer sozial konstruiert. Als ein solches ist sie natürlich auch Aushandlungsprojekt davon, wie die Gesellschaft Robotik und Roboter sieht. In die Kommunikation darüber, wie so eine Technologie konstruiert wird, spielt natürlich Visualisierung eine große Rolle. Bei Pflegerobotern zum Beispiel sehen wir zwei Erwartungen, die stark mit Visualisierungen gekoppelt sind:</p>



<p>Als allererstes ist da immer der <a href="https://de.wikipedia.org/wiki/Terminator_(Charakter)">Terminator</a>-Roboter, der aus irgendwelchen Gründen bei Robotik-Artikeln immer wieder auftaucht. Damit geht die Erwartung einher, dass zukünftige Roboter eiskalt sein werden und potentiell tödliche Maschinen sind, mit Metallgreifern, die nach uns greifen wollen. Das ist natürlich das Horrorszenario, das schürt Angst und führt dazu, dass Leute damit nichts mehr zu tun haben wollen. </p>



<p>Eines meiner liebsten Beispiele ist aus einem Projekt, in dem ich als Student tätig war. Wir hatten autonom fahrende Transportsysteme, die in Krankenhäusern zum Beispiel zum Transport von Wäschekisten eingesetzt wurden: der <em>Casero</em>-Roboter. Die sollten dann auf einer Bohrinsel eingesetzt werden, also bei Männern, die über viele Kilometer explosionsfähiges Material anbohren. Die haben sich aber strikt geweigert, einen solchen Roboter auf ihre Bohrinsel zu nehmen, weil sie Angst davor hatten, dass der sie alle umbringt. Dieses Bild kommt natürlich durchaus aus der Science-Fiction und dieser Angst, einer solchen Maschine ausgeliefert zu sein. Und wenn wir dann Artikel sehen, die so ein Bild unter &#8218;Roboter sollen uns helfen&#8216; setzen, ist das natürlich inhärent problematisch dafür, wie die Technik wahrgenommen wird. Das hat natürlich dann auch Einfluss auf Fördergelder usw.</p>



<span id="more-737"></span>



<p><strong>Meine Idee zu dem Interview mit Dir oder Euch ist aus meinem Eindruck entstanden, dass die Robotik als zu positiv und zu leistungsfähig dargestellt wird. Wenn ich das bei Dir richtig heraushöre, dann siehst Du aber häufiger, dass die Robotik als zu gewalttätig oder zu brutal dargestellt wird?</strong></p>



<p>Nein, das war nur der eine Aspekt: der Terminator sozusagen in seiner Schrecklichkeit visualisiert. </p>



<p>Der zweite Aspekt ist natürlich das viel zu positive und viel zu fortgeschrittene Roboterbild. Da geht es auch vor allem immer darum, dass Roboter als <a href="/category/humanoide/">humanoide</a> Serviceroboter dargestellt werden. Das geht soweit, dass auch Artikel zu künstlicher Intelligenz (<em>Artificial Intelligence</em>, AI) so bebildert werden. Wenn es also im Moment zum Beispiel darum geht, dass <a href="/roboter-zur-unterstuetzung-gegen-das-coronavirus/">AI im Kampf gegen das neuartige Coronavirus</a> helfen soll, dann sitzt da in den Abbildungen ein humanoider Roboter mit filigranen Händen und benutzt gerne sogar noch menschliche Technologie.</p>



<p><strong>Stimmt, sitzt am Computer zum Beispiel&#8230;</strong></p>



<p>Der helle Wahnsinn, wenn man sich das ansieht. Zu der Science-Fiction-Horrorerwartung kommt also noch diese Humanoide-Leistungsfähigkeits-Erwartung, nämlich dass wir demnächst solche Roboter haben, wie sie auf den Bildern zu sehen sind: schlanke, sehr menschenähnliche Roboter, bei denen die Menschlichkeit nur noch dadurch kaschiert wird, dass weiße Plastikabdeckungen auf menschlichen Körperteilen sind. Das schürt eine völlig falsche Erwartung an den Stand der Robotik und was gerade die Forschungsrichtung ist.</p>



<div class="wp-block-image"><figure class="alignright size-large is-resized"><img src="https://botzeit.de/wp-content/uploads/2020/04/Innorobo_2015_-_Aldebaran_-_Pepper-542x1024.jpeg" alt="Pepper Robot" class="wp-image-1066" width="226" height="427" srcset="https://botzeit.de/wp-content/uploads/2020/04/Innorobo_2015_-_Aldebaran_-_Pepper-542x1024.jpeg 542w, https://botzeit.de/wp-content/uploads/2020/04/Innorobo_2015_-_Aldebaran_-_Pepper-159x300.jpeg 159w, https://botzeit.de/wp-content/uploads/2020/04/Innorobo_2015_-_Aldebaran_-_Pepper-768x1452.jpeg 768w, https://botzeit.de/wp-content/uploads/2020/04/Innorobo_2015_-_Aldebaran_-_Pepper-812x1536.jpeg 812w, https://botzeit.de/wp-content/uploads/2020/04/Innorobo_2015_-_Aldebaran_-_Pepper-1083x2048.jpeg 1083w, https://botzeit.de/wp-content/uploads/2020/04/Innorobo_2015_-_Aldebaran_-_Pepper-scaled.jpeg 1354w" sizes="(max-width: 226px) 100vw, 226px" /><figcaption>Pepper Robot <a href="https://commons.wikimedia.org/wiki/File:Innorobo_2015_-_Aldebaran_-_Pepper.JPG">[Quelle]</a></figcaption></figure></div>



<p>Da geht’s auch um die Menschenähnlichkeit, die natürlich selbst auch Erwartungen schürt. Dafür muss man nicht einmal die Agenturbildern von diesen weißen, glatten Humanoiden hernehmen, sondern muss sich nur den Roboter <a href="https://de.wikipedia.org/wiki/Pepper_(Roboter)">Pepper</a> ansehen. Der ist gerade das absolute Synonym dafür, was von humanoiden Robotern erwartet wird und was sie aber eigentlich gar nicht leisten können.</p>



<p><strong>Du hast jetzt mehrfach AI erwähnt. Nimmt das NotMyRobots-Problem Deiner Wahrnehmung nach durch den aktuellen AI-Trend zu?</strong></p>



<p>Ja, absolut. Es ist natürlich auch schwierig, AI zu bebildern, das muss man dazusagen. Was wir seit zwei Jahren ganz vermehrt beobachten ist, dass der Dialog sich etwas von der Robotik abgewendet hat und es heißt, die AI wird das jetzt tun. Wenn es allerdings Artikel dazu gibt, dass AI uns dabei hilft, ein bestimmtes Problem zu lösen, ist das Bild dazu meistens ein Roboter. Das ist eine Merkwürdigkeit, da sie eine verkörperte künstliche Intelligenz in Form von Robotern zeigt, die weder den Stand der Technik in irgendeiner Weise darstellt, noch potentiellen Entwicklungen der Robotik oder der AI in irgendeiner Weise gerecht wird.</p>



<p><strong>Ich komm jetzt nochmal darauf zurück, wie Euer Projekt NotMyRobots angefangen hat. Du hast gesagt, Ihr hattet alle aus Eurem wissenschaftlichen Hintergrund schon angefangen, diese Beispiel zu sammeln. Gab es denn irgendeinen konkreten Anlass?</strong></p>



<p>Ich glaube, vor Allem das Entsetzen!</p>



<p>Es gibt einfach Bilder, wenn man die sieht, bleibt einem nichts weiter als sie staunend zu speichern und in die Giftkiste zu packen. Die fürchterlichsten sind glaube ich eigentlich die, in denen Roboter auf einmal ge-gendert werden. Der kompetente Roboter ist gerne ein sehr männlicher Roboter, mit männlichen Gesichtszügen. Noch viel schlimmer finde ich aber, wenn es eine unnötige Weiblichkeit der Roboter gibt. Das sind meistens die Roboterdarstellungen mit Brüsten, die ja keinerlei technologische Wirklichkeit darstellen und auf sexistische Kategorien abzielen.</p>



<div class="wp-block-image"><figure class="alignright size-large is-resized"><img src="https://botzeit.de/wp-content/uploads/2020/04/jetsons-rosie.png" alt="Rosie von den Jetsons" class="wp-image-1050" width="224" height="364"/><figcaption>Rosie von den Jetsons <a href="https://www.pngwave.com/png-clip-art-tuzxa">[Quelle]</a></figcaption></figure></div>



<p>Das ist natürlich gerade für uns Soziologen schrecklich, da Roboter und Cyborgs durchaus auch ein Versprechen einer Welt in sich tragen, die zum Beispiel Gender-Stereotype challengen könnte. Da sind gerade Humanoide natürlich immer sehr stark in einem Spannungsfeld von Geschlechtlichkeit und geschlechtlichen Stereotypen. Der männlich-starke, heroische Roboter auf der einen Seite. Der Terminator wird ja nicht umsonst von Arnold Schwarzenegger, als Klischeebild der Männlichkeit, verkörpert.</p>



<p>Auf der anderen Seite finden wir ganz viele Service-Stereotypen wieder. Da kommt es nicht von ungefähr, dass man auf ganz vielen Präsentationsfolien in der Mensch-Roboter-Interaktion <em>Rosie</em> von den <a href="https://de.wikipedia.org/wiki/Die_Jetsons">Jetsons</a> findet. Gerade bei Haushaltsrobotern und Pflegerobotern werden die Weiblichkeitsbilder, die wir in Care-Berufen kennen, auf die Roboter projiziert. Und dann finden wir plötzlich Bilder von Haushaltsrobotern, die Haushaltsmädchen-Schürzen tragen und deren Posen auch ganz klar mit der Verrichtung von Servicetätigkeiten assoziiert sind.</p>



<p>Das ist einerseits schade, weil Robotik eine Technologie ist, die Entitäten anders denken könnte, also zum Beispiel postgeschlechts-Identitäten. Das ist sicherlich kein zentrales Anliegen aktueller Robotikentwicklung, aber für uns ist das schon interessant. Pepper zum Beispiel hat mindestens im Deutschen und Englischen auch Antworten auf die Frage einprogrammiert, ob es ein Mädchen oder ein Junge ist. Das scheint also eine unmittelbare Frage zu sein, die Pepper triggert. Ich finde es zum Beispiel interessant, dass wir offenbar diesem technischen Objekt eine Geschlechtlichkeit beigeben müssen, sonst haben wir keine Kategorie, mit der wir darüber reden können, aber Pepper schlägt offenbar in dieser Kategorisierung fehl. </p>



<p>Das ist natürlich spannend: dass die humanoide Robotik solche Kategorien auch mal in Frage stellen kann und uns zum Nachdenken anregen kann. Wenn wir dann aber solche Bilder haben, wie die der robotischen Putzfrau oder die robotische Haushälterin oder das Sexobjekt Roboter in absolut nicht sexuellen Kontexten, dann ist das zu kritisieren. Das hat dann nämlich auch Implikationen für den Umgang mit Technik auf Dauer. Wenn wir Roboter als uns untergestellte Technologie empfinden, dann impliziert das häufig einen ganz merkwürdigen Umgang mit Technologie. Gerade vor dem Hintergrund, dass eigentlich alle robotische Technologie darauf angewiesen ist, ein eher partnerschaftliches Verhältnis mit uns einzugehen. Im Moment sehen wir zum Beispiel, dass das eigentliche Anpassungsfeld noch die menschliche Seite ist: wenn Roboter funktionieren sollen, muss die Umgebung strukturiert und robotisiert werden, muss unser Umgang mit ihnen robotisiert werden. Auch Reparatur ist im Moment immer auf der menschlichen Seite. Da schürt es natürlich falsche Erwartungen, wenn wir in der Darstellung Roboter sehen, die perfekte Hausmädchen sind.</p>



<p><strong>Spannend! Ich hätte nicht gedacht, dass ich mal so intensiv in der Robotik auf Sexismus und post-gender stoße. Das begegnet mir sonst in der Robotik als Ingenieurswissenschaft nicht so viel. Sollte es aber vielleicht.</strong></p>



<p>Das ist aber auch legitim. Ich bin halt Sozialwissenschaftler und ich weiß, dass unsere Ingenieure meist ganz andere Sorgen haben als wir. Die Sorgen um diese Bilder treffen sich aber trotzdem auf einer gewissen Ebene. Die Sorge darum, was Technik kann und wie die Technik dargestellt wird, die finde ich auch bei unseren Robotikern sofort wieder.</p>



<p><strong>Absolut! Bei Dir und Euch von NotMyRobots hat das ja durchaus auch einen wissenschaftlichen Hintergrund, oder? Also zum Beispiel im Kontext Deiner Dissertation?</strong></p>



<p>Bei Lisa und Laura liegt das sicher im Kontext der Dissertation, ja. In meiner Dissertation geht es eher um Robotik als Wissenschaft und vor Allem darum, wie robotische Wettkämpfe dabei eine Rolle spielen.</p>



<p><strong>Also ist das für Dich eher ein Hobby?</strong></p>



<p>Letztendlich denken wir darüber natürlich schon auf eine wissenschaftliche Art und Weise nach. Wir waren zum Beispiel schon eingeladen, einen Vortrag zu dem Open Lab zu halten, das wir bei <a href="http://www.mti-engage.tu-berlin.de/">MTI-engAge</a> haben. Die Idee, ein solches Open Lab zu starten, ist natürlich aus genau solchen Überlegungen entstanden: dass die Robotik damit kämpft, diejenige Disziplin zu sein, die entweder den Terminator baut oder Menschen ihre Jobs wegnimmt. Das ist eine Hypothek, die man mit jedem robotischen Projekt mitnimmt.</p>



<p>In dem Projekt stand deswegen einmal im Monat unser Labor jedem offen. Das ist sehr gut angenommen worden und die Leute sind durchaus auch mit der Erwartung aus genau solchen Visualisierungen zu uns gekommen: Roboter zu sehen, die alles können. Die waren dann natürlich enttäuscht, dass Pepper zwar im Eingang stand und versucht hat, Hallo zu sagen, aber dann doch sehr wenig konnte und nicht die Hüfte geschüttelt hat. Da ergibt sich dieses sehr schöne Spannungsfeld von einerseits wahnsinniger Erwartung daran, was der Roboter kann und andererseits gibt es dann unseren <a href="https://www.franka.de/de/">Franka Emika</a>, der Bälle übergibt, was auf erster Ebene erstmal wahnsinnig unspektakulär ist.</p>



<div class="wp-block-image"><figure class="alignleft size-large is-resized"><img src="https://botzeit.de/wp-content/uploads/2020/04/Franka_Panda.png" alt="Franka Emika Panda" class="wp-image-1071" width="321" height="376" srcset="https://botzeit.de/wp-content/uploads/2020/04/Franka_Panda.png 838w, https://botzeit.de/wp-content/uploads/2020/04/Franka_Panda-256x300.png 256w, https://botzeit.de/wp-content/uploads/2020/04/Franka_Panda-768x901.png 768w" sizes="(max-width: 321px) 100vw, 321px" /><figcaption>Franka Emika Panda <a href="https://www.franka.de/">[Quelle]</a></figcaption></figure></div>



<p>Da gibt es dann auch noch eine Differenz zwischen Pepper, den eigentlich keiner im Labor so richtig mag, auf dem kann man halt ein bisschen rumstreicheln. Und dann haben wir da diese tolle Maschine, die wahnsinnig viel kann und in die wahnsinnig viel Hirnschmalz geflossen ist. Die nimmt einen Ball vom Tisch und übergibt die an den Menschen und das ist dann erstmal eine Enttäuschung dieser Erwartungen.</p>



<p>Aber dann gibt es eine zweite Ebene, nämlich, darüber nachzudenken, was ist überhaupt kompliziert in der Robotik und was ist überhaupt auch an solchen trivialen Aufgaben für die aktuelle Robotik so spannend. Da gibt es meistens so einen Effekt, dass Leute überhaupt erstmal realisieren, wie schwierig es ist, Roboter zu bauen. Wenn man in einem Labor ist und sich die Bewegungen anguckt und was der Roboter überhaupt kann und was Stand der Technik ist, funktioniert das wahnsinnig gut. Danach sind die meisten Leute tatsächlich auch wieder begeistert. Das gibt so eine schöne Kurve der Robotikbegeisterung.</p>



<p>Das konnten wir uns natürlich nur leisten, weil wir ein großzügiges Labor hatten, viele Roboter und Leute, die überhaupt daran interessiert waren, diesen Dialog mit der Öffentlichkeit zu führen. Und solche Dialoge sind doch eher selten. Es gibt sonst natürlich Messen und Tage der offenen Tür als mögliche Berührungspunkte, aber da kommen &#8211; das haben wir auch gemessen &#8211; eher diejenigen, die ohnehin schon Enthusiasten sind und sich dafür begeistern.</p>



<p>Also, es ist schon irgendwie ein Hobby, aber es war auch Teil unserer beruflichen Realität, genau mit diesen Erwartungen konfrontiert zu werden. Für uns ist eben immer noch interessant, einen Umgang damit zu finden. Wir haben aber auch in zwei Fällen mal Redakteure angeschrieben und &#8211; da sind wir auch stolz drauf &#8211; haben geschafft, dass die die Symbolbilder in ihren Artikeln geändert haben.</p>



<p><strong>Oh, cool!</strong> </p>



<p>Das ist natürlich toll. Und als Soziologen kritisieren wir natürlich immer gerne, aber viel schwieriger ist, Alternativen zu benennen. Das fällt uns immer noch schwer. Wir hatten einen Kollegen, der eine Ausstellung und ein Kunstobjekt dazu plant, wie man Robotik anders und besser bebildern kann. Das liegt Corona-bedingt gerade etwas auf Eis. Die nächste Stufe wäre aber natürlich, darüber nachzudenken, welche Bilder wir schaffen können, die der Technologie und der tatsächlichen Richtung der Technologie gerechter werden.</p>



<div class="wp-block-image"><figure class="alignright size-large is-resized"><img src="https://botzeit.de/wp-content/uploads/2020/04/Shadow_Hand_Bulb_large_Alpha-597x1024.png" alt="Shadow-Hand" class="wp-image-1059" width="196" height="334"/><figcaption>Shadow-Hand <a href="https://commons.wikimedia.org/wiki/File:Shadow_Hand_Bulb_large_Alpha.png">[Quelle]</a></figcaption></figure></div>



<p><strong>An der Stelle grätsche ich mal rein. Als Robotikingenieur müsste ich selbst es ja dann eigentlich besser machen können. Das bezieht sich sowohl auf botzeit, natürlich, als auch auf den Wikipedia-Artikel &#8218;<a href="https://de.wikipedia.org/wiki/Robotik">Robotik</a>&#8218;, guck Dir den mal schnell an. Das dortige Titelbild, die Shadow-Hand oben rechts im Artikel, habe ich dort vor Jahren mal reingesetzt. Was hältst Du davon?</strong></p>



<p>Naja, die Abbildung zeigt zumindest schon einmal einen technologischen Stand der Dinge, sie zeigt zumindest mal Aktuatoren und Muskeln. Ich bin mir allerdings nicht sicher, ob die Hand in ihrer Bewegung die Glühbirne tatsächlich greifen könnte. Ich wage, das zu bezweifeln.</p>



<p><strong>Demnach wäre das also auch wieder eine Abbildung, die den Stand der Robotik nicht korrekt und nicht übermäßig realistisch darstellt?</strong></p>



<p>Ich finde das Bild tatsächlich nicht <em>so</em> schlimm. Man sieht schon eine Arbeit am biologischen Menschen und sie sieht sehr filigran aus. Aber mit einer menschlichen Hand zu greifen ist natürlich schon etwas, worüber die Robotik im Moment tatsächlich redet und reden muss. Man sieht hier auch immerhin eine relativ offene Technik an der Hand und sie wirkt immerhin noch sehr technologisch. Ich finde das Bild nicht so schlimm an der Stelle.</p>



<p><strong>Okay, dann bin ich beruhigt.</strong></p>



<p><strong>Das ist jetzt ein sehr guter Bogen zu meiner eigentlichen Kernfrage, die Auslöser für dieses Interview mit Dir ist. Mit NotMyRobots legt Ihr ja den Finger in die Wunde der Journalisten und Redaktionen, die diese falschen Symbolbilder nutzen. In dem Artikel, den ich gerade für botzeit vorbereite, geht es aber darum, dass ich finde, dass das Problem in großen Teilen aber auch ein hausgemachtes ist. Dass also die Robotikwissenschaft dieses Zerrbild auch selbst mit verursacht und befeuert. Siehst Du das auch so?</strong></p>



<p>Vielleicht liegt es daran, dass unser Robotiklabor in diesem Bezug relativ <em>woke</em> ist und regelmäßig sogar explizit Sachen abgebrochen worden sind, wenn der Eindruck entstand, dass der Roboter etwas kann, was er tatsächlich aber nicht kann. Das wird aber wahrscheinlich bei uns so gemacht, weil es an ganz vielen anderen Stellen nicht gemacht wird.</p>



<p>In der Robotik selber ist mir das Problem nicht so sehr untergekommen. Vielleicht bin ich da selber blind, deswegen bin ich sehr gespannt auf Deinen Artikel. In der Robotik, an der ich direkt beteiligt war wurde darauf geachtet, dass viel kommuniziert wird, was getan wird. Es wird ja auch oft ein Video zu den Veröffentlichungen beigelegt, in dem versucht wird, ganz klar zu machen, was getan wird. Ich hab dann auch gelernt, dass es in Videos Zeichen, an denen man erkennen kann, ob das Video manipuliert wird oder nicht. Also klassischerweise zum Beispiel eine Person im Hintergrund des Videos, an der sich gut sehen lässt, ob das Video vorgespult wird oder unterbrochen wurde. </p>



<p>Wo es aber meines Erachtens ganz klar auftaucht ist in der Mensch-Roboter-Interaktion als Disziplin und da ist auch unser Lab dann etwas schuldig. Da werden ganz viele der Experimente in der Wizard-of-Oz-Variante durchgeführt. <a href="https://de.wikipedia.org/wiki/Wizard-of-Oz-Experiment">Wizard-of-Oz</a> ist nunmal, wenn man so will, <em>fake</em>. Wenn ich Dialoge eintippe, wenn ich Bewegungen steuere, dann kaschiert das natürlich den tatsächlichen Stand der Technik und ist ein Euphemismus dafür, was man tatsächlich kann.</p>



<p>Ich hab das kürzlich auch bei der <a href="https://de.wikipedia.org/wiki/Lange_Nacht_der_Wissenschaften">langen Nacht der Wissenschaft</a> gesehen. Da werden Übergaben zwischen Roboter und Mensch gemacht und behauptet, der Roboter würde das erkennen können. Es wird sogar was über die Sensoren erzählt. In Wirklichkeit sitzt aber im Nebenraum der Operator und steuert den Roboter über eine Kamera. Das ist natürlich schlechte wissenschaftliche Praxis.</p>



<p>Das liegt aber genau an der falschen Erwartungshaltung und daran, dass der aktuelle Stand der Robotik häufig zu unspektakulär ist. Die Dinge, die aus Ingenieurssicht interessant sind, sind von der Außenperspektive häufig einfach nicht besonders sichtbar oder spektakulär. Wenn man beeindrucken will oder Fördergelder haben will, nötigt das einen manchmal dazu, solche Kompromisse in der Darstellung einzugehen.</p>



<p>Aus meiner Wahrnehmung gibt es da aber eine gewisse Differenz zwischen populär-wissenschaftlicher Aufarbeitung, die ganz fürchterlich ist und semi-wissenschaftlicher Aufarbeitung, die etwas weniger fürchterlich ist. Ich hab aber selten in der Robotik wirklich wissenschaftliches Fehlverhalten unter Kollegen erlebt.</p>



<p><strong>Finde ich gut, dass Du das so positiv siehst. Ich glaube, ich bin da nicht ganz so positiv. Was ich nämlich dazu zählen würde &#8211; das ist vielleicht kein Betrug, aber Beschönigung mindestens &#8211; sind viele Videos der Robotik. Ich versuche eine Sache 50 Mal und lade dann das eine erfolgreiche Mal auf YouTube hoch. Darüber spreche ich dann und schreibe darüber vielleicht sogar noch eine wissenschaftliche Veröffentlichung. Das begegnet uns glaube ich auch in der Robotikwissenschaft und ist für mich eine ähnliche Praxis.</strong></p>



<p>Ja. Das finde ich wahnsinnig spannend, denn darüber schreibe ich tatsächlich in meiner Dissertation. Das wird wahrscheinlich mein Projekt für die Zukunft werden: die epistemische Frage &#8211; da kommt jetzt wieder der Soziologe, sorry &#8211;  wie wissenschaftliche Evidenz in Disziplinen erzeugt wird, die an der Schnittstelle zwischen Science und Engineering stehen. Das ist glaube ich wissenschafts-theoretisch noch nicht gut beschrieben. Das wahnsinnig Interessante in der Robotik für einen Soziologen ist ja, dass man während der Forschung den Gegenstand seiner eigenen Forschung erst kreiert.</p>



<p><strong>Oh, ja stimmt. Interessant!</strong></p>



<p>Das ist etwas, das absolut unüblich ist in den meisten wissenschaftlichen Disziplinen. Es gibt natürlich ähnliche Beispiele: Wissenschaftler, die das Elektronenmikroskop bauen, aus der Notwendigkeit heraus, Ihre Forschung an Atomen zu machen. Dort hat aber ganz klar der gebaute Gegenstand Instrument-Charakter.</p>



<p>Der Roboter, den wir bauen, ist aber ja mehr als ein Instrument für weitere Forschung. Deswegen ist es eben wahnsinnig interessant, wie dort Evidenzen kreiert werden. Da sehe ich das Video auch ganz klar als neues Medium und so kenne ich das aus keiner anderen Wissenschaft. Man sieht häufig bei Robotik-Papern, dass auf der Homepage der Link zum IEEE-Paper zu finden ist, das mein YouTube-Video verlinkt. In dem Video lasse ich meinen Roboter dreimal fahren, vielleicht kann man auch noch die Kurven der Bewegung sehen. Das ist wahnsinnig interessant, weil es eine neue Art und Weise ist, Evidenzen zu schaffen und Wissenschaft zu kommunizieren. Da ist natürlich genau dieser Effekt interessant, dass einmaliges Funktionieren häufig als eine Art Proof of Concept ausreicht. Das widerspricht in eigentlich allen anderen Wissenschaften dem Prinzip der wissenschaftlichen Wiederholbarkeit. Das liegt aber natürlich auch daran, dass das Setup der Experimente häufig von einer derart hohen Komplexität ist, dass das einmalige Funktionieren in einer nachweisbaren Form &#8211; und das ist zum Beispiel das Video &#8211; reicht, um Proof of Conept zu sein.</p>



<p>Ich bin mir noch nicht sicher, ob es schlicht nicht-wissenschaftlich ist oder ob es wissenschaftliches Fehlverhalten ist oder ob es einfach dem Stand der Robotik als Wissenschaft geschuldet ist.</p>



<p><strong>Ich muss zur Ehrenrettung der Robotik anmerken, dass mittlerweile einige Journals und Konferenzen dieses Problem auch erkannt haben. Deswegen wird immer mehr gefordert, auch eine gewisse Reproduzierbarkeit der Experimente zu ermöglichen. Zum Beispiel indem ich die Software ausliefern muss oder die gesamte ROS-Installation als virtuelle Maschine mitliefern muss. Das ist aufgrund der von Dir genannten Komplexität natürlich immer noch ein Problem. Es kann sich zum Beispiel nicht jeder den Roboter kaufen, um die Experimente zu reproduzieren. Zum Teil sind die Systeme auch einfach so komplex, dass es nicht mit vertretbarem Aufwand möglich ist. Aber dieses Problem wird glaube ich immer mehr gesehen und daran wird gearbeitet. Zum Beispiel mit Robotik-Wettkämpfen, in dem man das dann live zeigen muss, das ist dann ja auch wieder Dein Thema. </strong></p>



<p>Das ist tatsächlich eines meiner Kapitel, ja: der Wettkampf und die Live-Demonstration als Experiment-Status. Da schlagen wir dann auch wieder den Bogen zu NotMyRobots und der Öffentlichkeit. Wenn wir nämlich öffentliche Live-Demos vom Status der Robotik haben, ist das natürlich extrem nützlich zur Kommunikation. Das ist etwas, das zurückgeht auf sehr alte Formen der Technikdemonstration, die wir im 19. Jahrhundert und Anfang des 20. Jahrhunderts hatten. Zum Beispiel Lindberg, der vor den Augen der Pariser Öffentlichkeit demonstriert hat, was sein Flugzeug kann. Auch da verstehen natürlich nicht alle das Flugzeug als wahnsinnig komplexes System. Ähnlich ist das in der Robotik. Wir haben dort einen wahnsinnigen Haufen an Disziplinen. Selbst die Leute, die letztendlich das Verhalten implementieren, können nicht das gesamte System verstehen.</p>



<div class="wp-block-image"><figure class="alignright size-large is-resized"><img src="https://botzeit.de/wp-content/uploads/2020/04/HTWK_Leipzig_-_Nao-Team-1024x768.jpg" alt="Nao-Roboter beim RoboCup" class="wp-image-1075" width="253" height="190" srcset="https://botzeit.de/wp-content/uploads/2020/04/HTWK_Leipzig_-_Nao-Team-1024x768.jpg 1024w, https://botzeit.de/wp-content/uploads/2020/04/HTWK_Leipzig_-_Nao-Team-300x225.jpg 300w, https://botzeit.de/wp-content/uploads/2020/04/HTWK_Leipzig_-_Nao-Team-768x576.jpg 768w, https://botzeit.de/wp-content/uploads/2020/04/HTWK_Leipzig_-_Nao-Team-1536x1152.jpg 1536w, https://botzeit.de/wp-content/uploads/2020/04/HTWK_Leipzig_-_Nao-Team-2048x1536.jpg 2048w" sizes="(max-width: 253px) 100vw, 253px" /><figcaption>Nao-Roboter beim RoboCup <a href="https://commons.wikimedia.org/wiki/File:HTWK_Leipzig_-_Nao-Team.jpg">[Quelle]</a></figcaption></figure></div>



<p>Diese Art von Demonstrationen in der Robotik sehe ich zum Beispiel beim <a href="/tag/robocup/">RoboCup</a>. Wenn ich da hin gehe und die Roboter Fußballspielen sehe, dient das natürlich auch dem Zweck, zu sehen: diese Roboter sind keine Terminatoren. Wahrscheinlich sind deswegen die Naos auch viel beliebter als die Roboter der <a href="https://www.robocup.org/leagues/6">Middle Size League</a>. Gerade die Naos zeigen gut den Stand der Technik und wie viel Arbeit es ist, etwas für den Menschen so triviales zu machen wie einen Ball zu finden, ein Tor zu finden, und den Ball dann ins Tor zu schießen. Solche Dinge kann man beim RoboCup erleben. Damit sind diese Veranstaltungen gut geeignet, um eine Verbindung zwischen wissenschaftlich Interessierten und der Robotik herzustellen. </p>



<p><strong>Für mich als Robotiker sind diese Videos vom RoboCup oftmals furchtbar frustrierend. Wenn man vom <a href="/tag/robocuphome/">RoboCup@Home</a> zum Beispiel das x-te Mal sieht, wie eine fahrende Tonne ganz langsam an einen Tisch heran fährt, um eine einzelne Cola-Dose zu greifen, dann frustriert mich das ungemein und ich denke: irgendwie bleibt die Robotik seit Jahren stehen. Aber aus Sicht der Wissenschaftskommunikation ist das natürlich genau richtig, um ein realistischeres Bild zu vermitteln. Diese Szenen zeigen, dass selbst scheinbar trivialen Aufgaben, die von einem Menschen mit geschlossenen Augen nebenbei erledigt werden können, unglaublich komplex sind. Und da stehen wir eben noch in der Robotik: selbst in einer strukturierten Umgebung einfache Aufgaben zu erfüllen ist immer noch knüppelhart.</strong></p>



<p><strong>So, wir haben jetzt doch ganz schön große Bögen geschlagen in diesem Interview. Ich habe jetzt noch zwei, drei Fragen zum Schluss, die sich nicht perfekt anschließen.</strong></p>



<p>Genau so sollte das sein mit den letzten Fragen eines Interviews.</p>



<p><strong>Dieses Problem, das ihr mit NotMyRobots aufzeigt, falsche Symbolbilder, hat ja nicht nur die Robotik. Man denke zum Beispiel an die klassischen Symbolbilder von Hackern in Hoodies. Wahrscheinlich gilt das in ähnlicher Form für fast alle Disziplinen. Wenn man sich auskennt und darin arbeiten, dann schlägt man wahrscheinlich auch da die Hände über dem Kopf zusammen. Müsste es neben NotMyRobots also auch NotMyHacker und NotMyX&#8230; geben?</strong></p>



<p>Ich glaube, bei NotMyHacker gibt es so etwas schon, also Leute, die den klassischen Kaputzenpulli-Hacker ironisieren und darstellen. Aus meiner Perspektive kenne ich aber zum Beispiel keine Bilder, die die Soziologie darstellen. Vielleicht sind wir einfach auch weniger in derartigen Artikeln vertreten.</p>



<p>Da ist noch etwas, das wir auch in der Robotik machen könnten ist. Wenn zum Beispiel <a href="https://de.wikipedia.org/wiki/Armin_Nassehi">Armin Nassehi</a> in der FAZ interviewt wird, dann ist ein Bild von Armin Nassehi abgebildet, und kein Symbolbild wie in der Robotik. Das wäre vielleicht auch in der Robotik nicht verkehrt, dass die Gesichter hinter der Technik gezeigt werden, die gerade dargestellt wird. Ich denke, dass BiologInnen in ihren Artikeln ähnliches finden.</p>



<p>Ich glaube aber, dass dieser merkwürdige Science-Fiction-Realismus in der Robotik das größere Problem hat, weil die Robotik seit jeher mit Science Fiction assoziiert ist. Wenn man über Roboter und Robotik redet, dauert es häufig keine drei Sätze bis jemand <a href="https://de.wikipedia.org/wiki/Isaac_Asimov">Asimov</a> erwähnt &#8211; das <em>Godwin&#8217;s Law</em> der Robotik sozusagen. Das heißt, die Science-Fiction-Elemente sind in der Robotik viel deutlicher als in anderen Wissenschaften. Das ist diese Merkwürdigkeit von Fantasie und sehr konkreter Darstellung, die die Robotik einzigartig macht. Ich glaube, in keiner anderen Disziplin existiert dieses Bild so stark. Wenn wir humanoide Roboter sehen, dann haben wir eine Vorstellung davon, die pop-kulturell geprägt ist. Humanoide sind sehr präsent in unserer pop-kulturellen Fantasie und in unserem pop-kulturellen Gedächtnis. Zumindest in einem westlichen Kontext sind die glaube ich viel stärker als in anderen Disziplinen. Wenn man Stock Photos googelt &#8211; und das werde ich als Experiment nachher wahrscheinlich mal ausprobieren &#8211; ist wahrscheinlich Robotik diejenige Disziplin, bei der die meisten fürchterlichen Stock Photos gefunden werden.</p>



<p><strong>Das kann gut sein.</strong></p>



<p><strong>Dann schließe ich mal ab mit einer Frage, die Du schon zwei, drei Mal angeschnitten hast. Was sollte ich als Blogger, Journalist, Redakteur denn in Zukunft besser machen oder beachten?</strong></p>



<p>Es sollte sozusagen einen Giftschrank geben von grafischen Robotikvisualisierungen, die nicht mehr benutzt werden. Also zum Beispiel  Terminator und HAL. Die fliegen raus! Die werden einfach nicht mehr benutzt, es sei denn, es geht im Text tatsächlich um den Terminator oder HAL. Außerdem alles, was stark geschlechtlich ist und &#8211; das ist glaube ich mit das Fürchterlichste &#8211; dieser weiße Roboter, bei dem auch diese merkwürdige Reinheit/Weißheit <em>(sic!)</em> vorkommt. Die fliegen auch alle raus! Das ist glaube ich das beliebteste Stock Photo und der Designer ist wahrscheinlich mit seinem <em>White Robot Guy</em> ziemlich reich geworden, wenn die Bilder nicht piratisiert werden. Der kommt auch weg!</p>



<p>Wenn wir AI illustrieren, dann muss klar werden, AI ist <em>nicht</em> ein nachdenkender Roboter. Generell sollten AI-Artikel nicht mit Robotern bebildert werden, es sei denn die künstliche Intelligenz ist tatsächlich in robotischen Systemen verkörpert. </p>



<p>Ich würde raten, Bilder von den robotischen Systemen zu verwenden, über die man schreibt. Die haben nämlich meistens Bilder. Wir haben es irgendwann so gemacht, dass wir unserer Presseabteilung gesagt haben, dass sie bei uns im Lab vorbei kommen sollen, wenn sie Bilder haben wollen. Die haben dann Bilder von den tatsächlichen Robotern gemacht. Die stellen dann häufig trotzdem noch Dinge dar, die sie nicht wirklich können. Aber immerhin ist es ein existierender Roboter mit dem tatsächlich die Forschung gemacht wird, über die geschrieben wird.</p>



<p>Wenn die Teaser der Artikel schön aussehen sollen, gibt es auch jede Menge Bilder, die abstrakt sind. Roboter in Form von abstrakter Kunst finde ich weniger schlimm als die Bilder, die konkrete aber falsche Visualisierungen zeigen. </p>



<p>Abschließend würde ich sagen, ein Artikel zur AI braucht kein Roboterbild, und ein Roboter muss nicht immer ein Humanoider sein. Viel wäre schon geholfen, wenn Robotik als Technik gezeigt wird. Deswegen finde ich Deine Abbildung in der Wikipedia auch nicht so schlimm. Wenn keine Verblendungen da sind, sondern wenn Aktuatoren gezeigt werden, wenn Mechanismen gezeigt werden, wenn die technische Entität von Robotik wieder da ist, ist das glaube ich schon sehr hilfreich</p>



<p><strong>Okay, Arne. Dann an dieser Stelle vielen Dank. Wir haben jetzt fast eine Stunde geredet. Das hätte ich im Vorfeld gar nicht gedacht, aber wir haben auch über viele Aspekte geredet, die ich nicht erwartet hatte. Nicht nur Sexismus in der Robotik, sondern sogar auch noch Andeutungen von Rassismus in der Robotik.</strong></p>



<p>Ja, ich glaube gerade dieser weiße Roboter ist aus dieser Perspektive absolut nicht harmlos.</p>



<p>Aber das kommt natürlich davon, wenn man mit SozialwissenschaftlerInnen redet. Das sind die Themen, über die wir dauernd reden und das ist auch irgendwie unsere Hausaufgabe. Das machen wir natürlich auch, um unsere eigene wissenschaftliche Legitimität in die Form unserer Kritik einzubringen.</p>



<p>Ich bin daher sehr gespannt und aus wissenschaftlicher Perspektive sehr interessiert, das auch nochmal aus der robotischen Perspektive zu lesen. Ich warte also gespannt auf Deinen Artikel. </p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/notmyrobots-interview-mit-arne-maibaum/">NotMyRobots &#8211; Interview mit Arne Maibaum</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
<img src="https://vg08.met.vgwort.de/na/a8573a5be180455db8d21f8429c01b96" width="1" height="1" alt="" class="wpvgw-marker-image" loading="eager" data-no-lazy="1" referrerpolicy="no-referrer-when-downgrade" style="display:none;" />
]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/notmyrobots-interview-mit-arne-maibaum/feed/</wfw:commentRss>
			<slash:comments>3</slash:comments>
		
		
			</item>
		<item>
		<title>Interview mit einem Roboter</title>
		<link>https://botzeit.de/2010_07_17_robot-bina-48-interview/</link>
					<comments>https://botzeit.de/2010_07_17_robot-bina-48-interview/#respond</comments>
		
		<dc:creator><![CDATA[Arne]]></dc:creator>
		<pubDate>Sat, 17 Jul 2010 19:13:12 +0000</pubDate>
				<category><![CDATA[Autonome Roboter]]></category>
		<category><![CDATA[Humanoide]]></category>
		<category><![CDATA[ai]]></category>
		<category><![CDATA[amy harmon]]></category>
		<category><![CDATA[bina rothblatt]]></category>
		<category><![CDATA[bina48]]></category>
		<category><![CDATA[chatbot]]></category>
		<category><![CDATA[gesprächspartner]]></category>
		<category><![CDATA[gestik]]></category>
		<category><![CDATA[interview]]></category>
		<category><![CDATA[kommunikation]]></category>
		<category><![CDATA[künstliche intelligenz]]></category>
		<category><![CDATA[new york times]]></category>
		<category><![CDATA[sprache]]></category>
		<category><![CDATA[sprechen]]></category>
		<category><![CDATA[wahrnehmung]]></category>
		<guid isPermaLink="false"></guid>

					<description><![CDATA[<p>Amy Harmon, Reporterin der New York Times, hat einen Artikel über den Roboter Bina48 geschrieben, einen sprechenden Roboterkopf. Hinter dem Kopf steckt eine künstliche Intelligenz, wie es heißt, und der Roboter soll sich mit seinem Gegenüber in der Art seiner Vorlage Bina Rothblatt, einer lebendigen Person, unterhalten. Was die Reporterin Amy Harmon unter dem vielversprechenden [&#8230;]</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2010_07_17_robot-bina-48-interview/">Interview mit einem Roboter</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Amy Harmon, Reporterin der New York Times, hat einen Artikel über den Roboter <em>Bina48</em> geschrieben, einen sprechenden Roboterkopf. Hinter dem Kopf steckt eine künstliche Intelligenz, wie es heißt, und der Roboter soll sich mit seinem Gegenüber in der Art seiner Vorlage Bina Rothblatt, einer lebendigen Person, unterhalten. Was die Reporterin Amy Harmon unter dem vielversprechenden Titel <a href="http://www.nytimes.com/2010/07/05/science/05robotside.html?sq=BINA&amp;st=cse&amp;adxnnl=1&amp;scp=1&amp;adxnnlx=1278378013-cLQ+NlZ50PUL/pvjSaX4Eg">Making Friends With a Robot Named Bina48</a> („Freundschaft schließen mit einem Roboter namens Bina48“) zeigt, ist für denjenigen, der ein natürliche Kommunikation erwartet, etwas ernüchternd. So auch für die Reporterin selbst, wie in der Aufzeichnung des Interviews erkennbar ist:</p>
<p><figure style="width: 640px" class="wp-caption aligncenter"><iframe title="Interview With a Robot | The New York Times" width="640" height="360" src="https://www.youtube.com/embed/uvcQCJpZJH8?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe><figcaption class="wp-caption-text">Interview mit Bina48 (englisch)</figcaption></figure></p>
<p>Der Roboter fokussiert seine Gesprächspartnerin nicht, versteht Fragen falsch oder gar nicht, usw. …</p>
<p>Eine natürliche Gesprächssituation zu erzeugen, ist für einen Roboter (bzw. deren Erschaffer) eine unglaublich schwierige Aufgabe. Der Mensch kommuniziert eben in einem Gespräch nicht nur über Sprache, sondern gleichzeitig über viele weitere Kanäle: Gestik, Mimik, Betonung, … entsprechend erwarten wir Menschen in einem Gespräch, auf sämtlichen dieser Kanäle von unserem Gegenüber plausible Signale zu empfangen. Ein Roboter, der mit uns spricht, aber über keine Mimik verfügt, wird niemals natürlich, menschlich wirken. Ein Roboter, der die Betonung nicht variiert, wird niemals Emotionen transportieren oder beim Gegenüber erzeugen können wie es mein Mensch vermag.</p>
<p>Und so sieht man die Schwierigkeiten der Reporterin, mit dem Roboter ein Gespräch zu führen. Schwierigkeiten, die nichtmal inhaltlicher Natur sind. Selbst wenn der Roboter die Frage versteht und eine einigermaßen plausible Antwort erzeugen kann: Wie er dabei wirr umhersieht, immer einen Moment zu lange mit dem Antworten wartet und mangels ausgeprägter Mimik nicht zu erkennen gibt, ob er gerade nachdenkt oder einfach die Frage nicht verstanden hat … all das verwirrt die Reporterin und sorgt mehrfach für ein stockendes Gespräch und gegenseitiges Unterbrechen.</p>
<p>Die Leistungen der Truppe um David Hanson von <a href="http://www.hansonrobotics.com/">Hanson Robotics</a> sollten bei alledem aber nicht unterschätzt werden. Der Chatbot <em>Bina48</em> ist nicht schlecht … die Aufgabe – natürliche, menschliche Kommunikation – ist nur einfach eine unglaublich schwierige. Hier ist man in der Robotik noch ganz am Anfang der Entwicklung (das allerdings schon seit Jahrzehnten) und hat noch zahlreiche ungelöste Fragen vor sich.</p>
<p>Insofern ist <em>Bina48</em> und dieses Interview einfach als ein weiterer Baustein in dieser Entwicklung zu verstehen und als weiterer Quell neuer Erkenntnisse. Für den Zuschauer macht dieses Interview anschaulich, wie sehr Roboter – bei allen Erfolgen in letzter Zeit – versagen, wenn man sie <em>ins Feld lässt</em>, in die sogenannte <em>unstrukturierte Umgebung</em>. Das ist unsere natürliche Umgebung, die nicht den künstlichen, vereinfachten Laborbedingung entspricht. In diesem Fall eine Reporterin, die einfach nur ein normales Gespräch führen möchte.</p>
<p>Der Original-Artikel in der New York Times mit Amy Harmons ganzem Erfahrungsbericht findet sich hier: <a href="http://www.nytimes.com/2010/07/05/science/05robotside.html?sq=BINA&amp;st=cse&amp;adxnnl=1&amp;scp=1&amp;adxnnlx=1278378013-cLQ+NlZ50PUL/pvjSaX4Eg">Making Friends With a Robot Named Bina48</a> (englisch)</p>
<p><target ids="making-friends-with-a-robot-named-bina48" names="making\ friends\ with\ a\ robot\ named\ bina48" refuri="http://www.nytimes.com/2010/07/05/science/05robotside.html?sq=BINA&amp;st=cse&amp;adxnnl=1&amp;scp=1&amp;adxnnlx=1278378013-cLQ+NlZ50PUL/pvjSaX4Eg"></target><target ids="hanson-robotics" names="hanson\ robotics" refuri="http://www.hansonrobotics.com/"></target></p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2010_07_17_robot-bina-48-interview/">Interview mit einem Roboter</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
<img src="https://vg08.met.vgwort.de/na/1b030479cf48482280e24e4fe0fcbe4d" width="1" height="1" alt="" class="wpvgw-marker-image" loading="eager" data-no-lazy="1" referrerpolicy="no-referrer-when-downgrade" style="display:none;" />
]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/2010_07_17_robot-bina-48-interview/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
