<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Artikel &ndash; botzeit</title>
	<atom:link href="https://botzeit.de/category/artikel/feed/" rel="self" type="application/rss+xml" />
	<link>https://botzeit.de/category/artikel/</link>
	<description>Robotik-Blog</description>
	<lastBuildDate>Wed, 20 Jul 2022 07:34:45 +0000</lastBuildDate>
	<language>de-DE</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.0.1</generator>

<image>
	<url>https://botzeit.de/wp-content/uploads/2020/01/cropped-favicon-1-1-32x32.png</url>
	<title>Artikel &ndash; botzeit</title>
	<link>https://botzeit.de/category/artikel/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Robotics for Software Engineers – Interview mit Andreas Bihlmaier</title>
		<link>https://botzeit.de/robotics-for-software-engineers-interview-mit-andreas-bihlmaier/</link>
					<comments>https://botzeit.de/robotics-for-software-engineers-interview-mit-andreas-bihlmaier/#respond</comments>
		
		<dc:creator><![CDATA[Arne]]></dc:creator>
		<pubDate>Tue, 19 Jul 2022 18:04:48 +0000</pubDate>
				<category><![CDATA[Artikel]]></category>
		<category><![CDATA[Haushaltsroboter]]></category>
		<category><![CDATA[Industrieroboter]]></category>
		<category><![CDATA[Mobile Roboter]]></category>
		<category><![CDATA[abb]]></category>
		<category><![CDATA[andreas bihlmaier]]></category>
		<category><![CDATA[architektur]]></category>
		<category><![CDATA[buch]]></category>
		<category><![CDATA[hardware]]></category>
		<category><![CDATA[interview]]></category>
		<category><![CDATA[robodev]]></category>
		<category><![CDATA[software]]></category>
		<category><![CDATA[software engineering]]></category>
		<category><![CDATA[softwarearchitektur]]></category>
		<guid isPermaLink="false">https://botzeit.de/?p=1749</guid>

					<description><![CDATA[<p>Mitte Mai habe mich mit Andreas Bihlmaier unterhalten, mittlerweile Chief Software Architect bei ABB. Ich kenne Andreas schon länger und er schreibt aktuell an dem Buch Robotics for Software Engineers“, von dem man schon erste Leseproben und Kapitel lesen kann.<br />
Worum es in dem Buch geht und wie es dazu kam, habe ich mit ihm besprochen.</p>
<p><!-- /wp:paragraph --></p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/robotics-for-software-engineers-interview-mit-andreas-bihlmaier/">Robotics for Software Engineers – Interview mit Andreas Bihlmaier</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>Mitte Mai habe mich mit Andreas Bihlmaier unterhalten, mittlerweile Chief Software Architect bei ABB. Ich kenne Andreas schon länger und er schreibt aktuell an dem Buch „Robotics for Software Engineers“, von dem man schon erste Leseproben und Kapitel lesen kann.</p>



<p>Worum es in dem Buch geht und wie es dazu kam, habe ich mit ihm besprochen.</p>


<div class="wp-block-image">
<figure class="alignright size-full is-resized"><img src="https://botzeit.de/wp-content/uploads/2022/07/andreas-bihmaier.jpg" alt="" class="wp-image-1795" width="209" height="209" srcset="https://botzeit.de/wp-content/uploads/2022/07/andreas-bihmaier.jpg 591w, https://botzeit.de/wp-content/uploads/2022/07/andreas-bihmaier-300x300.jpg 300w, https://botzeit.de/wp-content/uploads/2022/07/andreas-bihmaier-150x150.jpg 150w" sizes="(max-width: 209px) 100vw, 209px" /><figcaption>Andreas Bihlmaier, Chief Software Architect bei ABB</figcaption></figure></div>


<p><strong>Ich: Andreas, woher und wie lange kennen wir uns eigentlich?</strong></p>



<p>Andreas Bihlmaier: Wir sind uns glaube ich im ERF-Universum (<a href="https://botzeit.de/tag/erf/">European Robotics Forum</a>) immer wieder über den Weg gelaufen. Das Thema Software Engineering for Robotics liegt mir ja schon länger sehr am Herzen und da warst Du ja schon deutlich aktiver als ich, z.B. in der Topicgroup. Ich glaube, das waren die ersten Überschneidungen. Vermutlich haben wir uns auch 2014 auf de SIMPAR in Bergamo in Italien gesehen.</p>



<p><strong>Das stimmt! Da haben wir uns bestimmt gesehen, da war ich auf jeden Fall auch für den <a href="https://arxiv.org/html/1411.7148">DSLRob-Workshop</a>.</strong></p>



<p>Also 8 Jahre kennen wir uns damit auf jeden Fall schon! Davon abgesehen verbinde ich Dich immer schon mit dem Thema „Software &amp; Systems Engineering for Robotics“, ERF, und der <a href="https://sparc-robotics-portal.eu/web/software-engineering/home">euRobotics Topicgroup „Software Engineering, Systems Integration and Systems Engineering“</a>. </p>



<p><strong>Damals warst Du aber ja noch bei <a href="https://twitter.com/roboticdevices">robodev</a>.</strong></p>



<p>Genau! Beziehungsweise ganz am Anfang war ich noch am Lehrstuhl. Dann habe ich noch einen kleinen Abstecher zu Google Research gemacht, Ende 2015 meine Dissertation fertig geschrieben und dann im April 2016 robodev gründet. Unter der Flagge war ich dann seither auf den ERFs unterwegs.</p>



<p>Unser gemeinsames Thema war allerdings immer schon Softwareengineering und Robotik, darum dreht sich ja auch in diesem Gespräch. Da ist noch viel zu tun und da ist das letzte Wort definitiv auch noch nicht gesprochen.</p>



<p><strong>Aber Du <em>hast</em> ein Wort gesprochen! Du hast ja nämlich ein Buch darüber geschrieben: Robotics for Software Engineers. Darauf bin ich via LinkedIn aufmerksam geworden, habe die schon verfügbaren Kapitel gelesen und darüber möchte ich heute mit Dir sprechen. Kannst Du für all diejenigen, die das Buch noch nicht gelesen haben kurz zusammenfassen, worum es geht?</strong></p>


<div class="wp-block-image">
<figure class="alignright size-full is-resized"><img src="https://botzeit.de/wp-content/uploads/2022/05/image.png" alt="" class="wp-image-1752" width="242" height="503"/><figcaption>Inhaltsverzeichnis zum Zeitpunkt des Interviews, mit den ersten 4 Kapiteln schon online verfügbar (mittlerweile sind es schon mehr).</figcaption></figure></div>


<p>Ja, gerne! Das Buch kam dadurch zustande, dass mich jemand vom Manning-Verlag angeschrieben hat, ob ich eine Idee für ein Buch hätte. Meine erste Reaktion war: <em>„Nein, das Schreiben der Dissertation hat mir genügt.“</em></p>



<p>Dann habe ich aber überlegt, was mir denn eigentlich noch fehlt. Es gibt ja schließlich schon zig Bücher über Robotik: das <a href="https://link.springer.com/referencework/10.1007/978-3-540-30301-5">Springer Handbook of Robotics</a>, <a href="http://hades.mech.northwestern.edu/index.php/Modern_Robotics">Modern Robotics</a>, Klassiker wie <a href="https://mitpress.mit.edu/books/probabilistic-robotics">Probabilistic Robotics</a> und <a href="http://aima.cs.berkeley.edu/">A Modern Approach</a>, <a href="https://mitpress.mit.edu/books/understanding-intelligence">Understanding Intelligence</a>, etc. Wahnsinnig viele Robotikbücher, zum Teil sehr angewandt &#8211; <em>wie programmiere ich Roboter mit <a href="https://botzeit.de/tag/ros/">ROS</a></em> &#8211; zum Teil sehr akademisch oder forschungsorientiert; da übersteht man dann die ersten drei Seiten nicht ohne Lie-Gruppen und irgendwelche Exponential Maps. Und dann gibt es noch eine dritte Kategorie der Art „so bau ich mir einen Roboter“. Da geht es dann zu achtzig Prozent darum, wie ich einen DC-Motor anlöte und um den Mikrocontroller, um so ein bisschen Linien zu folgen. Und dann gibt es natürlich auch Bücher zum Programmierenlernen, die lediglich einen Roboter als Beispiel nutzen.</p>



<p>Das ist ja eigentlich wunderbar, aber irgendetwas fehlte mir. Nämlich ein Buch, das ich neu eingestellten Softwareentwickler:innen in die Hand drücken kann, die nicht per se Robotiker:innen sind. Das können Embedded-Software-Entwickler:innen sein, Cloud-Fullstack-Entwickler:innen, C++-Pogrammierer:innen und so weiter sein. Viel Softwareentwicklung für die Robotik ist ja nicht Hardcore-Regelungstechnik, oder Algorithmus-Engineering, sondern häufig ganz normales (embedded) Software Engineering. Ob ich das in Automotive mache oder für einen Roboter oder für eine Waschmaschine oder ein IoT device &#8230; ich brauche nicht immer extrem viel Domänenwissen.</p>



<p>Was mir immer gefehlt hat, ist ein Buch, das ich Personen in die Hand geben kann, die Software in einer einigermaßen modernen Sprache schreiben können &#8211; Python, C++, von mir aus auch Javascript &#8211; von Robotik aber noch nicht viel gehört haben &#8211; abseits vielleicht vom <em>Terminator</em>, <em>Nummer 5 lebt!</em>, und ein paar <a href="https://botzeit.de/tag/boston-dynamics/">Boston-Dynamics</a>-Videos. So fange ich dann bezogen auf die Robotik wirklich bei Adam und Eva an, aber ich muss nichts über grundlegende Programmstruktur erklären. So ein Buch habe ich tatsächlich nicht gefunden.</p>



<p>Aber die Robotik wächst ja auch als Feld. Es gibt ja sehr viele Bereiche um die Kernrobotik herum, sei es Serviceroboter, autonome Fahrzeuge, Drohnen, etc. Das ja ein breites Feld und es passiert extrem viel&#8230;</p>



<p><strong>&#8230;und braucht entsprechend viele neue Softwareentwickler:innen.</strong></p>



<p>Absolut! Und das ist die Zielgruppe.</p>



<p><strong>Du hast erklärt, wie es zu der Kernidee und dem Titel des Buches gekommen ist und tatsächlich bin ich immer wieder über den Titel gestolpert. Irgendwie habe ich unbewusst immer wieder ein Buch zu „Softwareengineering in der Robotik“ erwartet, aber das ist es ja gerade nicht. Du willst ja stattdessen Softwareentwickler:innen und Programmierer:innen befähigen, zu verstehen, was eigentlich Softwareengineering für Roboter ausmacht und wie sie von Software in verwandten Disziplinen unterscheidet.</strong></p>



<p>Genau! Es wird natürlich auch ein Kapitel dazu geben, worauf ich umgekehrt achten sollte, wenn ich Robotiksoftware schreiben will &#8211; im Sinne von Software Best Practices: welche Patterns sollte ich vielleicht nutzen oder wiedererkennen. Aber der Hauptteil ist wirklich wie du sagst: <em>„ich bin schon Programmierer:in, jetzt möchte in der Robotik erfolgreich arbeiten können“</em>.</p>



<p>Es ist also nicht das Buch, das ich Robotiker:innen gebe, die aus der Regelungstechnik kommen und Dynamikgleichungen ohne zu zögern an die Tafel schreiben, aber eben auch genauso ihren Code schreiben würden: also unwartbar und unverständlich.</p>



<p>Denn eigentlich ist ja Programmieren in der Robotik nicht so anders als in anderen Domänen: wenn ich ein Ziel habe, sammele ich mir die benötigten Softwarebibliotheken zusammen. Möchte ich einen Roboter bewegen, lade ich mir z.B. Bibliotheken herunter, die mir Kinematik machen. In diversen ROS-Büchern, z.B. <a href="https://www.oreilly.com/library/view/programming-robots-with/9781449325480/">Programming Robots with ROS</a> von Quigley und Gerkey und Co. sehe ich aber, dass man als Robotik-Neuling dann mitunter ROS mit Robotik verwechselt. ROS ist so dominant, dass man dann z.B. denkt, der <a href="http://wiki.ros.org/tf">tf-Baum</a> sei das fundamentale Konzept und nicht verteilte Koordinatensysteme oder wie ich diese repräsentiere. Das möchte ich anders handhaben und bringe erst einmal Grundlagen bei. Allerdings ohne Beweise und immer in der Robotik angewendet. Das ist natürlich ein schmaler Grat zwischen einfachen Kochrezepten und einem Buch über Mathematikgrundlagen.</p>



<p><strong>Was ist denn Deiner Meinung nach der Vorteil davon, nicht tf zu lernen, sondern zu verstehen, warum verteilte Koordinatensystem in der Robotik so essentiell sind?</strong></p>



<p>Ich denke, das ist eine grundlegende Herangehensweise: erst das Konzept, dann die Implementierung, nicht umgekehrt. Denn die Implementierung ist ja häufig willkürlich: warum ich mich für die eine konkrete Ausprägung der API entschieden habe und wie sich die Software genau sich verhält. Es ist also eher ein pädagogisches Grundkonzept, vor der spezifischen tf-API z.B. erst einmal zu verstehen, wie ich die Bewegung von Körpern im Raum relativ zueinander beschreiben kann.</p>



<p>Neben dem persönlichen Vorgeschmack für diesen Aufbau spricht aber auch die bessere Übertragbarkeit. Die großen Roboterhersteller &#8211; für einen davon arbeite ich ja seit einiger Zeit &#8211; haben ja ihre eigenen proprietären Robotik-Softwarestacks. Das heißt, wenn ich mich dann extrem gut mit ROS auskenne, aber das Konzept nicht verstanden habe, kann ich das schwer auf andere Implementierung übertragen und stehe auf verlorenem Posten. Ich glaube tatsächlich, dass es möglich ist, einen ROS <a href="http://wiki.ros.org/navigation">Nav-Stack</a> für mein mobilen Roboter aufzusetzen oder <a href="https://moveit.ros.org/">MoveIt</a> zum Laufen zu bekommen ohne eigentlich Ahnung davon zu haben, was ich tue. Das ist aber natürlich kein robotik-spezifisches Problem&#8230;</p>



<p><strong>&#8230; und erst einmal ja auch nicht schlimm, sondern auch eine Stärke von ROS, die wichtig für die Robotik war. Dadurch finden Leute einen Einstieg, die sich so irgendwann mal für Bücher wie Deines interessieren, aber ohne ROS erst einmal vor eine Wand gerannt wären &#8211; und vielleicht abgebrochen hätten.</strong></p>



<p>Absolut! Ich werde auch nach den ersten paar Kapiteln, in denen ich noch gar keine Implementierung brauche, auf ROS 2 und <a href="https://gazebosim.org/">Gazebo</a> eingehen und Beispiele dann damit zeigen. Mit was denn auch sonst?! Ich konstruiere ja nicht extra irgendein Spielzeug-Robotikframework nur für ein Buch. Das hat dann vielleicht eine schöne und saubere API, aber ich kann halt nichts real damit tun. Ich erkläre den Lesern lieber, wie ich grundsätzlich z.B. inverse Kinematik mache und wie ich das beispielhaft mit <a href="http://wiki.ros.org/rviz">RVIZ</a> und <a href="http://wiki.ros.org/urdf">URDF</a> umsetze und mit Code, der gegen ROS linkt. </p>



<p>Das ist natürlich ein Spagat: ich habe ja selbst auch viele Jahre sehr intensiv mit ROS gearbeitet, so dass ich da nicht auch selber in die Falle tappen will. Ich verwechsle dann selbst auch schonmal den Namen des ROS-Pakets mit dem eigentlichen Problem, das ich lösen will.</p>



<p><strong>Das ist natürlich auch schwer, weil es ja schon eine Art Best Practice gibt, Robotiksysteme zu bauen. Und viele dieser Methoden und Best Practices sind ja auch in ROS bzw. ROS 2 umgesetzt. Wenn man deswegen <em>ROS-artig</em> über Systeme nachdenkt, ist man meines Erachtens ja häufig auch nicht ganz weit davon entfernt, insgesamt eine plausible Sicht auf Robotersysteme zu haben. Das macht es natürlich umso schwieriger, die Teile zu erkennen, in denen ROS eine sehr spezifische Implementierung gewählt hat &#8211; zum Beispiel vielleicht tf &#8211; die vielleicht nicht immer auch gleichzeitig die Nützlichste ist. Sondern dann wieder zur abstrahieren: was ist eigentlich das zugrundeliegende Problem und was sind dann mögliche Lösungen?</strong></p>



<p>Genau. Um eben auch sicherzustellen, dass die Leute verstehen, was hinter den Kulissen passiert. Ich will zumindest versuchen zu erklären, dass man inverse Kinematik nutzt, wenn man zum Beispiel von MoveIt eine Gelenkposition für eine kartesische Pose anfragt. Und dass ich das auf diese und jene Art angehen kann, dass die praktische Realisierung aber meistens eine numerische Lösung ist, usw. Die Leser:innen sollen zumindest verstehen, was dort im Hintergrund abläuft und ein Gefühl dafür bekommen, was passiert.</p>



<p>Best Practice versuche ich, vom Anfang an zu vermitteln. Also, kein Mensch würde seine Datenbank oder Webapplikationen so programmieren, dass er im Webserver mit dem Treiber der Festplatte redet, sondern da sind diverse Abstraktionsschichten zwischen. Und in der Robotik, gerade im Hobbybereich (manchmal auch von Leuten, die es an der Uni so betrieben haben) findet man zum Teil Systeme komplett ohne alle Abstraktionen. Da wird ein digitaler Eingang alle Ebenen hochgereicht. Da gibt es dann zwar eine ROS-Nachricht für, aber keine sinnvolle Semantik mehr.</p>



<p>Gerade in Robotiksystemen, weil sie oft komplex und vielfältig sind, muss ich mir von Anfang über die Architektur Gedanken machen, z.B. wie ich konzeptionell in verschiedene Belange aufteilen kann, die von verschiedenen Leuten bearbeitet werden können. Es muss dann ja auch nicht alles hardcore embedded Software sein. Es gibt einfach vielfach dieses Vorurteil, um überhaupt was mit Robotik machen zu können, müsse man sich erst einmal Mathematik reinziehen und dann quasi tief in den Registern herumstochern. Das schreckt viele ab.</p>



<p><strong>Interessant! Diesem Vorurteil bin ich noch nicht begegnet. Ich habe manchmal den gegenteiligen Eindruck: dass viele Leute sehr hemdsärmlig herangehen, sich einen best effort ROS-Grafen zusammenhauen und sich um ganz viele Control- und Realtime-Aspekte gar nicht kümmern. Wenn das irgendwie läuft, ist das Robotik.</strong></p>



<p><strong>Es funktioniert ja beides leider nicht. Es geht nicht, nur mit Registern und Signalen zu arbeiten, dann habe ich schnell ein unwartbares System, das wahrscheinlich auch von Anfang an nicht das tut, was es tun soll. Aber das Gegenteil funktioniert auch nicht. Ich kann mir das, was sich vielleicht Webapplikationen, die vielleicht noch in einer Cloud laufen, leisten können, in der Robotik nicht leisten. Nämlich, dass ich mir alles in aller Schönheit abstrahieren und verteile. Sonst gehen mir die ganzen Regelkreise auf die Bretter, die vielleicht auch noch Realtime sein müssen.</strong></p>



<p><strong>Ich brauche halt eine Organisation von all diesen Aspekten. Denn wir haben ja mittlerweile in der Robotik auch Aspekte, die mitunter in der Cloud laufen müssen: Fleet Management, Deep Learning, Object Detection, und so weiter &#8230; aber in der Robotik muss es dann trotzdem am Ende irgendwie &#8211; im zweifel safety-kritisch, realtime, sehr verstanden und vorhersagbar &#8211; irgendwo in schnellen Regelkreisen enden.</strong></p>



<p>Genau! Und da kommen wir zu der Frage, was denn der Kern der Robotik ist. Je nachdem, von welcher Richtung in der Robotik man blickt, sind es ganz unterschiedliche Dinge. Die einen sagen, alles oberhalb der Roboter-Dynamik ist nur Beiwerk. Die anderen sehen den Roboter als reines Positionier-Eisen und das wirklich spannende heutzutage liefe in der KI, der Bildverarbeitung, in Wissensmodellierung. Aber wie du sagst, spielt das alles mit.</p>



<p>Wenn jemand sich 15 Jahre um Echtzeit-Embeddedsysteme gekümmert hat und dann anfängt, Cloud-Systeme zu entwickeln, dann geht das schief. Und das Gegenteil habe ich auch schon gesehen: wenn Leute, die bisher skalierbare Softwarelösungen für Onlinedienste entwickelt haben, plötzlich Embedded-Robotiksoftware entwickeln, dabei aber alles erst einmal durch fünf Versionen von Memcashed und Redis schieben, kommt dabei auch nichts Gutes raus.</p>



<p>Es ist eben das Spannende an der Robotik, dass all diese Aspekte eine Rolle spielen. Das möchte ich mit dem Buch anreißen, um einfach den Lesern auch zu zeigen: hey, wenn du keinen Bock auf Regelungstechnik hast, aber trotzdem Robotik geil findest, dann gibt es für dich immer noch die anderen 90% dessen, was es braucht, um eine Robotikanwendung in die echte Welt zu bringen. Je nachdem, was ich eben mag: mag ich Mikrocontroller, mag ich Clouddienste, mag ich Echtzeit, mag ich Regelungstechnik, mag ich Algorithmik, mag ich Physiksimulation &#8230; da muss für jede:n Softwareentwickler:in was dabei sein.</p>



<p><strong>Wir kreisen gerade um eine Frage herum, die ich mir auch schon gestellt habe. Gibt es eine Kernaussage, einen Kerngedanken, den Du mit diesem Buch transportieren möchtest? Der der besonders wichtig ist, weil es den so deutlich noch nicht gibt? Oder würdest du sagen, dass ist eher ein strukturiertes Zusammentragen von bekanntem Wissen der Robotik-Software-Community ist?</strong></p>



<p>Ich würde nicht behaupten, dass ich mit diesem Buch jetzt etwas dem <em>Robotics Body of Knowledge</em> hinzufüge. Ich hab jetzt allerdings mehrere Wochenenden damit zugebracht, zu versuchen, mal nur für dieses Buch eine einheitliche Notation zu finden, die nicht nur für Manipulatoren passt oder nur für mobile Roboter. Daran bin ich fast verzweifelt. Du nimmst drei Bücher zur Hand und findest mindestens fünf Notationen. Aber man wird ja ein Buch sofort wegwerfen, wenn die Notation zwischen den Kapiteln über Kinematik von Manipulatoren und dem über mobile Roboter plötzlich inkonsistent ist. Das ist vielleicht so ein kleiner Beitrag, aber auch da orientiere ich mich natürlich an den großen Werken und erfinde nichts komplett Neues.</p>



<p>Ansonsten ist es eine einheitliche Darstellungen auf einem zugänglichen Niveau, würde ich sagen. Meine Kernbotschaft ist, was ich auch auf einer der ersten Seiten schreibe, dass für mich die Robotik das Feld ist, das sich damit beschäftigt, wie ich aus der virtuellen Welt in die reale Welt hinausreichen kann, und aus der realen Welt wieder zurück in die virtuelle Welt. Jedes Smartphone hat natürlich irgendwie einen Vibrationsalarm, ein Display und eine Kamera, aber in der Robotik ist es ja weit mehr. Die Frage, wie ich das, was ich in Software ausdrücken kann, in eine Manipulation oder Einflussnahme der echten Welt umsetzen kann. Das finde ich faszinierend!</p>



<p>Was wäre denn zum Beispiel das Robotik-Äquivalent zur universellen Turingmaschine. Also: wir wollen ein Mapping haben von dem, was wir in Software frei und flexibel ausdrücken können in die echte Welt. Es ist ja wirklich fast schon Magie: ich schreib hier in irgendwelchen arkanen Sprachen Symbole hin und dadurch teleportiert sich irgendwie der Kaffee von der Kaffeemaschine auf meinen Tisch. Nur dass die Teleportation momentan noch etwas kompliziert über ein mobilen Roboter erledigt wird, aber hey &#8230; es ist nah dran.</p>



<p><strong>Dann jetzt ein Sprung zurück zum Buch selbst. Als ich die ersten Kapitel gelesen habe, die ich übrigens echt gerne gelesen habe, ist mir aufgefallen, dass es eine erstaunliche Zahl Vorwärtsreferenzen gibt. Die versucht man ja typischerweise beim Schreiben von wissenschaftlichen Arbeiten zu vermeiden. Als ich die so las, habe ich mich gefragt, ob das Dein Schreibstil ist, oder vielleicht ein Kernproblem der Robotik. Dass so viele Dinge so eng verzahnt sind, dass ich die gar nicht nicht systematisch oder chronologisch aufbauen kann. </strong></p>



<p>Wenn man ein Buch oder Kapitel konzipiert, fragt man sich natürlich immer, von welcher Seite man den Gaul jetzt aufsattelt. Was ich auf jeden Fall vermeiden wollte, ist eine systematische Einführung. Also: erst einmal kommen zwei Kapitel Mathematik, dann x Kapitel Geometrie, etc. &#8230; und ganz am Ende vom Buch rede ich mal über Anwendungen in der Robotik. Das wäre zwar eine akademisch saubere Struktur, aber ich würde da viele Leser einfach früh verlieren. Das ist also der Mission des Buches geschuldet.</p>



<p>Das andere ist aber auch: es hängt natürlich vieles miteinander zusammen, wie Du gesagt hast. Nehmen wir z.B. Regelkreise: ich möchte den Lesern am Anfang über Vorwärtsreferenzen als Motivation direkt mitgeben, dass das noch an mehreren Stellen auftauchen wird. Relativ früh, wie ich den einzelnen Motor auf Geschwindigkeit oder auf Position bringen kann. Bei mobilen Robotern brauch ich dann irgendeine Rückmeldung aus der Umgebung, via LIDAR, Taster, und so weiter&#8230; ich möchte da früh die Augen öffnen: das kommt jetzt über den Rest des Buchs verteilt vor und taucht noch in der Sensordatenverarbeitung, der Bildverarbeitung etc. vor.</p>



<p>Das ist dann ja auch der direkte Anschluss zum Software Engineering: ich kann das ja auch abstrahieren und im Einzelfall ignorieren, dass ich keine perfekte Positionsregelung habe und das natürlich auch nicht instantan passiert. Aber ich ziehe bewusst eine Abstraktionsebene ein, ab der es nur noch um Positionen geht und alle Dynamik darunter ignoriere ich. Das kann eine gute oder eine sehr schlechte Idee sein. In der Robotik ist es glaube ich schwer, diese guten Ebenen zu finden. Denn es hängt auch vom Robotertyp und der Anwendung ab. Wenn ich mit einem normalen Industrieroboter eine einfache Anwendung mit niedrigen Geschwindigkeiten habe, arbeite ich mit Positionen. Wenn ich dann aber Anspruchsvolleres als z.B. Pick &amp; Place will, dann wird es plötzlich extrem wichtig, auf diese Ebenen doch noch runter zu schauen. Diese natürliche Abstraktionsebenen wie zum Beispiel das Betriebsystemlevel in der IT gibt es in der Robotik noch nicht. Und diese Suche nach nützlichen Abstraktion zieht sich durch das gesamte Buch.</p>



<p><strong>Es kommen ja noch ziemlich viele coole Kapitel, die hast Du jetzt zum Teil schon angedeutet. Zum Beispiel Simulation, KI, etc. Was erwartet uns denn sonst noch, zum Beispiel im Kapitel 23: „More awesome Robotics</strong>“<strong>?</strong></p>



<p>Da gehe ich zum Einen auf neue Robotertypen ein, also Schwarmroboter, selbst-rekonfigurierende Roboter, modulare Roboter, humanoide Roboter, Soft Robotics, Bionik, etc. &#8230; jedes natürlich für sich selbst nochmal mindestens ein weiteres Buch wert. Damit möchte ich das Feld weiten, um zu zeigen: das gibt es auch noch alles und Du verstehst jetzt vielleicht schon 80% davon. Das mache ich ja auch in jedem Kapitel klar: das lernst Du, das hast Du jetzt verstanden, und das kannst Du damit schon schon anfangen. Auch wenn das konkrete Beispiel gerade vielleicht ein <a href="https://de.wikipedia.org/wiki/Letzte_Meile">Last Mile</a> Delivery Robot ist und Du eigentlich einen stationären Roboter programmieren willst, der Fritten zubereitet &#8230; das Grundwissen ist in beiden Anwendungen relevant und übertragbar. Das versuche ich zu zeigen mit dem Buch: das autonome Auto hat deutlich mehr mit einem humanoiden Roboter zu tun oder mit meinem klassischen Industrieroboter, als auf den ersten Blick ersichtlich.</p>



<p>Ich selbst habe mich ja in der Diplomarbeit mit selbstkonfigurierenden modularen Robotern beschäftigt, danach dann eine Promotion im Bereich Chirurgierobotik, dann ein Unternehmen im Bereich modulare Robotik für Industrieanwendungen gegründet, und bin jetzt in eine Unternehmen für Industrieroboter und mobile Roboter. Das geht ja nur, weil man nicht alles wieder von vorne lernen muss, sondern weil sich halt unglaublich viel übertragen lässt an Herangehensweisen, Grundlagen, Konzepten, bis hin zu Algorithmen und Implementierungen.</p>



<p><strong>Das ist eine perfekte Überleitung zu meiner wahrscheinlich ungefähr letzten Frage: wie viel von diesem Buch ist robodev-Andreas und wie viel ist ABB-Andreas?</strong></p>



<p>&#8230; und wieviel ist <a href="https://cognitionguidedsurgery.de/">Sonderforschungsbereich125</a>-Andreas? </p>



<p><strong>Genau. Wie viel Einfluss haben Deine verschiedenen Stationen auf das Buch?</strong></p>



<p>Das ist eine gute Frage, da habe ich noch nicht drüber nachgedacht. Ich glaube, die Einflüsse kommen vielmehr aus den Interaktionen mit den Menschen, mit denen ich zusammen gearbeite habe. Mein Anspruch ist, dass Leser:innen anschlussfähig sind und sich mit den verschiedenen Kolleg:innen der verschiedenen Disziplinen austauschen können. Also dass man eben nicht dasteht und man so spezialisiert auf das Thema ist, dass man kein Wort versteht von dem, worüber sich die Kolleg:innen beim Kaffee unterhalten. Dieses Grundwissen sicher zu stellen, da haben mich sicher alle bisherigen Robotikerfahrungen geprägt.</p>



<p>Ich finde, dass man mit relativ wenig Grundkenntnissen schon Brücken zwischen erstaunlich fortgeschrittenen Details der verschiedenen Robotikdisziplinen spannen kann. Das war sowohl im Startup also auch im großen Konzern wichtig, weil man immer die Spezialisierungen hat, aber gleichzeitig gemeinsam an einem System baut. Natürlich wollen wir unser System modular aufbauen, damit sich jeder Experte auf sein Teilsystem konzentrieren kann, aber es muss am Ende eben gut integrierbar sein. Was in der Robotik aus meiner Sicht eben gar nicht funktioniert &#8211; egal ob im kleinen oder großen Unternehmen &#8211; ist ein Modul über den Zaun zu werfen oder sich abzuschotten, jede Abteilung baut ihr Spezial-Softwaremodul und dann stecke ich die zusammen. Ich möchte ja am Ende ein Robotiksystem haben, das seine Aufgabe erfüllt. Dann ist es mir völlig egal, ob die Computervision ihr Ding jetzt richtig macht, die Bewegungsplanung ihr Ding richtig macht und das Basissystem seine Sache richtig gemacht habe, wenn die am Ende nicht zusammen funktionieren.</p>



<p>Ich bewundere immer wieder die Uni-Labore, die es schaffen, hochkomplexe Robotiksysteme auf Jahre aufzubauen und am leben zu halten. Ich beschäftige mich mit Gaits, Gait Learning, etc., möchte mich nur um die Algorithmik kümmern, muss aber trotzdem die Maschine bauen, muss mich dann trotzdem mit der Motorenregelung herumschlagen, muss mich trotzdem irgendwie um verteilte Softwaresysteme und eine halbwegs skalierbaren Infrastruktur kümmern, damit ich Daten aufnehmen und auswerten kann. Sobald ich mich von der Zeichnung oder Simulation weg bewege, fange ich mir extrem schnell ganz ganz viel von der gesamten Robotik ein. Deshalb muss man seinen Kontext verstehen, um seine Spezialität richtig ausüben zu können.</p>



<p>Es ist tatsächlich gut, wenn man sich <em>gegenseitig </em>versteht. Dann werden am Ende beide Seiten bessere Entscheidungen treffen, um einen real funktionierenden Roboter hinzubekommen. Und nur real funktionierende Roboter finde ich interessant, Roboter nur auf Papier oder nur in der Simulation finde ich langweilig.</p>



<p><strong>Das sehe ich genauso. Ich will noch erklären, wie ich auf die vorige Frage gekommen bin. Du führst ja am Anfang eine Sicht auf Robotersysteme ein: jedes System besteht aus Aktuator, Acting, Sensor, Sensing, Planning, und Environment. Diese Sicht kombiniert mit Deinem Hinweis im Buch: Überlegt euch mal für einzelne Features Eurer Robotersysteme, ob ich die gut mit einem einfachen Hardwarebaustein lösen kann oder mit Software, oder einer Kombination &#8230; da klang für mich robodev durch. Wir werden aber wahrscheinlich in dem Buch auch viele Sichtweisen lesen, die Du Dir bei ABB angeeignet hast.</strong></p>



<p>Da ist sicher viel dran. Vieles stammt auch aus der Zeit vor beidem, als ich mich viele Jahre an der Uni damit beschäftigt habe, wie man für Robotikforschung eine flexible Infrastruktur mit ROS aufbaut. Z.B. für Medizinrobotik, aber im Kontext eines sehr kreativen Pulks von zehn bis zwanzig Doktorand:innen &#8211; und dementsprechender Stabilität und Qualität der einzelnen Komponenenten. </p>



<p>Ich hatte ja beim ERF mal ein paar Workshops zum Thema Modularität in der Robotik. Dabei ist auch immer wieder die Frage aufgekommen, wie wichtig das einzelne Modul ist oder geht es am Ende nicht immer nur um das gesamte System. Meine Module, sozusagen meine Legosteine, baue ich natürlich am Ende nicht aus Selbstzweck, sondern um damit ein Haus, ein Schiff, etc. bauen zu können. Ich muss dementsprechend mein System in Einzelteile zerlegen können, darf es aber gleichzeitig nicht so weit zerlegen und die Einzelteile isoliert bearbeiten, dass ich den Kontext vergesse, in dem diese Bausteine arbeiten.</p>



<p><strong>Jetzt könnte man meinen, Du redest gerade über die Konzernwelt</strong>.</p>



<p>*lacht* Ja, das ist sicher im Startup ein geringeres Problem als in eine großen Unternehmen. Im Startup machen die meisten alles, im großen Unternehmen habe ich spezialisierte Teams für alle Aspekte. Aber es kommt immer wieder glaube ich zu ähnlichen Konstellationen: ich möchte Spezialisierung &#8211; in Personen wie in der Implementierung &#8211; aber gleichzeitig darf ich den holistischen Gedanken, den Systemgedanken nicht aus den Augen verlieren. Im Startup hast du vielleicht manchmal zu wenig Spezialisierung, im großen Unternehmen manchmal so viel, dass es auch schon wieder nicht mehr gut tut. Es geht darum, dass man Schnittstellen einzieht, auch <em>Information Hiding</em> betreibt und auch mal <em>Blackboxes</em> baut, aber gleichzeitig nicht so undurchsichtig wird, dass es zu rigide wird. Das sind dann Architektur- und Designthemen: wie kann ich Software strukturieren, damit es unabhängige Komponenten sind, aber gleichzeitig sie nicht so weit in Komponenten zerlegen, dass die Integration wieder ein Problem für sich wird. </p>



<p><strong>Noch eine letzte Frage: wann kann man das Buch kaufen?</strong></p>



<p>Uuuh, schwierige Frage. Die späteren Kapitel werden etwas kürzer werden und wahrscheinlich auch etwas leichter zu schreiben als die Grundlagenkapitel zu Beginn. Ziel ist, dass es irgendwann im ersten Halbjahr 2023 fertig erscheint.</p>



<p><strong>Ich habe es auf jeden Fall schon gekauft &#8211; sozusagen die Katze im Sack. Die ersten vier Kapitel konnte ich mir deswegen einfach runterladen und auf meinen Ebook-Reader schieben. </strong></p>



<p>Genau, wenn man es jetzt kauft, gibt es auch einen Rabatt, zeitweise bis 30%. Und wenn die Kapitel aktualisiert werden oder neue Kapitel erscheinen, bekommt man dann die neuen Versionen. Das finde ich von Manning gut gemacht, auch alle early access Kapitel sind nämlich schon vom Editor sprachlich und inhaltlich redigiert.</p>



<p><strong>Vielen Dank, Andreas</strong>, <strong>und viel Erfolg weiterhin mit dem Buch!</strong></p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/robotics-for-software-engineers-interview-mit-andreas-bihlmaier/">Robotics for Software Engineers – Interview mit Andreas Bihlmaier</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
<img src="https://vg08.met.vgwort.de/na/33efa8577f4f469cb34bfacb18d19abd" width="1" height="1" alt="" class="wpvgw-marker-image" loading="eager" data-no-lazy="1" referrerpolicy="no-referrer-when-downgrade" style="display:none;" />
]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/robotics-for-software-engineers-interview-mit-andreas-bihlmaier/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>NotMyRobots &#8211; Interview mit Arne Maibaum</title>
		<link>https://botzeit.de/notmyrobots-interview-mit-arne-maibaum/</link>
					<comments>https://botzeit.de/notmyrobots-interview-mit-arne-maibaum/#comments</comments>
		
		<dc:creator><![CDATA[Arne]]></dc:creator>
		<pubDate>Sun, 05 Apr 2020 16:51:00 +0000</pubDate>
				<category><![CDATA[Artikel]]></category>
		<category><![CDATA[Autonome Roboter]]></category>
		<category><![CDATA[Humanoide]]></category>
		<category><![CDATA[Mobile Roboter]]></category>
		<category><![CDATA[Sonstiges]]></category>
		<category><![CDATA[ai]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[epistemologie]]></category>
		<category><![CDATA[hal]]></category>
		<category><![CDATA[haushaltsroboter]]></category>
		<category><![CDATA[interview]]></category>
		<category><![CDATA[kuenstliche intelligenz]]></category>
		<category><![CDATA[notmyrobots]]></category>
		<category><![CDATA[pflegeroboter]]></category>
		<category><![CDATA[rassismus]]></category>
		<category><![CDATA[sexismus]]></category>
		<category><![CDATA[soziologie]]></category>
		<category><![CDATA[symbolbild]]></category>
		<category><![CDATA[terminator]]></category>
		<category><![CDATA[tu berlin]]></category>
		<category><![CDATA[twitter]]></category>
		<category><![CDATA[white robot guy]]></category>
		<category><![CDATA[wizard of oz]]></category>
		<guid isPermaLink="false">https://botzeit.de/?p=737</guid>

					<description><![CDATA[<p>Schon seit längerem geplant und jetzt endlich mal dazu gekommen: ein Interview mit Arne Maibaum über NotMyRobots und fürchterliche Robotik-Symbolbilder.</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/notmyrobots-interview-mit-arne-maibaum/">NotMyRobots &#8211; Interview mit Arne Maibaum</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p class="has-small-font-size"><em>(this interview is <a href="https://planet-robotics.net/articles/notmyrobots-interview-with-arne-maibaum/">available in English</a>)</em></p>



<p>Schon seit längerem geplant und jetzt in Vorbereitung eines längeren Artikels endlich mal dazu gekommen: ein Interview mit Arne Maibaum von <strong>NotMyRobots</strong> über <a href="https://notmyrobot.home.blog/about/">NotMyRobots</a>.</p>



<div class="wp-block-image"><figure class="alignright size-large is-resized"><img src="https://botzeit.de/wp-content/uploads/2020/04/notmyrobots-1024x1024.png" alt="HAL" class="wp-image-1048" width="250" height="250" srcset="https://botzeit.de/wp-content/uploads/2020/04/notmyrobots.png 1024w, https://botzeit.de/wp-content/uploads/2020/04/notmyrobots-300x300.png 300w, https://botzeit.de/wp-content/uploads/2020/04/notmyrobots-150x150.png 150w, https://botzeit.de/wp-content/uploads/2020/04/notmyrobots-768x768.png 768w" sizes="(max-width: 250px) 100vw, 250px" /><figcaption><a href="https://de.wikipedia.org/wiki/HAL_9000">HAL 9000</a>, augenzwinkerndes Logo von NotMyRobots <a href="https://commons.wikimedia.org/wiki/File:HAL9000.svg">[Quelle]</a></figcaption></figure></div>



<p>Ich bin eigentlich nur mit einigen, wenigen Fragen ins Interview gegangen, rund um eine Kernfrage in Vorbereitung meines Artikels. Das Gespräch hat dann aber doch insgesamt fast eine Stunde gedauert und war extrem interessant. Es ging um den Terminator und Roboter, die uns die Jobs weg nehmen, aber auch um viele unerwartete Aspekte wie Sexismus, Rassismus und Epistemologie. Wie Arne Maibaum zum Ende des Gesprächs sagt: &#8222;Das kommt davon, wenn man mit SozialwissenschaftlerInnen redet.&#8220; Hier also das ganze Interview:</p>



<p><strong>Ich: Hallo, Arne! Für alle, die es noch nicht kennen: Was ist NotMyRobots überhaupt?</strong></p>



<p><strong>Arne Maibaum:</strong> Wir haben ja auch eine kleine Beschreibung <a href="https://twitter.com/notmyrobots">in unserem Twitter-Profil</a> und <a href="https://notmyrobot.home.blog/about/">auf unserer Website</a>. Vor allem auf Twitter haben wir gesehen, dass wahnsinnig viele ganz fürchterliche, unrealistische, aber vor allem auch tatsächlich falsche Visualisierungen für populärwissenschaftliche Robotik-Artikel benutzt werden. Allerdings teilweise auch in Teasern zu wissenschaftlichen Artikeln. Das sind unrealistische Bilder in Artikeln zu Robotern, aber auch &#8211; in letzter Zeit immer mehr &#8211; in Artikeln zu AI, die ja häufig auch mit Robotern bebildert werden.</p>



<figure class="wp-block-image size-large"><a href="https://www.google.com/search?q=robot+ai&amp;tbm=isch" target="_blank" rel="noreferrer noopener"><img width="1024" height="576" src="https://botzeit.de/wp-content/uploads/2020/04/google-image-search-robot-ai-1024x576.png" alt="Google-Bildersuche nach 'Robot AI'" class="wp-image-1091" srcset="https://botzeit.de/wp-content/uploads/2020/04/google-image-search-robot-ai-1024x576.png 1024w, https://botzeit.de/wp-content/uploads/2020/04/google-image-search-robot-ai-300x169.png 300w, https://botzeit.de/wp-content/uploads/2020/04/google-image-search-robot-ai-768x432.png 768w, https://botzeit.de/wp-content/uploads/2020/04/google-image-search-robot-ai.png 1231w" sizes="(max-width: 1024px) 100vw, 1024px" /></a><figcaption>Beispielhafte Google-Bildersuche nach <a href="https://www.google.com/search?q=robot+ai&amp;tbm=isch">&#8218;Robot AI&#8216;</a></figcaption></figure>



<p><em>&#8218;Wir&#8216; </em>sind dabei <a href="https://twitter.com/ala_pax">Philipp,</a> <a href="https://twitter.com/meineckelisa">Lisa</a>, Laura und <a href="https://twitter.com/lordelend">ich</a>. Phillip und ich arbeiten bei einer Robotikgruppe an der TU Berlin. Laura und Lisa sind in München und arbeiten auch aus einer sozial- bzw. kultur-wissenschaftlichen Perspektive an dem Thema Robotik. Phillip und ich sind zwar beide Soziologen, sind aber in der Mensch-Roboter-Interaktion gelandet. Wir haben alle schon immer diese Bilder gesammelt. Das heißt, alle von uns hatten ohnehin schon so eine kleiner Galerie des Schreckens in der Hand. Lisa widmet sich außerdem in ihrer Arbeit dem Roboter in der Popkultur der Amerikanischen Geschichte. Das heißt, sie hat das auch in Ihrer Dissertation benutzen können. </p>



<p>Aus diesem Konglomerat haben wir uns dann überlegt, dass wir das in irgendeiner Weise publik kritisieren müssen. Als eine Maßnahme dafür haben wir den Twitter-Account <a href="https://twitter.com/NotMyRobots">@NotMyRobots</a> gegründet, der versucht, auf Twitter aufzuzeigen, wenn diese Symbolbilder verwendet werden. Wenn uns jemand solche Bilder über den Hashtag <a href="https://twitter.com/hashtag/notmyrobot">#notmyrobot</a> zuträgt, das machen mittlerweile ziemlich viele, re-tweeten und sammeln wir die. Je nach Bild versuchen wir auch mit eigenen kritischen Kommentaren aufzuzeigen, warum wir das nicht gut finden.</p>



<p><strong>Wie sind die Leute auf Euch gekommen? Also wie ist das passiert, dass da jetzt mittlerweile so viele mithelfen?</strong></p>



<p>Ich denke mal, viele Robotiker stört das ganz gewaltig. Ich glaube aber auch, gerade viele Leute, die aus den Humanwissenschaften kommen, sind da auch extrem sensibel für. Viele von denen haben solche Bilder auch vorher schon immer gesehen und den Kopf geschüttelt. Da ergibt sich dann eine gewisse Anzahl von Leuten, die dieses Problem auch sehen und denen unsere Initiative gefällt. Die nutzen dann unseren Hashtag oder taggen uns.</p>



<p><strong>Das ist interessant. Mir fallen diese Bilder natürlich auch seit Jahren auf, mindestens seitdem ich selber in der Robotik bin. Ich rolle dann auch mit den Augen, habe aber nie wirklich reflektiert, dass das wirklich schädlich ist. Warum ist das denn so schlecht?</strong></p>



<p>Also wovon wir immer ausgehen ist, dass Technik nicht aus dem leeren Raum kommt und Roboter nicht einfach so gebaut werden, wie es die Technik empfiehlt. Sondern, und das ist jetzt die soziologische Perspektive, Technik ist immer mensch-gemacht und immer sozial konstruiert. Als ein solches ist sie natürlich auch Aushandlungsprojekt davon, wie die Gesellschaft Robotik und Roboter sieht. In die Kommunikation darüber, wie so eine Technologie konstruiert wird, spielt natürlich Visualisierung eine große Rolle. Bei Pflegerobotern zum Beispiel sehen wir zwei Erwartungen, die stark mit Visualisierungen gekoppelt sind:</p>



<p>Als allererstes ist da immer der <a href="https://de.wikipedia.org/wiki/Terminator_(Charakter)">Terminator</a>-Roboter, der aus irgendwelchen Gründen bei Robotik-Artikeln immer wieder auftaucht. Damit geht die Erwartung einher, dass zukünftige Roboter eiskalt sein werden und potentiell tödliche Maschinen sind, mit Metallgreifern, die nach uns greifen wollen. Das ist natürlich das Horrorszenario, das schürt Angst und führt dazu, dass Leute damit nichts mehr zu tun haben wollen. </p>



<p>Eines meiner liebsten Beispiele ist aus einem Projekt, in dem ich als Student tätig war. Wir hatten autonom fahrende Transportsysteme, die in Krankenhäusern zum Beispiel zum Transport von Wäschekisten eingesetzt wurden: der <em>Casero</em>-Roboter. Die sollten dann auf einer Bohrinsel eingesetzt werden, also bei Männern, die über viele Kilometer explosionsfähiges Material anbohren. Die haben sich aber strikt geweigert, einen solchen Roboter auf ihre Bohrinsel zu nehmen, weil sie Angst davor hatten, dass der sie alle umbringt. Dieses Bild kommt natürlich durchaus aus der Science-Fiction und dieser Angst, einer solchen Maschine ausgeliefert zu sein. Und wenn wir dann Artikel sehen, die so ein Bild unter &#8218;Roboter sollen uns helfen&#8216; setzen, ist das natürlich inhärent problematisch dafür, wie die Technik wahrgenommen wird. Das hat natürlich dann auch Einfluss auf Fördergelder usw.</p>



<span id="more-737"></span>



<p><strong>Meine Idee zu dem Interview mit Dir oder Euch ist aus meinem Eindruck entstanden, dass die Robotik als zu positiv und zu leistungsfähig dargestellt wird. Wenn ich das bei Dir richtig heraushöre, dann siehst Du aber häufiger, dass die Robotik als zu gewalttätig oder zu brutal dargestellt wird?</strong></p>



<p>Nein, das war nur der eine Aspekt: der Terminator sozusagen in seiner Schrecklichkeit visualisiert. </p>



<p>Der zweite Aspekt ist natürlich das viel zu positive und viel zu fortgeschrittene Roboterbild. Da geht es auch vor allem immer darum, dass Roboter als <a href="/category/humanoide/">humanoide</a> Serviceroboter dargestellt werden. Das geht soweit, dass auch Artikel zu künstlicher Intelligenz (<em>Artificial Intelligence</em>, AI) so bebildert werden. Wenn es also im Moment zum Beispiel darum geht, dass <a href="/roboter-zur-unterstuetzung-gegen-das-coronavirus/">AI im Kampf gegen das neuartige Coronavirus</a> helfen soll, dann sitzt da in den Abbildungen ein humanoider Roboter mit filigranen Händen und benutzt gerne sogar noch menschliche Technologie.</p>



<p><strong>Stimmt, sitzt am Computer zum Beispiel&#8230;</strong></p>



<p>Der helle Wahnsinn, wenn man sich das ansieht. Zu der Science-Fiction-Horrorerwartung kommt also noch diese Humanoide-Leistungsfähigkeits-Erwartung, nämlich dass wir demnächst solche Roboter haben, wie sie auf den Bildern zu sehen sind: schlanke, sehr menschenähnliche Roboter, bei denen die Menschlichkeit nur noch dadurch kaschiert wird, dass weiße Plastikabdeckungen auf menschlichen Körperteilen sind. Das schürt eine völlig falsche Erwartung an den Stand der Robotik und was gerade die Forschungsrichtung ist.</p>



<div class="wp-block-image"><figure class="alignright size-large is-resized"><img src="https://botzeit.de/wp-content/uploads/2020/04/Innorobo_2015_-_Aldebaran_-_Pepper-542x1024.jpeg" alt="Pepper Robot" class="wp-image-1066" width="226" height="427" srcset="https://botzeit.de/wp-content/uploads/2020/04/Innorobo_2015_-_Aldebaran_-_Pepper-542x1024.jpeg 542w, https://botzeit.de/wp-content/uploads/2020/04/Innorobo_2015_-_Aldebaran_-_Pepper-159x300.jpeg 159w, https://botzeit.de/wp-content/uploads/2020/04/Innorobo_2015_-_Aldebaran_-_Pepper-768x1452.jpeg 768w, https://botzeit.de/wp-content/uploads/2020/04/Innorobo_2015_-_Aldebaran_-_Pepper-812x1536.jpeg 812w, https://botzeit.de/wp-content/uploads/2020/04/Innorobo_2015_-_Aldebaran_-_Pepper-1083x2048.jpeg 1083w, https://botzeit.de/wp-content/uploads/2020/04/Innorobo_2015_-_Aldebaran_-_Pepper-scaled.jpeg 1354w" sizes="(max-width: 226px) 100vw, 226px" /><figcaption>Pepper Robot <a href="https://commons.wikimedia.org/wiki/File:Innorobo_2015_-_Aldebaran_-_Pepper.JPG">[Quelle]</a></figcaption></figure></div>



<p>Da geht’s auch um die Menschenähnlichkeit, die natürlich selbst auch Erwartungen schürt. Dafür muss man nicht einmal die Agenturbildern von diesen weißen, glatten Humanoiden hernehmen, sondern muss sich nur den Roboter <a href="https://de.wikipedia.org/wiki/Pepper_(Roboter)">Pepper</a> ansehen. Der ist gerade das absolute Synonym dafür, was von humanoiden Robotern erwartet wird und was sie aber eigentlich gar nicht leisten können.</p>



<p><strong>Du hast jetzt mehrfach AI erwähnt. Nimmt das NotMyRobots-Problem Deiner Wahrnehmung nach durch den aktuellen AI-Trend zu?</strong></p>



<p>Ja, absolut. Es ist natürlich auch schwierig, AI zu bebildern, das muss man dazusagen. Was wir seit zwei Jahren ganz vermehrt beobachten ist, dass der Dialog sich etwas von der Robotik abgewendet hat und es heißt, die AI wird das jetzt tun. Wenn es allerdings Artikel dazu gibt, dass AI uns dabei hilft, ein bestimmtes Problem zu lösen, ist das Bild dazu meistens ein Roboter. Das ist eine Merkwürdigkeit, da sie eine verkörperte künstliche Intelligenz in Form von Robotern zeigt, die weder den Stand der Technik in irgendeiner Weise darstellt, noch potentiellen Entwicklungen der Robotik oder der AI in irgendeiner Weise gerecht wird.</p>



<p><strong>Ich komm jetzt nochmal darauf zurück, wie Euer Projekt NotMyRobots angefangen hat. Du hast gesagt, Ihr hattet alle aus Eurem wissenschaftlichen Hintergrund schon angefangen, diese Beispiel zu sammeln. Gab es denn irgendeinen konkreten Anlass?</strong></p>



<p>Ich glaube, vor Allem das Entsetzen!</p>



<p>Es gibt einfach Bilder, wenn man die sieht, bleibt einem nichts weiter als sie staunend zu speichern und in die Giftkiste zu packen. Die fürchterlichsten sind glaube ich eigentlich die, in denen Roboter auf einmal ge-gendert werden. Der kompetente Roboter ist gerne ein sehr männlicher Roboter, mit männlichen Gesichtszügen. Noch viel schlimmer finde ich aber, wenn es eine unnötige Weiblichkeit der Roboter gibt. Das sind meistens die Roboterdarstellungen mit Brüsten, die ja keinerlei technologische Wirklichkeit darstellen und auf sexistische Kategorien abzielen.</p>



<div class="wp-block-image"><figure class="alignright size-large is-resized"><img src="https://botzeit.de/wp-content/uploads/2020/04/jetsons-rosie.png" alt="Rosie von den Jetsons" class="wp-image-1050" width="224" height="364"/><figcaption>Rosie von den Jetsons <a href="https://www.pngwave.com/png-clip-art-tuzxa">[Quelle]</a></figcaption></figure></div>



<p>Das ist natürlich gerade für uns Soziologen schrecklich, da Roboter und Cyborgs durchaus auch ein Versprechen einer Welt in sich tragen, die zum Beispiel Gender-Stereotype challengen könnte. Da sind gerade Humanoide natürlich immer sehr stark in einem Spannungsfeld von Geschlechtlichkeit und geschlechtlichen Stereotypen. Der männlich-starke, heroische Roboter auf der einen Seite. Der Terminator wird ja nicht umsonst von Arnold Schwarzenegger, als Klischeebild der Männlichkeit, verkörpert.</p>



<p>Auf der anderen Seite finden wir ganz viele Service-Stereotypen wieder. Da kommt es nicht von ungefähr, dass man auf ganz vielen Präsentationsfolien in der Mensch-Roboter-Interaktion <em>Rosie</em> von den <a href="https://de.wikipedia.org/wiki/Die_Jetsons">Jetsons</a> findet. Gerade bei Haushaltsrobotern und Pflegerobotern werden die Weiblichkeitsbilder, die wir in Care-Berufen kennen, auf die Roboter projiziert. Und dann finden wir plötzlich Bilder von Haushaltsrobotern, die Haushaltsmädchen-Schürzen tragen und deren Posen auch ganz klar mit der Verrichtung von Servicetätigkeiten assoziiert sind.</p>



<p>Das ist einerseits schade, weil Robotik eine Technologie ist, die Entitäten anders denken könnte, also zum Beispiel postgeschlechts-Identitäten. Das ist sicherlich kein zentrales Anliegen aktueller Robotikentwicklung, aber für uns ist das schon interessant. Pepper zum Beispiel hat mindestens im Deutschen und Englischen auch Antworten auf die Frage einprogrammiert, ob es ein Mädchen oder ein Junge ist. Das scheint also eine unmittelbare Frage zu sein, die Pepper triggert. Ich finde es zum Beispiel interessant, dass wir offenbar diesem technischen Objekt eine Geschlechtlichkeit beigeben müssen, sonst haben wir keine Kategorie, mit der wir darüber reden können, aber Pepper schlägt offenbar in dieser Kategorisierung fehl. </p>



<p>Das ist natürlich spannend: dass die humanoide Robotik solche Kategorien auch mal in Frage stellen kann und uns zum Nachdenken anregen kann. Wenn wir dann aber solche Bilder haben, wie die der robotischen Putzfrau oder die robotische Haushälterin oder das Sexobjekt Roboter in absolut nicht sexuellen Kontexten, dann ist das zu kritisieren. Das hat dann nämlich auch Implikationen für den Umgang mit Technik auf Dauer. Wenn wir Roboter als uns untergestellte Technologie empfinden, dann impliziert das häufig einen ganz merkwürdigen Umgang mit Technologie. Gerade vor dem Hintergrund, dass eigentlich alle robotische Technologie darauf angewiesen ist, ein eher partnerschaftliches Verhältnis mit uns einzugehen. Im Moment sehen wir zum Beispiel, dass das eigentliche Anpassungsfeld noch die menschliche Seite ist: wenn Roboter funktionieren sollen, muss die Umgebung strukturiert und robotisiert werden, muss unser Umgang mit ihnen robotisiert werden. Auch Reparatur ist im Moment immer auf der menschlichen Seite. Da schürt es natürlich falsche Erwartungen, wenn wir in der Darstellung Roboter sehen, die perfekte Hausmädchen sind.</p>



<p><strong>Spannend! Ich hätte nicht gedacht, dass ich mal so intensiv in der Robotik auf Sexismus und post-gender stoße. Das begegnet mir sonst in der Robotik als Ingenieurswissenschaft nicht so viel. Sollte es aber vielleicht.</strong></p>



<p>Das ist aber auch legitim. Ich bin halt Sozialwissenschaftler und ich weiß, dass unsere Ingenieure meist ganz andere Sorgen haben als wir. Die Sorgen um diese Bilder treffen sich aber trotzdem auf einer gewissen Ebene. Die Sorge darum, was Technik kann und wie die Technik dargestellt wird, die finde ich auch bei unseren Robotikern sofort wieder.</p>



<p><strong>Absolut! Bei Dir und Euch von NotMyRobots hat das ja durchaus auch einen wissenschaftlichen Hintergrund, oder? Also zum Beispiel im Kontext Deiner Dissertation?</strong></p>



<p>Bei Lisa und Laura liegt das sicher im Kontext der Dissertation, ja. In meiner Dissertation geht es eher um Robotik als Wissenschaft und vor Allem darum, wie robotische Wettkämpfe dabei eine Rolle spielen.</p>



<p><strong>Also ist das für Dich eher ein Hobby?</strong></p>



<p>Letztendlich denken wir darüber natürlich schon auf eine wissenschaftliche Art und Weise nach. Wir waren zum Beispiel schon eingeladen, einen Vortrag zu dem Open Lab zu halten, das wir bei <a href="http://www.mti-engage.tu-berlin.de/">MTI-engAge</a> haben. Die Idee, ein solches Open Lab zu starten, ist natürlich aus genau solchen Überlegungen entstanden: dass die Robotik damit kämpft, diejenige Disziplin zu sein, die entweder den Terminator baut oder Menschen ihre Jobs wegnimmt. Das ist eine Hypothek, die man mit jedem robotischen Projekt mitnimmt.</p>



<p>In dem Projekt stand deswegen einmal im Monat unser Labor jedem offen. Das ist sehr gut angenommen worden und die Leute sind durchaus auch mit der Erwartung aus genau solchen Visualisierungen zu uns gekommen: Roboter zu sehen, die alles können. Die waren dann natürlich enttäuscht, dass Pepper zwar im Eingang stand und versucht hat, Hallo zu sagen, aber dann doch sehr wenig konnte und nicht die Hüfte geschüttelt hat. Da ergibt sich dieses sehr schöne Spannungsfeld von einerseits wahnsinniger Erwartung daran, was der Roboter kann und andererseits gibt es dann unseren <a href="https://www.franka.de/de/">Franka Emika</a>, der Bälle übergibt, was auf erster Ebene erstmal wahnsinnig unspektakulär ist.</p>



<div class="wp-block-image"><figure class="alignleft size-large is-resized"><img src="https://botzeit.de/wp-content/uploads/2020/04/Franka_Panda.png" alt="Franka Emika Panda" class="wp-image-1071" width="321" height="376" srcset="https://botzeit.de/wp-content/uploads/2020/04/Franka_Panda.png 838w, https://botzeit.de/wp-content/uploads/2020/04/Franka_Panda-256x300.png 256w, https://botzeit.de/wp-content/uploads/2020/04/Franka_Panda-768x901.png 768w" sizes="(max-width: 321px) 100vw, 321px" /><figcaption>Franka Emika Panda <a href="https://www.franka.de/">[Quelle]</a></figcaption></figure></div>



<p>Da gibt es dann auch noch eine Differenz zwischen Pepper, den eigentlich keiner im Labor so richtig mag, auf dem kann man halt ein bisschen rumstreicheln. Und dann haben wir da diese tolle Maschine, die wahnsinnig viel kann und in die wahnsinnig viel Hirnschmalz geflossen ist. Die nimmt einen Ball vom Tisch und übergibt die an den Menschen und das ist dann erstmal eine Enttäuschung dieser Erwartungen.</p>



<p>Aber dann gibt es eine zweite Ebene, nämlich, darüber nachzudenken, was ist überhaupt kompliziert in der Robotik und was ist überhaupt auch an solchen trivialen Aufgaben für die aktuelle Robotik so spannend. Da gibt es meistens so einen Effekt, dass Leute überhaupt erstmal realisieren, wie schwierig es ist, Roboter zu bauen. Wenn man in einem Labor ist und sich die Bewegungen anguckt und was der Roboter überhaupt kann und was Stand der Technik ist, funktioniert das wahnsinnig gut. Danach sind die meisten Leute tatsächlich auch wieder begeistert. Das gibt so eine schöne Kurve der Robotikbegeisterung.</p>



<p>Das konnten wir uns natürlich nur leisten, weil wir ein großzügiges Labor hatten, viele Roboter und Leute, die überhaupt daran interessiert waren, diesen Dialog mit der Öffentlichkeit zu führen. Und solche Dialoge sind doch eher selten. Es gibt sonst natürlich Messen und Tage der offenen Tür als mögliche Berührungspunkte, aber da kommen &#8211; das haben wir auch gemessen &#8211; eher diejenigen, die ohnehin schon Enthusiasten sind und sich dafür begeistern.</p>



<p>Also, es ist schon irgendwie ein Hobby, aber es war auch Teil unserer beruflichen Realität, genau mit diesen Erwartungen konfrontiert zu werden. Für uns ist eben immer noch interessant, einen Umgang damit zu finden. Wir haben aber auch in zwei Fällen mal Redakteure angeschrieben und &#8211; da sind wir auch stolz drauf &#8211; haben geschafft, dass die die Symbolbilder in ihren Artikeln geändert haben.</p>



<p><strong>Oh, cool!</strong> </p>



<p>Das ist natürlich toll. Und als Soziologen kritisieren wir natürlich immer gerne, aber viel schwieriger ist, Alternativen zu benennen. Das fällt uns immer noch schwer. Wir hatten einen Kollegen, der eine Ausstellung und ein Kunstobjekt dazu plant, wie man Robotik anders und besser bebildern kann. Das liegt Corona-bedingt gerade etwas auf Eis. Die nächste Stufe wäre aber natürlich, darüber nachzudenken, welche Bilder wir schaffen können, die der Technologie und der tatsächlichen Richtung der Technologie gerechter werden.</p>



<div class="wp-block-image"><figure class="alignright size-large is-resized"><img src="https://botzeit.de/wp-content/uploads/2020/04/Shadow_Hand_Bulb_large_Alpha-597x1024.png" alt="Shadow-Hand" class="wp-image-1059" width="196" height="334"/><figcaption>Shadow-Hand <a href="https://commons.wikimedia.org/wiki/File:Shadow_Hand_Bulb_large_Alpha.png">[Quelle]</a></figcaption></figure></div>



<p><strong>An der Stelle grätsche ich mal rein. Als Robotikingenieur müsste ich selbst es ja dann eigentlich besser machen können. Das bezieht sich sowohl auf botzeit, natürlich, als auch auf den Wikipedia-Artikel &#8218;<a href="https://de.wikipedia.org/wiki/Robotik">Robotik</a>&#8218;, guck Dir den mal schnell an. Das dortige Titelbild, die Shadow-Hand oben rechts im Artikel, habe ich dort vor Jahren mal reingesetzt. Was hältst Du davon?</strong></p>



<p>Naja, die Abbildung zeigt zumindest schon einmal einen technologischen Stand der Dinge, sie zeigt zumindest mal Aktuatoren und Muskeln. Ich bin mir allerdings nicht sicher, ob die Hand in ihrer Bewegung die Glühbirne tatsächlich greifen könnte. Ich wage, das zu bezweifeln.</p>



<p><strong>Demnach wäre das also auch wieder eine Abbildung, die den Stand der Robotik nicht korrekt und nicht übermäßig realistisch darstellt?</strong></p>



<p>Ich finde das Bild tatsächlich nicht <em>so</em> schlimm. Man sieht schon eine Arbeit am biologischen Menschen und sie sieht sehr filigran aus. Aber mit einer menschlichen Hand zu greifen ist natürlich schon etwas, worüber die Robotik im Moment tatsächlich redet und reden muss. Man sieht hier auch immerhin eine relativ offene Technik an der Hand und sie wirkt immerhin noch sehr technologisch. Ich finde das Bild nicht so schlimm an der Stelle.</p>



<p><strong>Okay, dann bin ich beruhigt.</strong></p>



<p><strong>Das ist jetzt ein sehr guter Bogen zu meiner eigentlichen Kernfrage, die Auslöser für dieses Interview mit Dir ist. Mit NotMyRobots legt Ihr ja den Finger in die Wunde der Journalisten und Redaktionen, die diese falschen Symbolbilder nutzen. In dem Artikel, den ich gerade für botzeit vorbereite, geht es aber darum, dass ich finde, dass das Problem in großen Teilen aber auch ein hausgemachtes ist. Dass also die Robotikwissenschaft dieses Zerrbild auch selbst mit verursacht und befeuert. Siehst Du das auch so?</strong></p>



<p>Vielleicht liegt es daran, dass unser Robotiklabor in diesem Bezug relativ <em>woke</em> ist und regelmäßig sogar explizit Sachen abgebrochen worden sind, wenn der Eindruck entstand, dass der Roboter etwas kann, was er tatsächlich aber nicht kann. Das wird aber wahrscheinlich bei uns so gemacht, weil es an ganz vielen anderen Stellen nicht gemacht wird.</p>



<p>In der Robotik selber ist mir das Problem nicht so sehr untergekommen. Vielleicht bin ich da selber blind, deswegen bin ich sehr gespannt auf Deinen Artikel. In der Robotik, an der ich direkt beteiligt war wurde darauf geachtet, dass viel kommuniziert wird, was getan wird. Es wird ja auch oft ein Video zu den Veröffentlichungen beigelegt, in dem versucht wird, ganz klar zu machen, was getan wird. Ich hab dann auch gelernt, dass es in Videos Zeichen, an denen man erkennen kann, ob das Video manipuliert wird oder nicht. Also klassischerweise zum Beispiel eine Person im Hintergrund des Videos, an der sich gut sehen lässt, ob das Video vorgespult wird oder unterbrochen wurde. </p>



<p>Wo es aber meines Erachtens ganz klar auftaucht ist in der Mensch-Roboter-Interaktion als Disziplin und da ist auch unser Lab dann etwas schuldig. Da werden ganz viele der Experimente in der Wizard-of-Oz-Variante durchgeführt. <a href="https://de.wikipedia.org/wiki/Wizard-of-Oz-Experiment">Wizard-of-Oz</a> ist nunmal, wenn man so will, <em>fake</em>. Wenn ich Dialoge eintippe, wenn ich Bewegungen steuere, dann kaschiert das natürlich den tatsächlichen Stand der Technik und ist ein Euphemismus dafür, was man tatsächlich kann.</p>



<p>Ich hab das kürzlich auch bei der <a href="https://de.wikipedia.org/wiki/Lange_Nacht_der_Wissenschaften">langen Nacht der Wissenschaft</a> gesehen. Da werden Übergaben zwischen Roboter und Mensch gemacht und behauptet, der Roboter würde das erkennen können. Es wird sogar was über die Sensoren erzählt. In Wirklichkeit sitzt aber im Nebenraum der Operator und steuert den Roboter über eine Kamera. Das ist natürlich schlechte wissenschaftliche Praxis.</p>



<p>Das liegt aber genau an der falschen Erwartungshaltung und daran, dass der aktuelle Stand der Robotik häufig zu unspektakulär ist. Die Dinge, die aus Ingenieurssicht interessant sind, sind von der Außenperspektive häufig einfach nicht besonders sichtbar oder spektakulär. Wenn man beeindrucken will oder Fördergelder haben will, nötigt das einen manchmal dazu, solche Kompromisse in der Darstellung einzugehen.</p>



<p>Aus meiner Wahrnehmung gibt es da aber eine gewisse Differenz zwischen populär-wissenschaftlicher Aufarbeitung, die ganz fürchterlich ist und semi-wissenschaftlicher Aufarbeitung, die etwas weniger fürchterlich ist. Ich hab aber selten in der Robotik wirklich wissenschaftliches Fehlverhalten unter Kollegen erlebt.</p>



<p><strong>Finde ich gut, dass Du das so positiv siehst. Ich glaube, ich bin da nicht ganz so positiv. Was ich nämlich dazu zählen würde &#8211; das ist vielleicht kein Betrug, aber Beschönigung mindestens &#8211; sind viele Videos der Robotik. Ich versuche eine Sache 50 Mal und lade dann das eine erfolgreiche Mal auf YouTube hoch. Darüber spreche ich dann und schreibe darüber vielleicht sogar noch eine wissenschaftliche Veröffentlichung. Das begegnet uns glaube ich auch in der Robotikwissenschaft und ist für mich eine ähnliche Praxis.</strong></p>



<p>Ja. Das finde ich wahnsinnig spannend, denn darüber schreibe ich tatsächlich in meiner Dissertation. Das wird wahrscheinlich mein Projekt für die Zukunft werden: die epistemische Frage &#8211; da kommt jetzt wieder der Soziologe, sorry &#8211;  wie wissenschaftliche Evidenz in Disziplinen erzeugt wird, die an der Schnittstelle zwischen Science und Engineering stehen. Das ist glaube ich wissenschafts-theoretisch noch nicht gut beschrieben. Das wahnsinnig Interessante in der Robotik für einen Soziologen ist ja, dass man während der Forschung den Gegenstand seiner eigenen Forschung erst kreiert.</p>



<p><strong>Oh, ja stimmt. Interessant!</strong></p>



<p>Das ist etwas, das absolut unüblich ist in den meisten wissenschaftlichen Disziplinen. Es gibt natürlich ähnliche Beispiele: Wissenschaftler, die das Elektronenmikroskop bauen, aus der Notwendigkeit heraus, Ihre Forschung an Atomen zu machen. Dort hat aber ganz klar der gebaute Gegenstand Instrument-Charakter.</p>



<p>Der Roboter, den wir bauen, ist aber ja mehr als ein Instrument für weitere Forschung. Deswegen ist es eben wahnsinnig interessant, wie dort Evidenzen kreiert werden. Da sehe ich das Video auch ganz klar als neues Medium und so kenne ich das aus keiner anderen Wissenschaft. Man sieht häufig bei Robotik-Papern, dass auf der Homepage der Link zum IEEE-Paper zu finden ist, das mein YouTube-Video verlinkt. In dem Video lasse ich meinen Roboter dreimal fahren, vielleicht kann man auch noch die Kurven der Bewegung sehen. Das ist wahnsinnig interessant, weil es eine neue Art und Weise ist, Evidenzen zu schaffen und Wissenschaft zu kommunizieren. Da ist natürlich genau dieser Effekt interessant, dass einmaliges Funktionieren häufig als eine Art Proof of Concept ausreicht. Das widerspricht in eigentlich allen anderen Wissenschaften dem Prinzip der wissenschaftlichen Wiederholbarkeit. Das liegt aber natürlich auch daran, dass das Setup der Experimente häufig von einer derart hohen Komplexität ist, dass das einmalige Funktionieren in einer nachweisbaren Form &#8211; und das ist zum Beispiel das Video &#8211; reicht, um Proof of Conept zu sein.</p>



<p>Ich bin mir noch nicht sicher, ob es schlicht nicht-wissenschaftlich ist oder ob es wissenschaftliches Fehlverhalten ist oder ob es einfach dem Stand der Robotik als Wissenschaft geschuldet ist.</p>



<p><strong>Ich muss zur Ehrenrettung der Robotik anmerken, dass mittlerweile einige Journals und Konferenzen dieses Problem auch erkannt haben. Deswegen wird immer mehr gefordert, auch eine gewisse Reproduzierbarkeit der Experimente zu ermöglichen. Zum Beispiel indem ich die Software ausliefern muss oder die gesamte ROS-Installation als virtuelle Maschine mitliefern muss. Das ist aufgrund der von Dir genannten Komplexität natürlich immer noch ein Problem. Es kann sich zum Beispiel nicht jeder den Roboter kaufen, um die Experimente zu reproduzieren. Zum Teil sind die Systeme auch einfach so komplex, dass es nicht mit vertretbarem Aufwand möglich ist. Aber dieses Problem wird glaube ich immer mehr gesehen und daran wird gearbeitet. Zum Beispiel mit Robotik-Wettkämpfen, in dem man das dann live zeigen muss, das ist dann ja auch wieder Dein Thema. </strong></p>



<p>Das ist tatsächlich eines meiner Kapitel, ja: der Wettkampf und die Live-Demonstration als Experiment-Status. Da schlagen wir dann auch wieder den Bogen zu NotMyRobots und der Öffentlichkeit. Wenn wir nämlich öffentliche Live-Demos vom Status der Robotik haben, ist das natürlich extrem nützlich zur Kommunikation. Das ist etwas, das zurückgeht auf sehr alte Formen der Technikdemonstration, die wir im 19. Jahrhundert und Anfang des 20. Jahrhunderts hatten. Zum Beispiel Lindberg, der vor den Augen der Pariser Öffentlichkeit demonstriert hat, was sein Flugzeug kann. Auch da verstehen natürlich nicht alle das Flugzeug als wahnsinnig komplexes System. Ähnlich ist das in der Robotik. Wir haben dort einen wahnsinnigen Haufen an Disziplinen. Selbst die Leute, die letztendlich das Verhalten implementieren, können nicht das gesamte System verstehen.</p>



<div class="wp-block-image"><figure class="alignright size-large is-resized"><img src="https://botzeit.de/wp-content/uploads/2020/04/HTWK_Leipzig_-_Nao-Team-1024x768.jpg" alt="Nao-Roboter beim RoboCup" class="wp-image-1075" width="253" height="190" srcset="https://botzeit.de/wp-content/uploads/2020/04/HTWK_Leipzig_-_Nao-Team-1024x768.jpg 1024w, https://botzeit.de/wp-content/uploads/2020/04/HTWK_Leipzig_-_Nao-Team-300x225.jpg 300w, https://botzeit.de/wp-content/uploads/2020/04/HTWK_Leipzig_-_Nao-Team-768x576.jpg 768w, https://botzeit.de/wp-content/uploads/2020/04/HTWK_Leipzig_-_Nao-Team-1536x1152.jpg 1536w, https://botzeit.de/wp-content/uploads/2020/04/HTWK_Leipzig_-_Nao-Team-2048x1536.jpg 2048w" sizes="(max-width: 253px) 100vw, 253px" /><figcaption>Nao-Roboter beim RoboCup <a href="https://commons.wikimedia.org/wiki/File:HTWK_Leipzig_-_Nao-Team.jpg">[Quelle]</a></figcaption></figure></div>



<p>Diese Art von Demonstrationen in der Robotik sehe ich zum Beispiel beim <a href="/tag/robocup/">RoboCup</a>. Wenn ich da hin gehe und die Roboter Fußballspielen sehe, dient das natürlich auch dem Zweck, zu sehen: diese Roboter sind keine Terminatoren. Wahrscheinlich sind deswegen die Naos auch viel beliebter als die Roboter der <a href="https://www.robocup.org/leagues/6">Middle Size League</a>. Gerade die Naos zeigen gut den Stand der Technik und wie viel Arbeit es ist, etwas für den Menschen so triviales zu machen wie einen Ball zu finden, ein Tor zu finden, und den Ball dann ins Tor zu schießen. Solche Dinge kann man beim RoboCup erleben. Damit sind diese Veranstaltungen gut geeignet, um eine Verbindung zwischen wissenschaftlich Interessierten und der Robotik herzustellen. </p>



<p><strong>Für mich als Robotiker sind diese Videos vom RoboCup oftmals furchtbar frustrierend. Wenn man vom <a href="/tag/robocuphome/">RoboCup@Home</a> zum Beispiel das x-te Mal sieht, wie eine fahrende Tonne ganz langsam an einen Tisch heran fährt, um eine einzelne Cola-Dose zu greifen, dann frustriert mich das ungemein und ich denke: irgendwie bleibt die Robotik seit Jahren stehen. Aber aus Sicht der Wissenschaftskommunikation ist das natürlich genau richtig, um ein realistischeres Bild zu vermitteln. Diese Szenen zeigen, dass selbst scheinbar trivialen Aufgaben, die von einem Menschen mit geschlossenen Augen nebenbei erledigt werden können, unglaublich komplex sind. Und da stehen wir eben noch in der Robotik: selbst in einer strukturierten Umgebung einfache Aufgaben zu erfüllen ist immer noch knüppelhart.</strong></p>



<p><strong>So, wir haben jetzt doch ganz schön große Bögen geschlagen in diesem Interview. Ich habe jetzt noch zwei, drei Fragen zum Schluss, die sich nicht perfekt anschließen.</strong></p>



<p>Genau so sollte das sein mit den letzten Fragen eines Interviews.</p>



<p><strong>Dieses Problem, das ihr mit NotMyRobots aufzeigt, falsche Symbolbilder, hat ja nicht nur die Robotik. Man denke zum Beispiel an die klassischen Symbolbilder von Hackern in Hoodies. Wahrscheinlich gilt das in ähnlicher Form für fast alle Disziplinen. Wenn man sich auskennt und darin arbeiten, dann schlägt man wahrscheinlich auch da die Hände über dem Kopf zusammen. Müsste es neben NotMyRobots also auch NotMyHacker und NotMyX&#8230; geben?</strong></p>



<p>Ich glaube, bei NotMyHacker gibt es so etwas schon, also Leute, die den klassischen Kaputzenpulli-Hacker ironisieren und darstellen. Aus meiner Perspektive kenne ich aber zum Beispiel keine Bilder, die die Soziologie darstellen. Vielleicht sind wir einfach auch weniger in derartigen Artikeln vertreten.</p>



<p>Da ist noch etwas, das wir auch in der Robotik machen könnten ist. Wenn zum Beispiel <a href="https://de.wikipedia.org/wiki/Armin_Nassehi">Armin Nassehi</a> in der FAZ interviewt wird, dann ist ein Bild von Armin Nassehi abgebildet, und kein Symbolbild wie in der Robotik. Das wäre vielleicht auch in der Robotik nicht verkehrt, dass die Gesichter hinter der Technik gezeigt werden, die gerade dargestellt wird. Ich denke, dass BiologInnen in ihren Artikeln ähnliches finden.</p>



<p>Ich glaube aber, dass dieser merkwürdige Science-Fiction-Realismus in der Robotik das größere Problem hat, weil die Robotik seit jeher mit Science Fiction assoziiert ist. Wenn man über Roboter und Robotik redet, dauert es häufig keine drei Sätze bis jemand <a href="https://de.wikipedia.org/wiki/Isaac_Asimov">Asimov</a> erwähnt &#8211; das <em>Godwin&#8217;s Law</em> der Robotik sozusagen. Das heißt, die Science-Fiction-Elemente sind in der Robotik viel deutlicher als in anderen Wissenschaften. Das ist diese Merkwürdigkeit von Fantasie und sehr konkreter Darstellung, die die Robotik einzigartig macht. Ich glaube, in keiner anderen Disziplin existiert dieses Bild so stark. Wenn wir humanoide Roboter sehen, dann haben wir eine Vorstellung davon, die pop-kulturell geprägt ist. Humanoide sind sehr präsent in unserer pop-kulturellen Fantasie und in unserem pop-kulturellen Gedächtnis. Zumindest in einem westlichen Kontext sind die glaube ich viel stärker als in anderen Disziplinen. Wenn man Stock Photos googelt &#8211; und das werde ich als Experiment nachher wahrscheinlich mal ausprobieren &#8211; ist wahrscheinlich Robotik diejenige Disziplin, bei der die meisten fürchterlichen Stock Photos gefunden werden.</p>



<p><strong>Das kann gut sein.</strong></p>



<p><strong>Dann schließe ich mal ab mit einer Frage, die Du schon zwei, drei Mal angeschnitten hast. Was sollte ich als Blogger, Journalist, Redakteur denn in Zukunft besser machen oder beachten?</strong></p>



<p>Es sollte sozusagen einen Giftschrank geben von grafischen Robotikvisualisierungen, die nicht mehr benutzt werden. Also zum Beispiel  Terminator und HAL. Die fliegen raus! Die werden einfach nicht mehr benutzt, es sei denn, es geht im Text tatsächlich um den Terminator oder HAL. Außerdem alles, was stark geschlechtlich ist und &#8211; das ist glaube ich mit das Fürchterlichste &#8211; dieser weiße Roboter, bei dem auch diese merkwürdige Reinheit/Weißheit <em>(sic!)</em> vorkommt. Die fliegen auch alle raus! Das ist glaube ich das beliebteste Stock Photo und der Designer ist wahrscheinlich mit seinem <em>White Robot Guy</em> ziemlich reich geworden, wenn die Bilder nicht piratisiert werden. Der kommt auch weg!</p>



<p>Wenn wir AI illustrieren, dann muss klar werden, AI ist <em>nicht</em> ein nachdenkender Roboter. Generell sollten AI-Artikel nicht mit Robotern bebildert werden, es sei denn die künstliche Intelligenz ist tatsächlich in robotischen Systemen verkörpert. </p>



<p>Ich würde raten, Bilder von den robotischen Systemen zu verwenden, über die man schreibt. Die haben nämlich meistens Bilder. Wir haben es irgendwann so gemacht, dass wir unserer Presseabteilung gesagt haben, dass sie bei uns im Lab vorbei kommen sollen, wenn sie Bilder haben wollen. Die haben dann Bilder von den tatsächlichen Robotern gemacht. Die stellen dann häufig trotzdem noch Dinge dar, die sie nicht wirklich können. Aber immerhin ist es ein existierender Roboter mit dem tatsächlich die Forschung gemacht wird, über die geschrieben wird.</p>



<p>Wenn die Teaser der Artikel schön aussehen sollen, gibt es auch jede Menge Bilder, die abstrakt sind. Roboter in Form von abstrakter Kunst finde ich weniger schlimm als die Bilder, die konkrete aber falsche Visualisierungen zeigen. </p>



<p>Abschließend würde ich sagen, ein Artikel zur AI braucht kein Roboterbild, und ein Roboter muss nicht immer ein Humanoider sein. Viel wäre schon geholfen, wenn Robotik als Technik gezeigt wird. Deswegen finde ich Deine Abbildung in der Wikipedia auch nicht so schlimm. Wenn keine Verblendungen da sind, sondern wenn Aktuatoren gezeigt werden, wenn Mechanismen gezeigt werden, wenn die technische Entität von Robotik wieder da ist, ist das glaube ich schon sehr hilfreich</p>



<p><strong>Okay, Arne. Dann an dieser Stelle vielen Dank. Wir haben jetzt fast eine Stunde geredet. Das hätte ich im Vorfeld gar nicht gedacht, aber wir haben auch über viele Aspekte geredet, die ich nicht erwartet hatte. Nicht nur Sexismus in der Robotik, sondern sogar auch noch Andeutungen von Rassismus in der Robotik.</strong></p>



<p>Ja, ich glaube gerade dieser weiße Roboter ist aus dieser Perspektive absolut nicht harmlos.</p>



<p>Aber das kommt natürlich davon, wenn man mit SozialwissenschaftlerInnen redet. Das sind die Themen, über die wir dauernd reden und das ist auch irgendwie unsere Hausaufgabe. Das machen wir natürlich auch, um unsere eigene wissenschaftliche Legitimität in die Form unserer Kritik einzubringen.</p>



<p>Ich bin daher sehr gespannt und aus wissenschaftlicher Perspektive sehr interessiert, das auch nochmal aus der robotischen Perspektive zu lesen. Ich warte also gespannt auf Deinen Artikel. </p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/notmyrobots-interview-mit-arne-maibaum/">NotMyRobots &#8211; Interview mit Arne Maibaum</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
<img src="https://vg08.met.vgwort.de/na/a8573a5be180455db8d21f8429c01b96" width="1" height="1" alt="" class="wpvgw-marker-image" loading="eager" data-no-lazy="1" referrerpolicy="no-referrer-when-downgrade" style="display:none;" />
]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/notmyrobots-interview-mit-arne-maibaum/feed/</wfw:commentRss>
			<slash:comments>3</slash:comments>
		
		
			</item>
		<item>
		<title>DRC Wettkampftage</title>
		<link>https://botzeit.de/2015-06-17-drc-wettkampftage/</link>
					<comments>https://botzeit.de/2015-06-17-drc-wettkampftage/#respond</comments>
		
		<dc:creator><![CDATA[Jörn]]></dc:creator>
		<pubDate>Wed, 17 Jun 2015 07:56:59 +0000</pubDate>
				<category><![CDATA[Artikel]]></category>
		<category><![CDATA[Autonome Roboter]]></category>
		<category><![CDATA[Humanoide]]></category>
		<category><![CDATA[darpa]]></category>
		<category><![CDATA[drc]]></category>
		<category><![CDATA[kuka]]></category>
		<category><![CDATA[robotics challenge]]></category>
		<category><![CDATA[video]]></category>
		<guid isPermaLink="false"></guid>

					<description><![CDATA[<p>(this article is also available in English) Eine Woche ist es her, seit der DARPA Robotics Challenge (DRC). Noch am Abend des zweiten Wettkampftages haben wir Walkman wieder verpackt und auf den Heimweg geschickt. Anschließend hatten wir Zeit, Schlaf nachzuholen, ein wenig Californien zu erkunden und die DRC-Woche Revue passieren zu lassen. In der Tat, [&#8230;]</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2015-06-17-drc-wettkampftage/">DRC Wettkampftage</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p><em>(this article is also available <a href="https://planet-robotics.net/articles/darpa-robotics-challenge/">in English</a>)</em></p>


<p>Eine Woche ist es her, seit der DARPA Robotics Challenge (DRC). Noch am Abend des zweiten Wettkampftages haben wir Walkman wieder verpackt und auf den Heimweg geschickt. Anschließend hatten wir Zeit, Schlaf nachzuholen, ein wenig Californien zu erkunden und die DRC-Woche Revue passieren zu lassen.</p>
<p>In der Tat, es ist nicht bei den zwei gestürzten Robotern während des Testlaufs geblieben. Am ersten Wettkampftag sind nahezu alle Zweibeiner früher oder später gestürzt. Jemand hat sich die Mühe gemacht einige der Stürze in einem Video zusammenzufassen:</p>
<p><iframe title="A Compilation of Robots Falling Down at the DARPA Robotics Challenge" width="640" height="360" src="https://www.youtube.com/embed/g0TaYhjpOfo?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Stürzende Roboter, via IEEE Spectrum</p>
<p>Etwa ab Sekunde 00:19 ist Walkman zu sehen. Die Aufnahme zeigt unseren ersten Lauf in der zweiten Gruppe am Freitag Morgen. Innerhalb von acht Minuten und zwölf Sekunden hatte Walkman den Polaris Ranger von der Startlinie durch den Parcours zu Eingangstür der simulierten Industrieanlage gefahren und damit den ersten Punkt geholt. Wie im nachfolgenden Video ab Sekunde 50 zu sehen, wurde Walkman dabei kräftig angefeuert.</p>
<p><iframe title="DARPA 2015 Finals: Rescue bots compete in disaster simulation challenge" width="640" height="360" src="https://www.youtube.com/embed/PRAkCK9IUY4?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Walkman&#8217;s erster Lauf, angefeuert von seinem Team</p>
<p>Zu diesem Zeitpunkt hatte Walkman zunächst die beiden Atlas Teams, die offenbar technische Schwierigkeiten hatten, weit hinter sich gelassen. Doch dann standen plötzlich für mehrere Minuten auf allen vier Bahnen sämtliche Roboter still. Offenbar gab es bei allen Teams Probleme mit der Kommunikation zwischen den Piloten und dem Roboter. Die Verzögerungszeit auf allen Bahnen wurde daher an die Wettkampfzeit angehängt. Allerdings zehrten die Roboter während dieser Zeitspanne weiterhin von ihren Batterien&#8230;</p>
<p>Als es weiterging, öffnete Walkman problemlos die Tür und setzte an, die diese zu durchschreiten. Wir hatten dies in unserer Garage mehrfach geübt. Aufgrund der sehr breiten Schultern des Roboters (ca. 80 cm), ist das Durchschreiten der Tür nicht ganz einfach. Die Strategie bestand also in einer Drehung des Roboters auf der Stelle um 90°. Anschließend passierte Walkman die Tür mit Seitwärtsschritten. Leider brach Walkman unmittelbar nach dem Öffnen der Tür plötzlich einfach zusammen (siehe Video). Glücklicher Weise hat sich Walkman bei diesem Zusammenbruch quasi abgerollt, sodass nichts passiert ist. In der Tat ist von diesem Sturz kaum ein Kratzer zu sehen.</p>
<p>Die Ursache für den Zusammenbruch ist nicht klar. Die Batteriekapazität lag noch bei 80 %. Faszinierender Weise stürzte exakt zur gleichen Zeit auf der Roboter auf der Nachbarbahn. Bei einem Sturz schaltet das Team den Roboter per Funk über einen sogenannten E-Stop Schalter aus, um weitere Schäden zu vermeiden und eine sichere Annäherung an den Roboter zu ermöglichen. Da ein Übersprechen zwischen den E-Stops beider Teams nicht ausgeschlossen werden konnte, gewährte uns die Wettkampfleitung freundlicher Weise eine Wiederholung des Laufs ab dem Zeitpunkt der Kommunikationspanne. Das bedeutet, wir durften am Abend des gleichen Tages noch einen Versuch unternehmen. Der Versuch startete an der Stelle vor der Tür mit der uns am Morgen an dieser Stelle noch verbliebenen Zeit. Dieses mal gelang es die Tür zu durchschreiten. Leider geriet Walkman unmittelbar auf der anderen Seite der Tür ins Straucheln, fiel mit lautem Scheppern auf die Seite und drehte sich anschließend auf die Frontseite. Er kam auf den Knien und dem Schutzkäfig am Kopf jenseits der Türlinie zum liegen. Damit hatten wir dann immerhin unseren zweiten Punkt geholt.</p>
<p>Die am Roboter angebrachten Polster haben auch bei diesem Sturz schlimmeres Verhindert. Eine Schraube zur Befestigung des Ellenbogen Polsters war deutlich verbogen. Diese Schraube hatte beim Aufprall ein Loch im Asphalt der Wettkampfbahn hinterlassen. Darüber hinaus war dem Roboter scheinbar nichts ernstes passiert. Dennoch wurden einige Rekalibrationen erforderlich, die wir dann bis in die Nacht hinein durchführen mussten.</p>
<p>Am nächsten Morgen ging es dann nach einem kurzen Testlauf in der Garage zum zweiten Wettkampflauf. Beim Fahren des Polaris Rangers konnte Walkman die Zeit vom Vortag nahezu halbieren. Vor der Tür begannen dann leider wieder die Schwierigkeiten. Zuerst machte sich ein Rattern während der Bewegung des linken Ellenbogengelenks bemerkbar. Während des Drehens auf der Stelle vor der Tür berührte Walkman den Türrahmen und geriet zunächst gefährlich ins Wanken. Wenige Minuten später mussten wir letztendlich Walkmans letzten Sturz des Wettkampfs mitansehen&#8230; Dieses Mal hat sich Walkman wohl das Fußgelenk verknackst&#8230;</p>
<p>Schade ist, dass wir nach so kurzer Zeit und einem so guten Start in den zweiten Wettkampftag dann doch so früh abbrechen mussten. Dennoch herrscht Einigkeit im Team und auch so manch anderer bekannter Robotiker in Fairplex hat uns das bestätigt: angesichts der kurzen Entwicklungszeit haben wir einen für den Wettkampf ernstzunehmenden Roboter präsentiert, eine gute Leistung gezeigt und sind damit doch sehr weit gekommen. Wir haben zwei Punkte geholt und haben so mit dem 17. Platz immerhin sechs weitere Teams hinter uns gelassen. Das Technologiekonzept scheint also prinzipiell zu stimmen, am Reifegrad der Technologie dürfen wir noch arbeiten. Da der Roboter von der ersten Schraube bis zum letzten Softwarebit selbst entwickelt worden ist, können wir alle gelernten Lektionen auch unmittelbar umsetzten.</p>
<p>Als Fazit war die Woche für jeden vons eine großartige Erfahrung und anders als bei vielen der anderen Teams stellt die Teilnahme an dem Wettkampf nicht das Projektfinale dar. Für das Team Walkman war dies nur ein früher Meilenstein nach einem Drittel der Projektzeit.</p>
<p>Hier noch ein paar Eindrücke von unseren Vorbereitungen in der Garage:</p>
<p><iframe title="DRC Preparation WALKMAN Garage Timelapse" width="640" height="360" src="https://www.youtube.com/embed/SbzBt72AaMg?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Team Walkman bei den Vorbereitungen</p>
<p>sowie den Wettkampftagen:</p>
<p><iframe title="DRC Challenge Team Walkman Timelapse" width="640" height="360" src="https://www.youtube.com/embed/LLwsi6JZswM?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Team Walkman beim Wettkampf</p>
<p>Und da es offensichtlich noch Bedarf zur Nachbesserung in Sachen Balance gibt, begann Team Walkman sogleich mit einem passenden Aufbauseminar&#8230; am Strand von San Diego</p>
<figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/surfing.jpg" alt="/images/blog/surfing.jpg" width="640" /><figcaption class="wp-caption-text">Nachhilfe in Sachen Balance am Strand von San Diego</figcaption></figure>
<p><strong>Das war&#8217;s. Das Team Walkman dankt allen, die die Daumen gedrückt und uns angefeuert haben!</strong></p>
<figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/007087e517b.jpg" alt="/images/blog/007087e517b.jpg" width="640" /><figcaption class="wp-caption-text">via newscientist.com</figcaption></figure><p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2015-06-17-drc-wettkampftage/">DRC Wettkampftage</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>

]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/2015-06-17-drc-wettkampftage/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Ein paar Eindrücke von den DRC Finals</title>
		<link>https://botzeit.de/2015-06-04-ein-paar-eindruecke-von-den-drc-finals/</link>
					<comments>https://botzeit.de/2015-06-04-ein-paar-eindruecke-von-den-drc-finals/#respond</comments>
		
		<dc:creator><![CDATA[Jörn]]></dc:creator>
		<pubDate>Thu, 04 Jun 2015 04:22:45 +0000</pubDate>
				<category><![CDATA[Artikel]]></category>
		<category><![CDATA[Autonome Roboter]]></category>
		<category><![CDATA[Humanoide]]></category>
		<category><![CDATA[advanced robotics]]></category>
		<category><![CDATA[drc]]></category>
		<category><![CDATA[kuka]]></category>
		<category><![CDATA[robotics challenge]]></category>
		<category><![CDATA[video]]></category>
		<guid isPermaLink="false"></guid>

					<description><![CDATA[<p>So, nach nunmehr drei Tagen am Aus­tragungs­ort der DARPA Robotics Chal­lenge in Pomona mit viel zu viel Fastfood und wenig Schlaf nehme ich mir die Zeit ein paar Eindrücke über botzeit zu teilen. Zum Hintergrund des Walkman Projekts Der Roboter ist 1.85 groß und wiegt etwa 120 kg. Der gesamte Roboter wurde in nicht mehr [&#8230;]</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2015-06-04-ein-paar-eindruecke-von-den-drc-finals/">Ein paar Eindrücke von den DRC Finals</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>So, nach nunmehr drei Tagen am Aus­tragungs­ort der DARPA Robotics Chal­lenge in Pomona mit viel zu viel Fastfood und wenig Schlaf nehme ich mir die Zeit ein paar Eindrücke über botzeit zu teilen.</p>
<p><strong>Zum Hintergrund des Walkman Projekts</strong></p>
<p>Der Roboter ist 1.85 groß und wiegt etwa 120 kg. Der gesamte Roboter wurde in nicht mehr als 10 Monaten entwickelt, gefertigt und erst­malig in Betrieb genommen. Als ich im Januar in Genua ankam, steckten die extern gefer­tig­ten Teile noch in der Zoll­ab­fer­tigung fest…</p>
<p>Als schließlich alle Teile im Institut ange­kom­men waren, wurde der Roboter binnen zwei Wochen zusammen­ge­baut und in Betrieb genommen. Zu diesem Zeit­punkt blieb uns für die Fertig­stel­lung der Quali­fi­ka­tions­videos für die DRC Finals dann noch ein knapper Monat Zeit.</p>
<p>Auch nach der Quali­fi­ka­tion blieb nicht viel Zeit zum Durch­atmen. Während der Qualifika­tions­experi­men­te hatten sich ein paar Tücken sowohl in der Hardware, wie auch in der Soft­ware offenbart. Alles andere wäre vermut­lich auch sehr über­raschend gewesen…</p>
<p>Am vergangenen Samstag sind wir schließlich hier in Pomona nahe Los Angeles ange­kom­men und berei­ten uns seither auf den Wett­kampf vor.</p>
<p><figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/P1100270.JPG" alt="/images/blog/P1100270.JPG" width="640"><figcaption class="wp-caption-text">Ein Blick in die Garage von Team Walkman</figcaption></figure></p>
<p><strong>Eine Art Tagebuch</strong></p>
<p><em>Sonntag: Registrierung, Begrüßung und Instruktionen</em></p>
<p>Der Sonntag Vormittag dient im Wesent­lichen der Orientie­rung hier vor Ort. Es ist das einzige Zeit­fenster, in dem wir einen kurzen Blick auf die Gegend um Los Angeles erhaschen und einige wenige Sehens­würdig­keiten besuchen können. Nach der Registrie­rung am Nach­mit­tag findet dann die offizielle Be­grüßung und Auftakt­ver­anstal­tung statt. Ein kurzer Überblick über die Daten und Fakten zum Event: es sind etwa 600 Team-Mitglieder angereist, betreut wird die Veranstal­tung von 300 frei­wil­ligen DARPA-Mitarbei­tern. Zahlreiche inter­nationa­le Pres­se­vertre­ter haben sich ange­kündigt. Darunter unter anderem: ARD, BBC News, Daily Planet, IEEE Spectrum, MIT Technology Review, NBC News, Playboy.com, Spiegel Online, TEDx, ZDF.</p>
<p><em>Montag: der Einzug in die Team Garage</em></p>
<p>Wir bekommen ab 08:00 Uhr Zugang zu unserer Team Garage. Das ist der Ort, wo wir unsere Rechner, unsere Werk­statt, den Roboter und eine kleine Trainings­umgebung aufbauen.</p>
<p>Wir verbringen den ganzen Tag weitestgehend mit dem Einzug, dem Aufbau der Arbeits­plätze und ausgiebigen Tests des Roboters. Die beste Nachricht des Tages:<br />
Walkman ist gesund und munter angekommen. Der Roboter funktio­niert einwand­frei. Auch das restliche Equipment hat den Transport unbeschadet überstanden.</p>
<p>Für die meisten endet dieser erste Tag etwa um Mit­ter­nacht mit dem Rückweg zum Hotel.</p>
<p><em>Dienstag: Modultest</em></p>
<p>Um 09:00 Uhr geht es für mich weiter. An diesem Tag steht Loko­motion im Forder­­grund. Wir sind unsicher, wie Walkman mit dem un­ebenen Wett­kampf­gelände und vorhandenen Stei­gungen zurecht kommen wird. Ent­sprechend werden nach dem Transport einige Modell­para­me­ter überprüft und re­kali­briert sowie Regler­einstel­lungen verfeinert.</p>
<p>Am Nach­mit­tag können wir erstmalig den Roboter in eines der von der DARPA für den Wett­kampf zur Verfügung gestellten Autos setzen und unsere Fahrzeug­modi­fi­ka­tionen für diese Aufgabe testen.</p>
<p><figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/IMG_20150602_171306.jpg" alt="/images/blog/IMG_20150602_171306.jpg" width="640"><figcaption class="wp-caption-text">Walkman im Auto</figcaption></figure></p>
<p>Anschließend haben sowohl Roboter als auchTeam einen offi­ziel­len Foto­termin.</p>
<p><figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="http://www.theroboticschallenge.org/sites/default/files/20150602_SUN_WALK-MAN_bleachers_web.jpg" alt="http://www.theroboticschallenge.org/sites/default/files/20150602_SUN_WALK-MAN_bleachers_web.jpg" width="640"><figcaption class="wp-caption-text">Team Walkman (theroboticschallenge.org)</figcaption></figure></p>
<p>Am Abend geht es weiter mit Lokomotion. Eine Holz­platte und ein paar Balken dienen dienen als Test­platt­form. Wir testen das Stehen, Laufen und Drehen auf der Stelle auf der hölzer­nen Ebene mit bis zu 8° Grad Neigung. Der Roboter meistert die Tests und wir beenden unsere Arbeit sehr zufrie­den um 03:00 Uhr am Morgen. Wir werden von den Jungs abgelöst, die nun das Auto­fahren testen werden. Die Kollegen vom <em>IHMC</em> haben uns freund­licher­weise zu diesem Zweck bis 11:00 Uhr ihren Polaris Ranger überlassen. <em>Mille mille grazie dafür!</em></p>
<p><em>Mittwoch: Manipulation Day Öffnen und Durch­schreiten der Tür, Ventil-Aufgabe</em></p>
<p>Heute steht Manipulation auf der Tages­ordnung. Im speziellen das Öffnen und Durch­schreiten einer Tür, sowie das Drehen eines Industrie­ventils. Bei den Arbeiten bereitet uns das linke Knie­gelenk Probleme. Einer der Magnet­encoder versagt den Dienst. Am Morgen war bereits ein Fehler in der Leistungs­elektronik auf­ge­tre­ten. Mir gibt der Ausfall die Zeit, diese Zeilen zu schreiben, während unsere Techniker daran arbeiten, nicht nur das defekte Teil zu ersetzen, sondern auch die Ursache für den Aus­fall festzustellen…</p>
<p><strong>Die Atmosphäre in der Garage:</strong></p>
<p>Insgesamt ist die Atmosphäre sehr angenehm. Insbesondere das Mit­einander mit den übrigen Teams empfinde ich als sehr angenehm. Die Halle hier ist voll von Menschen, die mit großer Be­geisterung an ihren Robotern arbeiten. Bis auf ein einzi­ges Team hängt in jeder Garage ein grünes Schild, dass die Aufnahme von Fotos und Videos ausdrücklich erlaubt. Die Wissen­schaftler und Techniker laufen von Garage zu Garage und informieren sich wiss­begie­rig über die Kon­struk­tion, Hard- und Software der anderen Teams. Die eigenen Erfahrungen werden meist gerne geteilt und wie es aussieht, knüpfen manchmal nicht nur Menschen, sondern auch Roboter neue Kontakte:</p>
<p><figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/IMG_20150602_185312.jpg" alt="/images/blog/IMG_20150602_185312.jpg" width="640"><figcaption class="wp-caption-text">Atlas und Walkman verstehen sich.</figcaption></figure></p>
<p>Insgesamt gehen alle Teams sehr hilfs­bereit mitein­ander um. Man leiht sich gegen­seitig Ersatz­teile und Werk­zeug. Gegen Abend zeigt sich dann, welche Teams schon lange dabei sind und ent­sprechend eine aus­ge­reifte Hard- und Software vor­weisen können. Diese Teams verlassen ihre Garage am Abend und genießen ein wenig Frei­zeit. Andere Teams, die noch jung im Rennen sind und meist ihre Roboter voll­ständig selbst gebaut haben, bleiben bis in die Nacht hinein. Viele arbeiten im Schicht­betrieb &#8211; so wie wir.</p>
<p><em>Turniamo a&#8217;lavoro!</em></p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2015-06-04-ein-paar-eindruecke-von-den-drc-finals/">Ein paar Eindrücke von den DRC Finals</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>

]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/2015-06-04-ein-paar-eindruecke-von-den-drc-finals/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Alles Fake &#8211; Ein trauriger Monat für die Robotik</title>
		<link>https://botzeit.de/2014-03-17-alles-fake-ein-trauriger-monat-fuer-die-robotik/</link>
					<comments>https://botzeit.de/2014-03-17-alles-fake-ein-trauriger-monat-fuer-die-robotik/#comments</comments>
		
		<dc:creator><![CDATA[Jörn]]></dc:creator>
		<pubDate>Mon, 17 Mar 2014 20:06:47 +0000</pubDate>
				<category><![CDATA[Artikel]]></category>
		<category><![CDATA[Autonome Roboter]]></category>
		<category><![CDATA[Industrieroboter]]></category>
		<category><![CDATA[fake]]></category>
		<category><![CDATA[kuka]]></category>
		<category><![CDATA[roboterarm]]></category>
		<category><![CDATA[tischtennis]]></category>
		<category><![CDATA[tischtennisroboter]]></category>
		<category><![CDATA[video]]></category>
		<category><![CDATA[wam]]></category>
		<guid isPermaLink="false"></guid>

					<description><![CDATA[<p>In der vergangenen Woche fand das European Robotics Forum statt. Dabei handelt es sich um eine Networking-Veranstaltung, bei denen aktuelle und zukünftige Trends in der europäischen Forschungslandschaft diskutiert werden. Einem Blick ins Programm der Veranstaltung verrät bereits einen guten Überblick, was die deutsche Robotik Gemeinde umtreibt. Ein wesentlicher Aspekt ist es, die Verknüpfung zwischen Wahrnehmung [&#8230;]</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2014-03-17-alles-fake-ein-trauriger-monat-fuer-die-robotik/">Alles Fake &#8211; Ein trauriger Monat für die Robotik</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>In der vergangenen Woche fand das <a href="http://www.eu-robotics.net/eurobotics-forum/about-erf-2014/">European Robotics Forum</a> statt. Dabei handelt es sich um eine Networking-Veranstaltung, bei denen aktuelle und zukünftige Trends in der europäischen Forschungslandschaft diskutiert werden. Einem Blick ins <a href="http://www.eu-robotics.net/cms/upload/euRobotics_Forum/Programme_ERF2014_-_21-02-2014.pdf">Programm</a> der Veranstaltung verrät bereits einen guten Überblick, was die deutsche Robotik Gemeinde umtreibt. Ein wesentlicher Aspekt ist es, die Verknüpfung zwischen Wahrnehmung und Handlung in Robotern zu verbessern. Es geht darum, einen Roboter in die Lage zu versetzen, komplexe Bewegungen und Manipulationsaufgaben, die einen hohen Grad an Geschick erfordern, selbstständig oder durch Demonstration zu erlernen und zu adaptieren.</p>
<p>In meinen Augen ist das ein hochspannendes Thema, in dessen Kontext ich vor etwas längerer Zeit bereits auf nachfolgende beeindruckende Videos aufmerksam geworden bin:</p>
<p><iframe title="Towards Learning Robot Table Tennis" width="640" height="360" src="https://www.youtube.com/embed/SH3bADiB7uQ?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Das Video zeigt, wie ein Mensch einem Roboter das Tischtennis Spielen demonstriert. Anschließend erprobt und verbessert der Roboter selbstständig seine Fähigkeiten. Schließlich, spielt der Roboter Tischtennis mit einem Menschen.</p>
<p>Der Tischtennis Demonstrator ist meiner Ansicht nach sehr gut geeignet um Forschungsergebnisse dieser Art darzustellen. Es gibt viele Freiheitsgrade. Die Dynamik der Aufgabe ist hoch und fordernd. Eine Tischtennisplatte hat vertretbare Abmessungen, sodass sich der Demonstrator in einem Labor gut realisieren lässt. Das Spiel mit einem echten Menschen ist nicht planbar. Es kommt zu unvorhersehbaren Ballwechseln. Daher demonstriert das Experiment prinzipell sehr gut die Generalisierungsfähigkeit aber auch die Grenzen entwickelter Algorithmen.</p>
<h2>Hohe Erwartungen</h2>
<p>Im Februar kündigte der Roboterhersteller KUKA mit nachfolgendem Video ein Tischtennis Duell zwischen einem KUKA Roboter und dem Tischtennisprofi Timo Boll an.</p>
<p><iframe title="Timo Boll vs. KUKA robot - Teaser" width="640" height="360" src="https://www.youtube.com/embed/YqYbADKGruU?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Vor dem Hintergrund der zuvor dargestellten Forschungsarbeiten war ich natürlich freudig gespannt auf das Event. Und damit war ich nicht allein. Aus den Kommentaren:</p>
<ul>
<li><em>&#8222;Hmm&#8230;ein Fake wird es nicht sein, glaube aber nicht das der Bot den Hauch einer Chance gegen Boll hat, sobald der mit Topspin angreift. [&#8230;]&#8220;</em></li>
<li><em>&#8222;Fantastic. Cant wait to see this in action&#8230;&#8220;</em></li>
<li><em>&#8222;Well&#8230;never thought I&#8217;d be so hyped for a ping pong match!&#8220;</em></li>
</ul>
<p>Auf <a href="http://spectrum.ieee.org/automaton/robotics/industrial-robots/robots-playing-ping-pong-whats-real-and-whats-not">IEEE Spectrum News</a> schreibt Evan Ackermann: <em>&#8222;Wow, Kuka wouldn&#8217;t have set this whole thing up unless it was actually going to be a good match! Maybe we&#8217;ll see some amazing feats of high speed robot arms, vision systems, and motion tracking!&#8220;</em></p>
<h2>Ernüchterung</h2>
<p>Die geschürte Erwartung bestand in einem tatsächlichen &#8222;Duell&#8220; im Sinne eines echten Spiels zwischen Mensch und Roboter. In meinem durchaus robotisch geprägten Umfeld wurden rege Diskussionen geführt, wie das hypothetische Match ausgehen würde. Ebenso wurden Vermutungen über technische Realisierungen diskutiert. Die oben angesprochenen Forschungsergebnisse haben die prinzipielle Machbarkeit ja bereits vor einiger Zeit demonstriert. Bis hier her: schöne Arbeit seitens des Marketings. Das mit Spannung erwartete Duell war in aller Munde. Am 10.03. erschien dann das ernüchternde Video:</p>
<p><iframe title="The Duel: Timo Boll vs. KUKA Robot" width="640" height="360" src="https://www.youtube.com/embed/tIIJME8-au8?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Für sich genommen ein nettes Werbe-Video. Aber nicht das angekündigte Spiel zwischen Mensch und Maschine. Nur ein mit Spezialeffekten voll gepumpter Trickfilm. Die Story: erst dominiert der Roboter, dann reißt Timo das Ergebnis noch einmal mit spektakulären Spielzügen rum. Die wohl beabsichtigte Botschaft des Roboterherstellers wird am Ende noch einmal explizit formuliert:</p>
<p><em>&#8222;Not the best in table tennis. But probably the best in robotics.&#8220;</em></p>
<p>Die in meinem Umfeld gespiegelte Botschaft fiel eher anders aus. Sie war mehr von Enttäuschung geprägt. Herauszuhören war zusammenfassend: <em>&#8222;KUKA hat ein Duell versprochen, aber nur einen Trickfilm geliefert.&#8220;&nbsp;</em>Auch das spiegelt sich in den sozialen Netzwerken wieder:</p>
<ul>
<li><em>&#8222;Agreed, great idea for marketing, but poorly developed&#8220;</em></li>
<li><em>&#8222;I was so excited to see a duel between a robot and a world champion in table tennis. Expectations were like Kasparov vs Deep Blue, right? Turns out it&#8217;s just a very well shot but fake commercial.&#8220;</em></li>
</ul>
<p>Evan Ackermann trifft auf <a href="http://spectrum.ieee.org/automaton/robotics/industrial-robots/robots-playing-ping-pong-whats-real-and-whats-not">IEEE Spectrum News</a> den Nagel auf den Kopf: <em>&#8222;But the encounter wasn&#8217;t the &#8222;robot vs. human duel&#8220; we were promised. What Kuka gave us instead is an overproduced, highly edited commercial that, in our view, will puzzle (rather than amaze) those of us who follow robotics technology closely.&#8220;</em></p>
<p>In meinen Augen eine verpasste Chance, Menschen zu begeistern und durch technologische Leistung zu überzeugen.</p>
<p>Zu allem Überfluss erschien diese Woche dann ein weiteres Fake-Video (dieses Mal nicht von KUKA) von einem Tischtennisroboter, der angeblich in einer heimischen Garage realisiert wurde:</p>
<p><iframe title="Mann gegen Maschine - Ulf Hoffmann Tischtennis Roboter (UHTTR-1)" width="640" height="360" src="https://www.youtube.com/embed/imVNg9j7rvU?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>In der Beschreibung zum Video steht: <em>&#8222;Nach ca. 2 Jahren Entwicklungsarbeit habe ich mit meinem Freund Michael nun unseren selbst gebauten Tischtennis Roboter soweit fertig gestellt, dass man mit ihm schon ordentliche Ballwechsel spielen kann.&#8220; </em>Leider ist das Video offensichtlich montiert, wie einige aufmerksame Kommentatoren anmerken:</p>
<ul>
<li><em>&#8222;It is fake, look at 1:09! You can see that the camera in the upper right of the garage door is in front of the table tennis racket because it was added to the footage later.&#8220;</em></li>
<li><em>&#8222;Had me fooled until the close up at 2:20. Those movements don&#8217;t seem real, and it seems weird that every movement has the same sound even tough the speeds are different and so are the moves.&#8220;</em></li>
</ul>
<p>Vieles davon finden wir auf <a href="https://www.mikrocontroller.net/topic/326793">Mikrokontroller.net</a> wieder:</p>
<p><figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="https://www.mikrocontroller.net/attachment/210215/busted.jpg" alt="https://www.mikrocontroller.net/attachment/210215/busted.jpg" width="640"><figcaption class="wp-caption-text">camera in the upper right of the garage door is in front of the table tennis racket</figcaption></figure></p>
<p>Als Trickfilm-Projekt ist das Video sicherlich überzeugend gut gemacht. Das belegen auch die zum Teil auch emotional aufgeladenen Diskussionen zur Echtheit des dargestellten Experiments&#8230;</p>
<p>Zwei Aspekte haben mich schließlich zur Wahl des Titels für diesen Blogeintrag bewegt:</p>
<h2>Enttäuschung</h2>
<p>Beide Videos, das von KUKA und das Garagen-Video, haben eine unglaublich rasante Verbreitung in den sozialen Netzwerken erfahren. Für den geneigten Robotik-Laien, so befürchte ich, mag allerdings durch beide Videos ein falscher Eindruck von dem entstehen, was Roboter heute leisten können. Die damit verbundenen komplexen Problemstellungen hat Arne in einem früheren <a href="/2012-11-23-kommentar-roboter-in-der-realen-welt/">Blogeintrag</a> bereits ausführlich thematisiert.</p>
<p>Darüber hinaus erscheint Tischtennis als Demonstrator für die eingangs beschriebenen Forschungsprojekte erst einmal verbraucht. Bei jeder zukünftigen Demonstration des Experiments und jedem neuen Video dazu schwingt zunächst einmal unterschwellig mit: &#8222;Schau mal, da hat wieder einer so getan, als könnte er mit einem Roboter Tischtennis spielen&#8220;. Vielleicht fällt ja jemandem ein alternativer, hinsichtlich Komplexität, Anzahl der Freiheitsgrade und Realisierbarkeit im Labormaßstab vergleichbarer alternativer Demonstrator ein?</p>
<p>Aus robotischer Sicht finde ich die Ereignisse in Summe also sehr schade und komme zu dem Schluss: dies war ein trauriger Monat für die Robotik.</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2014-03-17-alles-fake-ein-trauriger-monat-fuer-die-robotik/">Alles Fake &#8211; Ein trauriger Monat für die Robotik</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>

]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/2014-03-17-alles-fake-ein-trauriger-monat-fuer-die-robotik/feed/</wfw:commentRss>
			<slash:comments>7</slash:comments>
		
		
			</item>
		<item>
		<title>Elastische Roboterarmkörper: Fluch oder Segen? (Teil 2)</title>
		<link>https://botzeit.de/2013-08-29-elastische-roboterarmkoerper-fluch-oder-segen-teil-2/</link>
					<comments>https://botzeit.de/2013-08-29-elastische-roboterarmkoerper-fluch-oder-segen-teil-2/#respond</comments>
		
		<dc:creator><![CDATA[Jörn]]></dc:creator>
		<pubDate>Thu, 29 Aug 2013 14:38:42 +0000</pubDate>
				<category><![CDATA[Artikel]]></category>
		<category><![CDATA[Autonome Roboter]]></category>
		<category><![CDATA[Industrieroboter]]></category>
		<category><![CDATA[elastische armkörper]]></category>
		<category><![CDATA[elastische roboter]]></category>
		<category><![CDATA[kollisionsdetektion]]></category>
		<category><![CDATA[kollisionsreaktion]]></category>
		<category><![CDATA[kraftregelung]]></category>
		<category><![CDATA[nachgiebigkeit]]></category>
		<category><![CDATA[physische interaktion]]></category>
		<category><![CDATA[schwingungsdämpfung]]></category>
		<guid isPermaLink="false"></guid>

					<description><![CDATA[<p>(this article is available in English) Grundsätzlich wird die strukturelle Elastizität in Roboter-Armkörpern bislang nachteilig gesehen. Sie verlängert Ausregelzeiten und verschlechtert die Positioniergenauigkeit. Allerdings wurde die Realisierbarkeit einer schnellen und genauen Positionierung eines gliedelastichen Roboterarms anhand von Ballfang-Experimenten exemplarisch gezeigt . Darüber hinaus kann die intrinsische Nachgiebigkeit jedoch auch vorteilhaft dazu ausgenutzt werden, die tatsächlich [&#8230;]</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-08-29-elastische-roboterarmkoerper-fluch-oder-segen-teil-2/">Elastische Roboterarmkörper: Fluch oder Segen? (Teil 2)</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p class="has-small-font-size"><em>(this article is <a href="https://planet-robotics.net/articles/elastic-robot-links-curse-or-blessing-part-2/">available in English</a>)</em></p>



<p>Grundsätzlich wird die strukturelle Elastizität in Roboter-Armkörpern bislang nachteilig gesehen. Sie verlängert Ausregelzeiten und verschlechtert die Positioniergenauigkeit. Allerdings wurde die Realisierbarkeit einer schnellen und genauen Positionierung eines gliedelastichen Roboterarms anhand von <a href="https://www.youtube.com/watch?v=P4_i_kGt2jA">Ballfang-Experimenten</a> exemplarisch gezeigt <span id='easy-footnote-1-54' class='easy-footnote-margin-adjust'></span><span class='easy-footnote'><a href='https://botzeit.de/2013-08-29-elastische-roboterarmkoerper-fluch-oder-segen-teil-2/#easy-footnote-bottom-1-54' title='Malzahn, Jörn, Anh Son Phung, and Torsten Bertram. &amp;#8222;A Multi-Link-Flexible Robot Arm Catching Thrown Balls.&amp;#8220; 7th German Conference on Robotics; Proceedings of ROBOTIK. VDE, 2012.'><sup>1</sup></a></span>. Darüber hinaus kann die intrinsische Nachgiebigkeit jedoch auch vorteilhaft dazu ausgenutzt werden, die tatsächlich effektive Nachgiebigkeit des gesamten Arms aktiv zu beeinflussen. Wie im <a href="/2013-02-10-elastische-roboterarmkoerper-fluch-oder-segen/">ersten Teil</a> zu diesem Thema bereits dargestellt, setzt dies eine Kompensation der unerwünschten Effekte durch eine geeignete <a href="https://www.youtube.com/watch?v=AJPZjF7HDxY">unterlagerte Regelung</a> voraus. Dabei wurde die Wahrscheinlichkeit, auch zerbrechliche Objekte im Falle einer unvorhergesehenen Kollision zu beschädigen, deutlich gemindert.</p>


<p><iframe title="Oscillation Damping, Collision Detection and Reaction for a Multi-Elastic-Link Robot Arm" width="640" height="360" src="https://www.youtube.com/embed/kJPuenyxeps?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>
<p>Das obenstehende Video geht einen Schritt weiter. Beabsichtigte oder auch unbeabsichtigte Kontakte werden explizit auf Basis eines Modells der gedämpften Armdynamik detektiert und ermöglichen eine entsprechende Reaktion. Das Video stellt das gliedelastische Experimentalsystem TUDOR vor und zeigt insgesamt sieben Experimente zur Schwingungsdämpfung, zur Detektion genau wiederholbarer stumpfer wie auch scharfer Einschläge auf Luftballons sowie zerbrechlicher Christbaumkugeln, weniger exakt wiederholbarer Einschläge auf einen menschlichen Arm und schließlich zur physischen Interaktion mit dem Roboter.</p>
<p>Die Paare von Dehnungs-Messstreifen, die in der Nähe der Gelenke auf jedem nachgiebigen Arm appliziert sind, fungieren als lastseitige Drehmomentsensoren. Unter der Voraussetzung einer hinreichenden Schwingungsdämpfung kann die verbliebene Dynamik des Arms in Analogie zu konventionellen starren Roboterarmen modelliert werden. Diese Vorgehensweise ermöglicht die unmittelbare Anwendung von Verfahren zur Kollisionsdetektion und -reaktion, wie sie <a href="https://www.youtube.com/watch?v=kLt4h_BXvSc">zuvor</a> bei gelenkelastischen sowie starren Roboterarmen vorgestellt worden sind <span id='easy-footnote-2-54' class='easy-footnote-margin-adjust'></span><span class='easy-footnote'><a href='https://botzeit.de/2013-08-29-elastische-roboterarmkoerper-fluch-oder-segen-teil-2/#easy-footnote-bottom-2-54' title='De Luca, Alessandro, et al. &amp;#8222;Collision detection and safe reaction with the DLR-III lightweight manipulator arm.&amp;#8220; IEEE/RSJ International Conference on Intelligent Robots and Systems. IEEE, 2006.'><sup>2</sup></a></span> .</p>
<p>Die dargestellen Ergebnisse verdeutlichen, dass die strukturelle Elastizität in Roboter-Armkörpern nicht zwingend als nachteilig gesehen werden muss. Vielmehr können sich mit Hilfe entsprechender Regelungsansätze aus der Ausnutzung dieser Eigenschaften neue Möglichkeiten ergeben.</p><p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-08-29-elastische-roboterarmkoerper-fluch-oder-segen-teil-2/">Elastische Roboterarmkörper: Fluch oder Segen? (Teil 2)</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>

]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/2013-08-29-elastische-roboterarmkoerper-fluch-oder-segen-teil-2/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Mensch und Roboter Hand in Hand</title>
		<link>https://botzeit.de/2013-08-06-mensch-und-roboter-hand-in-hand/</link>
					<comments>https://botzeit.de/2013-08-06-mensch-und-roboter-hand-in-hand/#respond</comments>
		
		<dc:creator><![CDATA[Arne]]></dc:creator>
		<pubDate>Tue, 06 Aug 2013 15:06:07 +0000</pubDate>
				<category><![CDATA[Artikel]]></category>
		<category><![CDATA[CoR-Lab]]></category>
		<category><![CDATA[Industrieroboter]]></category>
		<category><![CDATA[bielefeld]]></category>
		<category><![CDATA[coworker]]></category>
		<category><![CDATA[dritte hand]]></category>
		<category><![CDATA[flexirob]]></category>
		<category><![CDATA[harting]]></category>
		<category><![CDATA[helfende hand]]></category>
		<category><![CDATA[human robot interaktion]]></category>
		<category><![CDATA[interaktion]]></category>
		<category><![CDATA[kuka lbr lwr]]></category>
		<category><![CDATA[spiel]]></category>
		<category><![CDATA[studie]]></category>
		<guid isPermaLink="false"></guid>

					<description><![CDATA[<p>Wer hat sich nicht schon einmal einen Roboter gewünscht, der im Haus­halt hilft? Der zum Beispiel schon einmal den Kuchen­teig anrührt, knetet und ausrollt, während man selbst die Glasur vorbereitet, bzw. einem das lästige Gemüse­schnib­beln beim Kochen abnimmt. Oder einen kleinen Roboter­assisten­ten, der einem bei heimischen Bastel­arbei­ten die richtigen Werk­zeuge anreicht, wie man es aus [&#8230;]</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-08-06-mensch-und-roboter-hand-in-hand/">Mensch und Roboter Hand in Hand</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Wer hat sich nicht schon einmal einen Roboter gewünscht, der im Haus­halt hilft? Der zum Beispiel schon einmal den Kuchen­teig anrührt, knetet und ausrollt, während man selbst die Glasur vorbereitet, bzw. einem das lästige Gemüse­schnib­beln beim Kochen abnimmt. Oder einen kleinen Roboter­assisten­ten, der einem bei heimischen Bastel­arbei­ten die richtigen Werk­zeuge anreicht, wie man es aus OP-Sälen in Kranken­häusern kennt: <em>„Roboter, Schrauben­zieher!“</em> – <em>„Schraubenzieher, und weiter?“</em> – <em>„Schraubenzieher, bitte!“</em></p>
<p><figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/flexirob-hand-in-hand.jpg" alt="/images/blog/flexirob-hand-in-hand.jpg" width="640"><figcaption class="wp-caption-text">Die Vision: Roboter und Mensch arbeiten zusammen [johanneswienke.de]</figcaption></figure></p>
<p>Zumindest in Industrie­szenarien ist das keine allzu weit entfernte Zukunfts­vision mehr. Flexibel anpassbare Roboter, die autonom oder Hand in Hand mit dem Menschen in einer Werkstatt oder Produktions­strasse arbeiten und diesen bei Fertigungs­auf­gaben unterstützen, sind schon seit geraumer Zeit ein strate­gisches Anliegen europäischer Wissenschaftler und der Robotik­industrie. So führt bereits die im Jahr 2009 ausgerufene europäische <a href="http://www.robotics-platform.eu/cms/upload/SRA/2010-06_SRA_A3_low.pdf">Strategic Research Agenda</a><target ids="strategic-research-agenda" names="strategic\ research\ agenda" refuri="http://www.robotics-platform.eu/cms/upload/SRA/2010-06_SRA_A3_low.pdf"></target> diese beiden Szenarien, den „Robotic Worker“ und den „Robotic Co-Worker“, als Kern­an­wen­dungs­sze­na­rien zukünf­tiger Industrie­robotik mit auf. Dabei geht es nicht um Groß­serien-Voll­auto­matisie­rung wie man sie z. B. aus der Auto­mobil­industrie kennt, in der Roboter an Roboter aufgereiht in Käfigen und – aus Sicher­heits­gründen – abge­schot­tet vom Menschen monatelang exakt die gleiche Aufgabe ausführen:</p>
<p><figure style="width: 640px" class="wp-caption aligncenter"><iframe title="Car Factory - Kia Sportage factory production line" width="640" height="360" src="https://www.youtube.com/embed/sjAZGUcjrP8?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe><figcaption class="wp-caption-text">Vollautmatisierte Montage von Automobilen bei KIA</figcaption></figure></p>
<p>Es geht vielmehr um die Unter­stützung von Mitarbei­tern in kleinen und mittel­stän­dischen Unter­nehmen, deren Auftrags­lage sich relativ schnell ändern kann. Denkbar ist die Fertigung von Proto­typen, von denen häufig nur geringe, einstel­lige Stück­zahlen gefertigt werden. In diesem Kontext sind zur Zeit Hand­arbeits­plätze immer noch die Regel, d. h. Fachkräfte montieren und bearbeiten Bauteile bzw. bestücken und entladen Maschinen manuell. Häufig sind diese Arbeiten verbunden mit anstren­gender körper­licher Arbeit.</p>
<p>Eine Voll­automatisie­rung im klas­si­schen Sinne, also mit Robotern, die genau auf diesen einen Zweck ausgelegt sind und in aller Regel <em>nicht</em> oder nur sehr aufwendig an neue Fer­ti­gungs­auf­ga­ben angepasst werden können, macht hier allein schon aus ökonomischen Gründen keinen Sinn. Der durch die Einsparung einer Fachkraft gewonnene finan­zielle Vorteil wird sofort wieder zu­nichte gemacht durch den not­wen­digen, häufigen und kosten­inten­siven Einsatz von Experten, die den Roboter bei jeder Änderung im Pro­duk­tions­ablauf wieder an seine neue Aufgabe anpassen und um­program­mieren müssen. Zusätzlich sind viele Teil­aufgaben in solchen Fertigungs­prozessen sehr komplex und wenn überhaupt nur mit enorm hohem technischen Aufwand automatisch zu bewerk­stel­ligen, wie z. B. der berühmte <a href="https://de.wikipedia.org/wiki/Griff_in_die_Kiste">Griff in die Kiste</a><target ids="griff-in-die-kiste" names="griff\ in\ die\ kiste" refuri="https://de.wikipedia.org/wiki/Griff_in_die_Kiste"></target>.</p>
<p>Die Idee ist vielmehr, den Menschen zu unterstützen, indem man ihm diejenigen Arbeiten überlässt, die er z. B. auf Grund besserer visueller Wahrnehmung und guten Finger­fertig­keiten kompetenter und schneller durchführen kann als jede Maschine, ihn aber durch den Roboter­assisten­ten von körperlich belas­ten­den Arbeiten zu befreien … der Roboter als dritte Hand. Damit jedoch beide, Roboter und Mensch, an einem Arbeits­platz gemeinsam sinnvoll zusam­men­arbeiten können, sind einige Heraus­forderun­gen zu bewältigen. Ein bisschen <em>Buzzword-Bingo</em>:</p>
<p><bullet_list bullet="*"> 	<list_item>
</list_item></bullet_list></p>
<p><strong>Flexibilität</strong>: Um sich den ständig wechselnden Aufgaben anpassen zu können und in beliebigen (engen, eingeschränkten) Arbeits­räumen mit dem Menschen zusammen zu arbeiten, ist im Vergleich zu her­kömmlichen Industrie­robotern zusätzliche Flexi­bi­li­tät nötig. Diese erhält man z. B. durch zusätzliche Bewegungs­achsen: übliche Industrie­roboter verfügen über bis zu sechs Achsen, ab sieben Achsen erhält man durch Redundanz zusätzliche Flexi­bi­lität.</p>
<list_item><strong>Interaktion</strong>: Um teures und zeit­auf­wen­diges Um­program­mieren der Roboter durch Experten zu umgehen, muss der Mit­arbeiter vor Ort in der Lage sein, durch einfache, direkte Interaktion den Roboter an seine neuen Aufgaben und Arbeits­bedin­gun­gen anzupassen und ihn den eigenen Bedürf­nissen entsprechend zu <em>programmieren</em>.</p>
</list_item> 	<list_item><strong>Sicherheit</strong>: Die direkte physische Ko­operation zwischen Mensch und Maschine erfordert andere Sicher­heits­mecha­nis­men als Zäune und strikte Arbeits­raum­tren­nung, um die Sicherheit für den Menschen dennoch zu gewähr­leisten.</p>
</list_item>
<p>Technisch gesehen scheinen obige Herausforderungen so gut wie gelöst. Der vom <a href="http://www.dlr.de/rm/desktopdefault.aspx/tabid-8017/">Deutschen Luft- und Raumfahrtszentrum</a><target ids="deutschen-luft-und-raumfahrtszentrum" names="deutschen\ luft-\ und\ raumfahrtszentrum" refuri="http://www.dlr.de/rm/desktopdefault.aspx/tabid-8017/"></target> und <a href="http://www.kuka-robotics.com/germany/de/">KUKA</a><target ids="kuka" names="kuka" refuri="http://www.kuka-robotics.com/germany/de/"></target> gemeinsam entwickelten Leicht­bau­roboter IV (LBR IV), dessen serien­reifer Nachfolger KUKA LBR <em>iiwa</em> auf der diesjährigen <em>Hannover Messe</em> erstmals vorgestellt wurde, ist ein Beispiel. Das geringe Gewicht, Kraft­sensoren zur Kollisions­erkennung und eine sehr schnelle Regelung sind gute Voraus­setzun­gen für eine sichere Interaktion mit dem Menschen. Außerdem ist der LBR mit seinen sieben Bewegungs­achsen redundant, bietet also genügend Flexi­bi­li­tät, um um Hinder­nisse herum­zu­greifen oder Aufgaben auf mehr als nur eine Art zu erledigen.</p>
<p>Dass trotzdem nun nicht jeder sofort einem solchen Roboter Aufgaben bei­bringen kann, sieht man im folgenden Video, welches im Verlaufe einer umfang­reichen Feld­studie <span id='easy-footnote-1-56' class='easy-footnote-margin-adjust'></span><span class='easy-footnote'><a href='https://botzeit.de/2013-08-06-mensch-und-roboter-hand-in-hand/#easy-footnote-bottom-1-56' title='Wrede, S., Emmerich, C., Grünberg, R., Nordmann, A., Swadzba A., Steil, J.J.: &lt;a href=&quot;http://pub.uni-bielefeld.de/publication/2604310&quot;&gt;A User Study on Kinesthetic Teaching of Redundant Robots in Task and Configuration Space&lt;/a&gt;&lt;target ids=&quot;a-user-study-on-kinesthetic-teaching-of-redundant-robots-in-task-and-configuration-space&quot; names=&quot;a\ user\ study\ on\ kinesthetic\ teaching\ of\ redundant\ robots\ in\ task\ and\ configuration\ space&quot; refuri=&quot;http://pub.uni-bielefeld.de/publication/2604310&quot;&gt;&lt;/target&gt;, Journal of Human-Robot Interaction (Special Issue: HRI System Studies), 2013'><sup>1</sup></a></span> mit Mit­arbei­tern der Firma <a href="http://www.harting.de">Harting</a><target ids="harting" names="harting" refuri="http://www.harting.de"></target> entstand:</p>
<p><figure style="width: 640px" class="wp-caption aligncenter"><iframe title="Kinesthetic teaching of a redundant robot is difficult" width="640" height="360" src="https://www.youtube.com/embed/tRTfSWBbE1Q?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe><figcaption class="wp-caption-text">Auch moderne Roboter sind nicht leicht zu bedienen.</figcaption></figure></p>
<p>Die Aufgabe für die Probanden bestand im Prinzip aus einer Art Heißer-Draht-Spiel:<br />
Der vorn am Roboter montierte Greifer sollte möglichst genau an dem Styropor-Parcours entlang geführt werden, während­dessen natürlich jede Kollision sowohl vorne am Greifer als auch am Rest des Roboter­körpers mit den Umgebungs­objekten vermieden werden sollte. Der Hintergrund: Genau durch diese Art des Führens (englisch: <em>Kinesthetic Teaching</em>) können dem Roboter Aufgaben beigebracht werden. Die in der Inter­aktion ent­stan­denen Bewe­gun­gen werden auf­gezeich­net und können auf Befehl schneller, langsamer oder leicht verändert wieder abgespielt werden. Der Fachbegriff hierfür lautet <em>Teach-In</em> und bezeichnet das aktuell übliche Verfahren, um Roboter „anzulernen“.</p>
<p>Wie man in dem Video sieht, geht das zum Teil gehörig schief! Die Versuchs­personen scheinen (trotz einer vorherigen Eingewöhungs­phase mit dem Roboter) überfordert von der Aufgabe, dem LBR den Parcours kollisions­frei bei­zu­bringen. Das liegt nicht an der Komplexität der Aufgabe: Eine einfache vorgegebene drei­dimensionale Bewegung wie die des Parcours aus der Studie nachzufahren, ist für uns Menschen typischer­weise zu bewältigen und wie wir später sehen werden auch in Verbindung mit einem Roboter leicht möglich. Der Grund ist die durch jahrelange Ingenieurs­kunst geschaffene, komplizierte Technik des LBR, die technische Vorteile, aber auch erhöhte Komplexität mit sich bringt. Denn hinter dem einen „I“ des Wortes „Interaktion“ verstecken sich noch zwei weitere: <em>intuitiv</em> und <em>intelligent</em>. Einem Roboterarm mit sieben Gelenken eine bestimmte drei­dimensio­nale Bewegung beizubringen und dabei gleichzeitig darauf achten zu müssen, dass er mit seinen sieben Achsen nicht mit Hinder­nissen im Arbeits­raum kollidiert, ist <em>nicht</em> intuitiv. Und eine vorgemachte Bewegung abspeichern und wieder abspielen zu können, ist <em>nicht</em> sonderlich intelligent.</p>
<p>Dieses Beispiel zeigt, dass in der Praxis mehr notwendig ist als nur die tech­nischen Möglichkeiten zu schaffen. Der Schlüssel, davon sind wir überzeugt, liegt in einer syste­ma­tischen Inte­gration von Hoch­techno­logie, maschi­nel­lem Lernen und einfacher Inter­aktion. Um ein solches Robotik­system für den Arbeiter vor Ort bedienbar zu machen, muss die eigent­liche techno­lo­gische Komplexi­tät im besten Fall hinter intuitiven Benutzer­schnitt­stellen und schritt­weiser Inter­aktion versteckt werden. Am <a href="http://www.cor-lab.de">Forschungsinstitut für Kognition und Robotik (CoR-Lab)</a><target ids="forschungsinstitut-fur-kognition-und-robotik-cor-lab" names="forschungsinstitut\ für\ kognition\ und\ robotik\ (cor-lab)" refuri="http://www.cor-lab.de"></target> der Univer­sität Biele­feld beschäftigen wir uns seit Jahren genau damit. Das Roboter­system, das oben im Video zu sehen war und auf einem KUKA LBR IV aufbaut, ist unsere Forschungs­plattform <a href="http://www.cor-lab.de/flexirob">FlexIRob</a><target ids="flexirob" names="flexirob" refuri="http://www.cor-lab.de/flexirob"></target>: ein Beispiel­szenario, bei dem wir diese Art von Integration untersuchen. Um die obige Aufgabe zu erleichtern, haben wir einen Ansatz entwickelt, mit dem jeder einen solchen Roboter an neue Umgebungen und Aufgaben anpassen kann. Die Idee ist im Prinzip einfach und beruht darauf, die komplexe Aufgabe in zwei Teil­schritte zu unter­teilen. Dass das funktioniert, ist im folgenden Video zu sehen:</p>
<p><figure style="width: 640px" class="wp-caption aligncenter"><iframe title="MoFTaG Multimedia Report" width="640" height="360" src="https://www.youtube.com/embed/umoP9NZELc4?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe><figcaption class="wp-caption-text">Erleichterung der Interaktion durch Aufteilung in explizite Konfigurations- und assistierte Programmierphase (ab ca 1:15)</figcaption></figure></p>
<p>Der erste Teil­schritt der Aufgabe heißt <em>Konfigurations­phase</em> und ist unabhängig von der Aufgabe, die der Roboter­arm später ausführen soll. In dieser Phase bringt der Nutzer bzw. der Mit­arbeiter dem Roboter seine neue Umgebung bei, d. h. eventuelle dauerhafte Hindernisse, welche in seinem Arbeits­bereich platziert sind, wie z. B. herum­liegende Objekte, Säulen oder Regale. Als Mensch hat er dabei ein intuitives Verständnis der Szenerie: Er sieht die Hinder­nisse, er weiß, dass und wie man um sie herumgreifen muss und ist deswegen instinktiv in der Lage, den LBR dabei in aus­gesuchte Regionen zu führen und dort mit ihm zusammen einige Beispiel­bewegungen durch­zu­führen, ohne mit den Hinder­nissen zu kollidieren. Von diesen Beispiel­bewegungen kann nun der Roboterarm lernen, wie er sich in seinem Arbeits­bereich zu bewegen und wie er die Hinder­nisse im Zweifel zu umgreifen hat. Die Methoden zum Lernen, die dabei verwendet werden, gehen über simples Aufnehmen und Re­pro­du­zieren hinaus. Mit Hilfe von künst­lichen neuro­nalen Netzen ist das System nämlich nicht nur in der Lage sich innerhalb der trainier­ten Bereiche zu bewegen, sondern auch zwischen diesen hin- und her zu manö­vrieren und kollisions­freie Bewegungen für den Arm zu wählen. Diese Eigenschaft von Lern­verfahren nennt man <em>Genera­lisierungs­fähigkeit</em> und beschreibt die Fähigkeit, von wenigen Beispiel­daten ein generel­les Verhalten zu erlernen und dieses auf unbekannte Daten zu übertragen. In unserem Fall sind die Beispiel­daten die Trainings­daten, welche vom Nutzer zur Verfügung gestellt werden und im Video als grüne Punkte dargestell sind. Von diesen lernt der Roboter innerhalb weniger Minuten, beliebige Ziel­positionen anzufahren, ohne dabei mit den Hinder­nissen zu kollidieren. Und das nicht nur in den Trainings­berei­chen, sondern auch darüber hinaus <span id='easy-footnote-2-56' class='easy-footnote-margin-adjust'></span><span class='easy-footnote'><a href='https://botzeit.de/2013-08-06-mensch-und-roboter-hand-in-hand/#easy-footnote-bottom-2-56' title='Näheres zu den verwendeten Lernverfahren hier: Nordmann A., Emmerich C., Rüther S., Lemme A., Wrede S., Steil J.J.: &lt;a href=&quot;http://pub.uni-bielefeld.de/publication/2465826&quot;&gt;Teaching Nullspace Constraints in Physical Human-Robot Interaction using Reservoir Computing&lt;/a&gt;&lt;target ids=&quot;teaching-nullspace-constraints-in-physical-human-robot-interaction-using-reservoir-computing&quot; names=&quot;teaching\ nullspace\ constraints\ in\ physical\ human-robot\ interaction\ using\ reservoir\ computing&quot; refuri=&quot;http://pub.uni-bielefeld.de/publication/2465826&quot;&gt;&lt;/target&gt;, International Conference on Robotics and Automation, 2012'><sup>2</sup></a></span>.</p>
<p>Im nächsten Schritt, geht es nun darum, ihm die eigentliche Aufgabe beizubringen. Das kann z. B. eine Schweiß- oder Klebenaht sein und auf verschie­denen Wegen passieren, z. B. erneut mit Hilfe von <em>Kinesthetic Teaching</em>, also dem direkten Führen des Roboters. Da dieser sich aber in seiner Umgebung nun schon zu bewegen weiß, braucht der Nutzer nicht mehr alle Gelenke gleichzeitig zu kontrollieren. Es reicht, dass er ihn vorn am Greifer entlang der spezifischen Aufgabe führt und der Roboter assistiert ihm dabei sozusagen bei der Hindernis­vermei­dung, wie in dem Video ab Minute 2:10 zu sehen ist. Diese Phase nennen wir deshalb <em>Assisted Program­ming</em>.</p>
<p>Der Knackpunkt zur Verein­fachung dieser Inter­aktion liegt also in der Auf­teilung der Gesamt­aufgabe in zwei oder mehr aufeinander aufbauende Teil­schritte, um den Nutzer bzw. Mitarbeiter des Roboters nicht zu überfordern. Im letzten Jahr haben wir mit Unter­stützung der Firma Harting oben genannte Pilot­studie zum Thema <em>Kinesthetic Teaching</em> durchgeführt und die beschriebene Idee evaluiert. Dabei haben 48 Mitarbeiter, unterteilt in zwei Versuchs­grup­pen, mit dem System inter­agiert und versucht, dem Roboter obigen Parcours beizubringen. Die Ergeb­nisse der einen Gruppe waren bereits im ersten Video zu sehen. Von 24 Versuchs­teil­nehmern, haben es gerade einmal zwei Probanden geschafft, den Parcours kollisions­frei abzufahren; eine Probandin brach ihren Versuch nach einiger Zeit frustriert ab. Die zweite Versuchs­gruppe hingegen benutzte den assistier­ten Modus und zeigte signi­fi­kant bessere Ergebnisse. Diese Teilnehmer benötigten im Schnitt weniger als die Hälfte der Zeit, um den Roboter anzulernen, die bei­gebrach­ten Bewegungen waren signifikant näher an der Vorgabe und wesent­lich ruckel­freier.</p>
<p>Unsere Experimente und Studien legen nahe, dass moderne Robotik­systeme durchaus über die Flexi­bi­li­tät verfügen, regelmäßig und vor Ort an wechselnde Aufgaben angepasst zu werden, wie es zum Beispiel für Klein­serien­ferti­gung oder Pro­to­typen­bau notwendig ist. Dazu reicht die rein technische Flexi­bi­li­tät allerdings nicht aus, denn sie erfordert immer noch lange Einarbei­tung und Robotik­exper­ten. Erst in der Kombi­nation mit lernenden Systemen und einfachen Inter­aktions­schnitt­stel­len spielen solche Systeme ihr volles Potential aus.</p>
<transition></transition><a href="http://www.cor-lab.de/users/cemmeric">Christian Emmerich</a><target ids="christian-emmerich" names="christian\ emmerich" refuri="http://www.cor-lab.de/users/cemmeric"></target> und <a href="http://www.cor-lab.de/users/anordman">Arne Nordmann</a><target ids="arne-nordmann" names="arne\ nordmann" refuri="http://www.cor-lab.de/users/anordman"></target> <em>sind Doktoranden am Forschungs­institut für Kognition und Robotik der Universität Bielefeld und beschäftigen sich mit lernenden, interaktiven Robotik­systemen.</em></p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-08-06-mensch-und-roboter-hand-in-hand/">Mensch und Roboter Hand in Hand</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
<img src="https://vg08.met.vgwort.de/na/fa2a478b0ba64838a97bfd66077fa8f4" width="1" height="1" alt="" class="wpvgw-marker-image" loading="eager" data-no-lazy="1" referrerpolicy="no-referrer-when-downgrade" style="display:none;" />
]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/2013-08-06-mensch-und-roboter-hand-in-hand/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Ein Roboter-Rüssel lernt wie ein Baby</title>
		<link>https://botzeit.de/2013-05-26-ein-roboter-ruessel-lernt-wie-ein-baby/</link>
					<comments>https://botzeit.de/2013-05-26-ein-roboter-ruessel-lernt-wie-ein-baby/#respond</comments>
		
		<dc:creator><![CDATA[Arne]]></dc:creator>
		<pubDate>Sun, 26 May 2013 20:41:47 +0000</pubDate>
				<category><![CDATA[Artikel]]></category>
		<category><![CDATA[CoR-Lab]]></category>
		<category><![CDATA[Industrieroboter]]></category>
		<category><![CDATA[bewegungslernen]]></category>
		<category><![CDATA[bha]]></category>
		<category><![CDATA[bioligisch inspiriert]]></category>
		<category><![CDATA[bionic handling assistent]]></category>
		<category><![CDATA[explorieren]]></category>
		<category><![CDATA[festo]]></category>
		<category><![CDATA[goal babbling]]></category>
		<category><![CDATA[rüssel]]></category>
		<category><![CDATA[spiel]]></category>
		<guid isPermaLink="false"></guid>

					<description><![CDATA[<p>(this article is also available in English) Schon vor gut einem Jahr habe ich über Festos Bionic Handling Assistent (BHA) geschrieben, der damals frisch mit dem Deutschen Zukunftspreis gekrönt war. Wir haben einen von diesen Robotern bekommen und im April letzten Jahres haben wir bereits hier über unsere ersten Gehversuche und die Simulation des Roboters [&#8230;]</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-05-26-ein-roboter-ruessel-lernt-wie-ein-baby/">Ein Roboter-Rüssel lernt wie ein Baby</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p><em>(this article is also available <a href="https://planet-robotics.net/articles/how-infants-tell-us-how-to-control-the-bionic-handling-assistant/">in English</a>)</em></p>


<figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/bha.jpg" alt="/images/blog/bha.jpg" width="640" /><figcaption class="wp-caption-text">Festos Bionic Handling Assistent (BHA), inspiriert von einem Elefantenrüssel</figcaption></figure>
<p>Schon vor gut einem Jahr habe ich über Festos <a href="/2010_12_02-festo-bionic-arm/">Bionic Handling Assistent</a> (BHA) geschrieben, der damals frisch mit dem Deutschen Zukunftspreis gekrönt war. Wir haben einen von diesen Robotern bekommen und im April letzten Jahres haben wir bereits hier über <a href="/2012-04-17-simulation-des-festo-bionic-handling-assistant/">unsere ersten Gehversuche und die Simulation des Roboters</a> geschrieben. In diesem Artikel wird es nun darum gehen, wie wir von Babys gelernt haben, den Roboter zu kontrollieren.</p>
<p>Vor einigen Wochen wurde der BHA in der Sendung mit der Maus gezeigt. Wer das Video bis zu Minute 5:00 verfolgt, bekommt jedoch den Haken mit: so faszinierend der Roboter, insbesondere der BHA, auch ist … es ist ebenso kompliziert, ihn zu bewegen.</p>


<p><iframe title="Sendung mit der Maus - Festos BHA und Robotino" width="640" height="360" src="https://www.youtube.com/embed/06gl7jxRe_g?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>

Die Sendung mit der Maus &#8211; Festos BHA und Robotino

<p>In der Sendung und bei den meisten Vorführungen des Roboters steht daher jemand an einer Fernbedienung, oder öffnet und schließt händisch die Ventile, wie zu Beginn des Videos zu sehen. Von einem praktischen Einsatz, bei dem der Roboter eigenständig Aufgaben erledigt, ist das noch meilenweit entfernt.</p>
<p>Das liegt unter anderem daran, dass der Rüssel anders ist, als andere Roboter. Seine elastischen Bewegungen sind sehr schwierig und nur annähernd in mathematische Gleichungen zu fassen. Genau diese Bewegungsgleichungen benötigen aber die klassische Verfahren zur Robotersteuerung. Selbst <a href="/2012-04-17-simulation-des-festo-bionic-handling-assistant/">unser Modell</a> reicht dazu kaum aus, denn es kann keine Auskunft über die Reichweite der vielen Aktuatoren liefern. Diese müsste man sehr genau kennen um den Roboter (klassisch) ansteuern zu können: es ergeben sich schnell sehr große Fehler, wenn der Regler einem Aktuator einen Befehl gibt, der außerhalb seiner Reichweite liegt.</p>
<p>Was das Ganze noch schwieriger macht sind die Verzögerungen im Bewegungsverhalten: der Roboter bewegt sich mittels Luftkammern, die mit Druckluft aufgeblasen werden, die aber erst mit Verzögerung in den Kammern ankommt. Danach dauert es einige Zeit, mitunter bis zu 20 Sekunden, bis der Roboter seine neue Postur erreicht und sich stabilisiert hat. Diese Verzögerungen machen viele der sonst auf Robotern verwendeten Regler praktisch nutzlos, da sie schnelles und exaktes Roboterverhalten benötigen.</p>
<p>Schwierig … aber dafür gibt es maschinelle Lernverfahren, von denen es unzählige Methoden gibt, um Roboter Bewegungen lernen zu lassen. Zunächst muss man den Roboter seinen Bewegungsraum explorieren lassen, also ausprobieren welche resultierenden Bewegungen durch verschiedene Motorkommandos hervorgerufen werden. Da liegt allerdings schon die nächste Krux mit dem BHA, denn: es gibt sehr, sehr viele verschiedene Motorkommandos. Die Standard-Ansätze zum Lernen erfordern, sie alle auszuprobieren. Auf dem BHA benutzen wir aktuell neun Aktuatoren (die Luftkammern). Möchte man pro Aktuator nur 10 verschiedene Kommandos ausprobieren, ergeben sich bereits eine Milliarde (10^9) Kombinationen. Es würde Jahrzehnte dauern, würde man ernsthaft versuchen die alle auf dem Roboter zu explorieren. In der Praxis würde man daher eher zufällige Kommandos auswählen, und einfach irgendwann aufhören. Natürlich ändert das aber auch nichts daran, dass man eigentlich alle Kommandos ausprobieren müsste, damit das Bewegungslernen funktionieren kann.</p>
<p>Was tun?</p>
<p>Um diesem Problem zu begegnen, haben wir uns Inspiration aus der Biologie geholt. Die Aufgabe, den BHA-Rüssel kontrollieren zu lernen, ist nämlich in vielerlei Hinsicht der Aufgabe von Babys sehr ähnlich, in den ersten Lebensmonaten zu lernen, ihre eigenen Gliedmaßen zielgerichtet zu bewegen. Sie müssen dafür lernen, 600 Muskeln zu koordinieren, und sind dabei unglaublich effizient. Was ist also der Trick, den wir lernen müssen, wenn wir unsere Experimente mit dem BHA ähnlich effizient durchführen wollen?</p>
<p>Einen Hinweis liefert eine wegweisende Studie von Claes von Hosten aus dem Jahr 1982. Diese Studie konnte zeigen, dass selbst Neugeborene sich nicht ‐ wie es zuerst scheint ‐ zufällig bewegen, sondern von Beginn an zielgerichtet in Richtung bewegter Objekte greifen. Das folgende Bild zeigt dies unglaublicherweise bereits bei einem wenige Tage alten Baby:</p>
<figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/ronnqvist-hofsten-1994-infant-reach.jpeg" alt="/images/blog/ronnqvist-hofsten-1994-infant-reach.jpeg" width="640" /><figcaption class="wp-caption-text">Ein wenige Tage altes Neugeborenes zeigt bereits zielgerichtete Bewegung Richtung bewegter Objekte</figcaption></figure>
<p>Diese Erkenntnis wurde lange von der Machine Learning Community ignoriert, und sollte uns den entscheidenden Hinweis geben. Der von Matthias Rolf entwickelte Ansatz <em>Goal Babbling</em>, versucht nicht mehr durch zufällige Bewegungen den Bewegungsraum zu explorieren (Motor Babbling), sondern tut es von Anfang an zielgerichtet [Rolf et al., 2011]. Die Ergebnisse in Simulation waren vielversprechend, und haben gezeigt, dass dieser Ansatz auch mit 50 Freiheitsgraden zurecht kommt und nicht einmal mehr Zeit benötigt als für einen Roboter mit nur zwei Gelenken. Das ist ein entscheidender Vorteil gegenüber dem zufälligen Explorieren des Raumes, dessen Zeit zum Explorieren exponentiell mit der Anzahl der Dimensionen steigt. Mit <em>Goal Babbling</em> erhalten wir erste brauchbare Resultate bereits nach wenigen hundert Bewegungen, was sogar mit der Geschwindigkeit menschlichen Lernens vergleichbar ist [Sailer and Flanagan, 2005]. Wir können also offenbar wirklich mit der biologischen Vorlage das Lernen massiv beschleunigen! Zeit also, das biologisch-inspirierte Lernen auf dem biologisch inspirierten Roboter anzuwenden.</p>
<p>In unseren ersten Experimenten lernte der Roboter lediglich einfache Bewegungen des Greifers nach links und rechts. Nicht besonders nützlich, aber trotzdem beeindruckend als Live-Demonstration, denn der Roboter konnte innerhalb von zwei Minuten eigenständig lernen, seine neun Kammern zu koordinieren und diese Bewegung auszuführen. Schnell zeigte sich außerdem, wie gut das Verfahren mit Hardware-Defekten umgehen konnte, obwohl wir wahrlich nicht vor hatten, das herauszufinden. Eines Tages während der Experimente stellten wir jedoch ein kleines Loch in einer der Luftkammern fest, durch das Luft entwich: die Kammer konnte sich nicht mehr aufblasen. Schlimmer noch: die Kammer bewegte sich passiv wie eine mechanische Feder mit, was die Bewegung des gesamten BHA-Rüssels beeinflusste. Das Lernverfahren scherte das kaum. Es lernte einfach die anderen Aktuatoren entsprechend einzusetzen ‐ zusammen mit der passiven Bewegung des defekten Aktuators. Wohlgemerkt: wir mussten dem Verfahren dafür nicht mitteilen, dass etwas defekt war. So einfach kann es manchmal sein!</p>
<p>Eine ähnlich gute Entdeckung machten wir, als jemand den Roboter hin und her schob, während er grade explorierte und lernte. Durch das <em>Anschubsen</em> des Roboters konnte man ihm tatsächlich <em>unter die Arme greifen</em> und ihm zeigen, wie sinnvolle Bewegungen aussehen. Schiebt man ihn in die Richtung, in die er sich gerade bewegen will (also die <em>richtige</em> Richtung), spürt man bemerkenswerterweise kaum Widerstand vom Regler. Das Lernen geschieht in diesen Momenten so schnell, das der Roboter die Bewegung schon während des Führens in den gelernten Regler einarbeitet. Folglich reicht es aus, ihm die Bewegung ein einziges mal zu zeigen. Das Ganze ist überhaupt nur möglich, weil das ziel-gerichtete Explorieren und sehr schnelles kontinuierliches Lernen des <em>Goal Babblings</em> mit dem leichten, nachgiebigen BHA-Rüssel aufeinander treffen. Preis-gekrönte <span id='easy-footnote-1-64' class='easy-footnote-margin-adjust'></span><span class='easy-footnote'><a href='https://botzeit.de/2013-05-26-ein-roboter-ruessel-lernt-wie-ein-baby/#easy-footnote-bottom-1-64' title='&lt;a href=&quot;/2010_12_02-festo-bionic-arm/&quot;&gt;Zukunftspreis für Festos Bionischen Handling-Assistenten&lt;/a&gt;'><sup>1</sup></a></span>, biologisch inspirierte Hardware und preis-gekröntes <span id='easy-footnote-2-64' class='easy-footnote-margin-adjust'></span><span class='easy-footnote'><a href='https://botzeit.de/2013-05-26-ein-roboter-ruessel-lernt-wie-ein-baby/#easy-footnote-bottom-2-64' title='ICDL 2011 Best Student Paper Award'><sup>2</sup></a></span>, biologisch inspiriertes Lernen.</p>
<p>Bei dem gesamten Vorhaben leistete uns die vorher entwickelte Simulation des Bewegungsverhaltens gute Dienste. Auch wenn das Lernen und Explorieren auf dem echten Roboter stattfand, war die Simulation für allerhand Visualisierungen und zusätzliche Vorhersagen nützlich. So ließ sich nun die Bewegung des Roboters bezüglich selbst-generierter (und ausschließlich virtuell existierender) Ziele während des Lernens darstellen, und das Lernen auf dreidimensionale Ziele (anstatt nur links/rechts) erweitern. Wir konnten nun Einblick in das Lernen nehmen und live während des Lernens vorhersagen, wie gut der gerade lernende Regler verschiedene Positionen im Raum anfahren kann. Wir lernten dadurch, dass sich das Lernen auf dem echten Roboter ganz ähnlich <em>entfaltet</em> wie es unsere ersten Simulations-Experimenten 2010 bis Anfang 2011 (noch komplett ohne den BHA) gezeigt haben.</p>


<p><iframe title="Learning to reach with Festo&#039;s Bionic Handling Assistant" width="640" height="360" src="https://www.youtube.com/embed/aGFiMviI0VY?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>

Biologisch inspiriertes Lernen auf einem biologisch inspirierten Roboter

<p>Auf dem Rüssel liefert <em>Goal Babbling</em> schnell nützliche Ergebnisse. Nach dem Lernen lässt sich der Greifer mit ca. 2 cm Genauigkeit im Raum positionieren. Das ist nicht direkt perfekt, aber reicht in vielen Fällen schon aus, da der flexible <em>Fin-Gripper</em> Gegenstände großräumig mit seinen elastischen Fingern umschließt. Um den Rüssel so schnell und gezielt wie im Video bewegen zu können, darf man nicht auf Feedback (also Bewegungsantworten) vom Roboter warten, da das bei der Pneumatik zu lange dauert. Solch einen Regler, der ohne Feedback auskommt, liefert uns das Lernen. Dadurch <em>weiß</em> der Roboter sofort, wo er hin muss, anstatt sich langsam und Schritt für Schritt ans Ziel heranzutasten. Feedback ist dann lediglich eine zusätzliche Hilfe, die wie in der letzten Sequenz im Video zu sehen, die Genauigkeiten auf 6-8 mm erhöht. In Anbetracht der Tatsache, dass der Rüssel selbst permanent ca. 5 mm hin- und herschwankt, ist das beachtlich.</p>
<p>Erwähnenswert ist außerdem: das Ganze funktioniert nicht nur einmalig und im Video. Wir haben sehr ausgiebige Experimente dazu gemacht, und es funktionierte in jedem Durchgang. Das Lernen von links-/rechts-Bewegungen haben wir regelmäßig in Live-Demos gezeigt, in denen der Roboter binnen 1-3 Minuten seine Bewegungen lernt. Unter Anderem haben wir dies live auf der Automatica 2012 in München gezeigt, auf der das Live-Lernen mit dem Roboter und dem Objekt-Tracking aus dem Video vier Tage lang jeweils acht Stunden lief.</p>
<p>Die gute Nachricht lautet also: es funktioniert! Und es funktioniert <em>robust!</em></p>
<p>Festos Bionic Handling Assistant ist ein großartiger, spannender Roboter. Er ist nicht nur ein Hingucker durch seine Ähnlichkeit mit dem Elefantenrüssel, sondern seine Struktur macht auch den Umgang und die Interaktion mit ihm natürlich und sicher. Um ihn allerdings auf ähnliche Art und Weise kontrollieren zu können, wie wir es mit anderen Robotern tun, mussten wir einige Hürden überwinden: Ausgangspunkt war ein Roboter ganz ohne Modell und nur mit einfacher Druckregelung. Stück für Stück haben wir ein Vorwärtsmodell der Kinematik, Simulation und Längenregelung hinzugefügt. Der entscheidende Punkt war allerdings, maschinelles Lernen, vor Allem das durch Beobachtung von Babys inspirierte <em>Goal Babbling</em> einzusetzen, das erstaunlich schnell lernt, den Roboter zu kontrollieren.</p>
<p>Jetzt, da wir den Rüssel kontrollieren können, um Objekte zu greifen und zu bewegen: Für welche Aufgaben sollten wir ihn jetzt unbedingt einsetzen?</p>
<p><strong>Kontakt:</strong></p>
<p> </p>
<p>Dr.-Ing. Matthias Rolf, CoR-Lab &#8211; Bielefeld University, <a href="&#x6d;a&#x69;&#108;t&#x6f;&#58;&#x6d;&#114;o&#x6c;&#102;&#x40;&#99;o&#x72;&#45;&#x6c;&#x61;b&#x2e;&#117;n&#x69;&#45;&#x62;&#105;e&#x6c;&#101;&#x66;&#101;l&#x64;&#46;&#x64;&#x65;">m&#114;&#111;&#x6c;&#x66;&#x40;c&#111;&#114;&#x2d;&#x6c;&#x61;b&#46;&#117;&#x6e;&#x69;&#x2d;bi&#101;&#108;&#x65;&#x66;&#x65;l&#100;&#46;&#x64;&#x65;</a>, Emergent Robotics Lab, Osaka University</p>
<p>Prof. Jochen Steil, CoR-Lab &#8211; Bielefeld University, <a href="&#109;a&#x69;l&#x74;o&#x3a;&#106;&#x73;&#116;&#x65;&#105;l&#x40;c&#x6f;r&#x2d;&#108;&#x61;&#98;&#x2e;&#117;&#x6e;&#105;-&#x62;i&#x65;l&#x65;&#102;&#x65;&#108;&#x64;&#46;&#x64;&#101;">&#x6a;&#115;t&#x65;&#105;l&#x40;&#99;o&#x72;&#x2d;&#108;&#x61;&#x62;&#46;u&#x6e;&#105;-&#x62;&#105;e&#x6c;&#x65;&#102;&#x65;&#x6c;&#100;&#46;&#x64;&#101;</a></p>
<p> </p><p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-05-26-ein-roboter-ruessel-lernt-wie-ein-baby/">Ein Roboter-Rüssel lernt wie ein Baby</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
<img src="https://vg08.met.vgwort.de/na/23e4ada0d6794094b0f3e00a0cc09817" width="1" height="1" alt="" class="wpvgw-marker-image" loading="eager" data-no-lazy="1" referrerpolicy="no-referrer-when-downgrade" style="display:none;" />
]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/2013-05-26-ein-roboter-ruessel-lernt-wie-ein-baby/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Elastische Roboterarmkörper – Fluch oder Segen?</title>
		<link>https://botzeit.de/2013-02-10-elastische-roboterarmkoerper-fluch-oder-segen/</link>
					<comments>https://botzeit.de/2013-02-10-elastische-roboterarmkoerper-fluch-oder-segen/#respond</comments>
		
		<dc:creator><![CDATA[Jörn]]></dc:creator>
		<pubDate>Sun, 10 Feb 2013 16:57:28 +0000</pubDate>
				<category><![CDATA[Artikel]]></category>
		<category><![CDATA[Autonome Roboter]]></category>
		<category><![CDATA[Industrieroboter]]></category>
		<category><![CDATA[dämpfen]]></category>
		<category><![CDATA[elastisch]]></category>
		<category><![CDATA[nachgiebigkeit]]></category>
		<category><![CDATA[physische interaktion]]></category>
		<category><![CDATA[schwingung]]></category>
		<guid isPermaLink="false"></guid>

					<description><![CDATA[<p>(this article is also available in English) Die Vermeidung unerwünschter elastischer Effekte stellt eine große Herausforderung bei der Konstruktion von Robotern dar. Sie erschweren die präzise Positionierung des Roboterarms aufgrund statischer lastabhängiger Verbiegungen und schwingen nach jeder Bewegung nach. Vergleichbare Beispiele, bei denen Elastizitäten meist unerwünscht sind, finden wir fernab der Robotik bei Baumaschinen, wie [&#8230;]</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-02-10-elastische-roboterarmkoerper-fluch-oder-segen/">Elastische Roboterarmkörper – Fluch oder Segen?</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p><em>(this article is also available <a href="https://planet-robotics.net/articles/elastic-robot-links-curse-or-blessing/">in English</a>)</em></p>


<p>Die Vermeidung unerwünschter elastischer Effekte stellt eine große Herausforderung bei der Konstruktion von Robotern dar. Sie erschweren die präzise Positionierung des Roboterarms aufgrund statischer lastabhängiger Verbiegungen und schwingen nach jeder Bewegung nach. Vergleichbare Beispiele, bei denen Elastizitäten meist unerwünscht sind, finden wir fernab der Robotik bei Baumaschinen, wie Auto-Betonpumpen, Hubwagen aber auch Feuerwehrdrehleitern.</p>
<p>Wie wäre es, wenn auf die Steifigkeit bei der Auslegung einer Maschine weniger Wert gelegt werden müsste, da den damit einhergehenden unerwünschten Effekten mit regelungstechnischem Mitteln begegnet werden kann? Mechanische Strukturen könnten mit schlicht weniger Material leichter gebaut werden. Infolge dessen ließen sich Antriebe kleiner dimensionieren und hätten einen geringeren Energiebedarf.</p>
<p>Dieser Gedanke ist genau die Idee hinter dem <a href="http://www.rst.e-technik.tu-dortmund.de/cms/de/Forschung/Schwerpunkte/Robotik/TUDOR_neu/index.html">Forschungsthema</a>, dass ich bearbeite. Im Rahmen des Forschungsthemas haben wir den nachfolgend dargestellten gliedelastischen Roboterarm TUDOR als Experimentalsystem entwickelt.</p>
<figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/TUDORBild.png" alt="/images/blog/TUDORBild.png" width="640" /><figcaption class="wp-caption-text">Das gliedelastische Experimentalsystem TUDOR</figcaption></figure>
<p>Er wird von drei bürstenlosen Gleichstrommotoren angetrieben und besitzt zwei Federstahlbalken als elastische Armkörper. Bei einer typischen Punkt-zu-Punkt-Bewegung der Antriebe treten Schwingungsamplituden von bis zu 10 cm auf.</p>
<p>Auf den Roboter-Konferenzen dieser Welt werden aktuell viele Beiträge zu Robotern mit elastischen Komponenten vorgestellt. Die elastischen Komponenten werden meist in die Robotergelenke integriert. Ein sehr heißes Thema sind vor allem Gelenke, bei denen sich die elastischen Eigenschaften der Komponenten aktiv variieren lassen. Die Elastizitäten bewirken, dass die aufgrund der hohen Getriebeübersetzung üblicher Roboterarme sehr großen Trägheitsmomente der Antriebe von den Trägheitsmomenten des übrigen Arms entkoppelt werden. Das bedeutet, dass im Falle eines physischen Kontakts mit dem Roboter der Interaktionspartner eine geringere Trägheit des Armes &#8222;sieht&#8220;. Damit kann beispielsweise eine Verringerung des Gefährdungspotenzials des Roboters erzielt werden. Auf der anderen Seite speichern die Elastizitäten zusätzliche Energie, die im Falle eine Kollision freigesetzt und wiederum ein erhöhtes Gefahrenpotential (Peitscheneffekt) zur Folge haben kann. Häufig werden Elastizitäten eingesetzt, um dem Roboter zu natürlicheren und auch dynamischen Bewegungen zu verhelfen. Es ist festzuhalten, dass durch eine geeignete Regelung gezielt eingesetzte elastische Komponenten zahlreiche Möglichkeiten eröffnen.</p>
<p>Aus regelungstechnischer Sicht sind die elastischen Eigenschaften in den Robotergelenken am einfachsten zu beherrschen. Hier ist die Elastizität entlang der Wirkachse der Antriebe konzentriert. Überwiegt die Elastizität in den Roboter Armkörpern, so sind die elastischen Eigenschaften entlang der Armkörper und senkrecht zur Wirkachse der Antriebe verteilt. Die dadurch entstehenden Laufzeiteffekte erschweren eine Regelung des Roboterarms. Dies mag der Grund sein, aus dem derzeit vorwiegend Arbeiten zu gelenkelastischen Roboterarmen publiziert werden.</p>
<p>Mit TUDOR hat uns zunächst die Frage interessiert, ob wir mit einem gliedelastischen Roboterarm trotz der Schwingungen und last- und konfigurationsabhängigen variablen Verbiegungen eine zielgerichtete Aufgabe präzise in geforderter Zeit erledigen können. Als Demonstration hierzu haben wir uns, wie im nachfolgenden Bild dargestellt, das Fangen eines Balles ausgedacht.</p>
<figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/Ballfangen_Szenario.png" alt="/images/blog/Ballfangen_Szenario.png" width="640" /><figcaption class="wp-caption-text">Ballfangen-Szenario</figcaption></figure>
<p>Ein menschlicher Werfer wirft den Ball in Richtung des Roboters. Die Flugbahn wird mittels einer Kinect-Kamera ermittelt und der Durchstoßpunkt der Flugbahn mit der Bewegungsebene des Roboters berechnet. Bevor der Ball am Roboter vorbei fliegt, bewegt der Roboter ein am Armende montiertes Netz dorthin und fängt den Ball damit auf. Das Resultat haben wir im nachfolgenden Video zusammengefasst:</p>


<p><iframe title="TUDOR - A multi-link-flexible robot arm catching thrown softballs" width="640" height="360" src="https://www.youtube.com/embed/P4_i_kGt2jA?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>

A multi-link-flexible robot arm catching thrown softballs.

<p>Sofern die Schwingungen regelungstechnisch unterdrückt und Abweichungen aufgrund statischer Verbiegungen kompensiert werden können, ließen sich in manchen Anwendungen diese elastischen Eigenschaften vielleicht nicht mehr nur als Problem verstehen. Vielmehr könnten elastische Eigenschaften vielleicht auch ausgenutzt werden, um beispielsweise Kontaktsituationen zu erkennen und darauf zu reagieren. Mit aktiv geregelten moderat gelenkelastischen Roboterarmen wurde dies ja bereits eindrucksvoll <a href="https://www.youtube.com/watch?v=dMh6cHSG3ng">gezeigt</a>.</p>
<p>Bezüglich gliedelastischer Roboter ist die Dämpfung auftretender Schwingungen bislang noch das dominierende Thema in Publikationen.</p>
<p>In den vergangenen Tagen konnten wir hier womöglich einen ersten Schritt über die reine Schwingungsdämpfung hinaus machen. Basierend auf einer Kraftregelung ist es uns gelungen ein Regelungskonzept zu entwickeln, bei dem wir die Schwingungen der mechanischen Struktur eines Roboterarms unterdrücken und zugleich die Nachgiebigkeit aktiv beeinflussen können. Einige Experimente dazu haben wir in nachfolgendem Video festgehalten:</p>


<p><iframe title="Experiments on force control of a multi-flexible-link robot" width="640" height="360" src="https://www.youtube.com/embed/AJPZjF7HDxY?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>

Video zur Kraftregelung eines gliedelastischen Roboterarms

<p>In dem Regelungskonzept wird die Information über die auf die Robterarme einwirkenden Kräfte mittels Dehnungsmessstreifen erfasst und individuell auf die Antriebsregler zurückgeführt. Auf diese Weise werden Schwingungen in der Armstruktur unterdrückt obgleich sie von der Gelenkbewegung oder der Interaktion mit der Umgebung herrühren. Zusätzlich lässt sich die Nachgiebigkeit des Roboterarms derart beeinflussen, dass wir mit sehr wenig Kraft den Roboterarm aus seiner aktuellen Position schieben können und die Wahrscheinlichkeit fragile Objekte bei einer unvorhergesehnen Kollision zu zerbrechen deutlich reduziert wird.</p>
<p>Also: elastische Roboterarmkörper &#8211; Fluch oder Segen? Trotz dieser Experimente sind noch zahlreiche Herausforderungen zu meistern und fragen zu beantworten. Dennoch scheint es mir, als schlummertem in den Elastizitäten der Armkörper nicht nur Probleme, sondern auch Potenziale.</p>
<p>Ich freue mich darauf zu sehen, wo die Reise noch hinführen wird.</p><p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-02-10-elastische-roboterarmkoerper-fluch-oder-segen/">Elastische Roboterarmkörper – Fluch oder Segen?</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>

]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/2013-02-10-elastische-roboterarmkoerper-fluch-oder-segen/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Simulation des Bionischen Handling-Assistenten</title>
		<link>https://botzeit.de/2012-04-17-simulation-des-festo-bionic-handling-assistant/</link>
					<comments>https://botzeit.de/2012-04-17-simulation-des-festo-bionic-handling-assistant/#respond</comments>
		
		<dc:creator><![CDATA[Arne]]></dc:creator>
		<pubDate>Tue, 17 Apr 2012 11:27:22 +0000</pubDate>
				<category><![CDATA[Artikel]]></category>
		<category><![CDATA[CoR-Lab]]></category>
		<category><![CDATA[Industrieroboter]]></category>
		<category><![CDATA[bionic handling assistant]]></category>
		<category><![CDATA[bionischer handling-assistent]]></category>
		<category><![CDATA[continuum kinematics]]></category>
		<category><![CDATA[elefantenrüssel]]></category>
		<category><![CDATA[festo]]></category>
		<category><![CDATA[fin gripper]]></category>
		<category><![CDATA[forschungspreis]]></category>
		<category><![CDATA[goal babbling]]></category>
		<category><![CDATA[greifer]]></category>
		<category><![CDATA[ijspeert]]></category>
		<category><![CDATA[mailingliste]]></category>
		<category><![CDATA[spiel]]></category>
		<guid isPermaLink="false"></guid>

					<description><![CDATA[<p>(this article is also available in English) Im April 2010 wurde der Bionische Handling-Assistent (BHA) von Festo auf der Hannover Messe der Öffent­lich­keit vorgestellt. In den fol­gen­den Mona­ten sah dieser bio­lo­gisch inspirierte Roboter­arm zu recht eine große Medien­präsenz und wurde mit zahl­reichen Prei­sen, unter anderem dem Deutschen Forschungspreis 2010, aus­ge­zeich­net. Im Februar 2011 bekamen wir [&#8230;]</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2012-04-17-simulation-des-festo-bionic-handling-assistant/">Simulation des Bionischen Handling-Assistenten</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p><em>(this article is also available <a href="https://planet-robotics.net/articles/simulation-of-the-bionic-handling-assistant/">in English</a>)</em></p>


<p>Im April 2010 wurde der <a href="http://www.festo.com/de/bha">Bionische Handling-Assistent</a> (BHA) von Festo auf der Hannover Messe der Öffent­lich­keit vorgestellt. In den fol­gen­den Mona­ten sah dieser bio­lo­gisch inspirierte Roboter­arm zu recht eine große Medien­präsenz und wurde mit zahl­reichen Prei­sen, unter anderem dem <a href="/2010_12_02-festo-bionic-arm/">Deutschen Forschungspreis 2010</a>, aus­ge­zeich­net. Im Februar 2011 bekamen wir dann unseren eigenen BHA, voller Vor­freude, denn wir wussten, dass niemand bislang mit dem BHA tun konnte, was wir mit ihm vor­hat­ten: <em>ihn zu kon­trol­lieren.</em> <span id='easy-footnote-1-104' class='easy-footnote-margin-adjust'></span><span class='easy-footnote'><a href='https://botzeit.de/2012-04-17-simulation-des-festo-bionic-handling-assistant/#easy-footnote-bottom-1-104' title='„Kontrollieren“ im regelungstechnischen Sinne. Hier also gemeint:&lt;br /&gt;Regeln der Endeffektor-Position.'><sup>1</sup></a></span></p>
<p>Die Struktur und Funk­tions­weise des BHA ist inspi­riert von einem Elefan­ten­rüs­sel, wie in fol­gen­der Ab­bildung un­schwer zu erken­nen ist. Der Arm wird im Sinne des <em>Rapid Proto­typings</em> im 3D-Drucker <em>gedruckt</em>. Als Material wird <a href="https://de.wikipedia.org/wiki/Polyamide">Polyamid</a> ver­wen­det, wodurch der gesamte Arm leicht-gewich­tig und durch­gängig ver­form­bar wird: Im Wesent­lichen besteht der BHA also aus Plastik und einer Menge Luft. Bewegt wird der Arm von drei­zehn pneu­ma­ti­schen Ven­tilen, die die drei­zehn Kammern des Robo­ters mit Luft füllen oder ent­leeren. Dies wiederum verbiegt, beugt und streckt die kom­plet­te Struktur.</p>
<figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/bha.jpg" alt="/images/blog/bha.jpg" width="640" /><figcaption class="wp-caption-text">Von einem Elefantenrüssel inspiriert</figcaption></figure>
<p>Festo hat mit dem BHA die Vision eines leichten, frei­beweg­lichen <em>Dritte-Hand-Systems</em>, das den Men­schen bei seiner Arbeit unter­stützen kann. Dank seiner struk­tu­rel­len Nach­giebig­keit (<a href="/2010_11_03-compliance-und-interaktion/">Compliance</a>) ist der Arm im Kontakt mit Menschen und seiner Umgebung natur­gemäß sicher, was die Mög­lich­keiten von direkter Zu­sam­men­arbeit von Mensch und Roboter eröffnet. In in­dustriel­lem Kontext kann der BHA in Fertigungs­pro­zes­sen ein­ge­setzt werden, z.B. um mit empfind­lichen Gütern wie z.B. Lebens­mit­teln zu arbeiten.</p>
<p>Als wir uns ent­schlos­sen haben, Festos Bio­nischen Handling-Assisten­ten zu erwer­ben, wussten wir, dass wenige der klas­si­schen und bekannten Ver­fahren mit diesem Roboter funktio­nie­ren würden. Trotz­dem war über­raschend, dass der Roboter <em>ohne jeg­liche Software</em> aus­ge­lie­fert wurde.</p>
<p>Keine Software.</p>
<p><em>Nichts.</em></p>
<p>Noch bis vor einem Jahr konnten wir mit dem BHA nicht viel mehr tun, als von Hand die pneu­ma­ti­schen Ven­tile zu öffnen und zu schließen, um damit entweder vol­len Druck oder gar keinen Druck in die Kam­mern zu geben. Auch damit waren die Be­we­gun­gen des Robo­ters absolut fas­zi­nie­rend und wir hatten großen Spaß, aber ernst­hafte An­wen­dungen waren damit natür­lich noch nicht möglich. Wie von Festo zugesagt, bekamen wir dann vor fast genau einem Jahr elektro­nische Ventile, mit denen wir (mehr oder weniger präzise) den Druck in den Kammern auto­ma­tisch vor­geben konnten. Nicht mehr und nicht weniger: den Druck kon­trol­lie­ren.</p>
<p>Um es einmal vorsichtig zu sagen: Der Schritt von dieser Druck­re­ge­lung zu einer ernst­haften An­wendung mit dem BHA ist <em>groß</em>!</p>
<p>Das tat­säch­liche Werkzeug, dass man mit dem BHA kon­trol­lieren will, ist der so­ge­nan­nte <a href="http://www.festo.com/cms/en_corp/9779.htm">Fin Gripper</a> am Ende des Arms. Diesen Greifer zu al­ler­dings genau zu po­si­tio­nie­ren setzt zu­al­ler­erst voraus, die Postur des Arms prä­zise bestimmen zu können. Den Druck in den ein­zel­nen Kam­mern zu kennen, reicht dafür bei weitem nicht aus; dass dies zum Scheitern ver­ur­teilt sein würde, diese Er­fah­rung hatten wir bereits mir anderen Robo­tik­platt­for­men gemacht: Zehn Mal den gleichen Druck auf einen pneu­ma­ti­schen Roboter zu geben, ergibt im Regel­fall zehn ver­schie­dene Posturen des Robo­ters. Reibung, Reibung, Hyste­rese-Effekte und Nicht-Stationaritäten ver­ändern das Ergeb­nis von Mal zu Mal.</p>
<figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/bha-marked.jpeg" alt="/images/blog/bha-marked.jpeg" width="640" /><figcaption class="wp-caption-text">Die kinematische Struktur des BHA</figcaption></figure>
<p>Um diesen Problemen zu begegnen, besitzt der BHA Längen­sen­soren (Kabel-Poten­tio­meter), um an der Außen­seite des Arms die Streckung der einzel­nen Kam­mern zu messen (siehe obige Abbildung). Natür­lich wollten wir diese Länge nicht nur <em>kennen</em>, sondern auch <em>kontrol­lieren</em> können. Das ist theore­tisch mit klas­si­scher (PID-)Regel­technik möglich, aber funktio­niert auf diese Weise nur sehr schlecht. Um dieses Ver­hal­ten zu verbes­sern, könnte man nun ver­suchen, all das Wissen über den BHA in eine aus­ge­feil­tere Regelungs­technik zu stecken. Wenn man dieses Wissen bloß hätte …</p>
<p>Eine kurze Liste von Dingen, die man über den BHA <em>nicht</em> weiß:</p>
<p> </p>
<p>Das präzise Verhältnis zwischen Druck in den Kammern und der geo­me­trischen Postur im Ruhe­punkt (im Equi­li­brium)</p>
<p>Jegliche Art von Dynamik (nicht nur der Pneu­ma­tik selbst, sondern auch des sehr viel lang­sa­me­ren Zusam­men­spiels zwischen der Pneu­matik und Geo­me­trie)</p>
<p> </p>
<p>Welche Länge des Arms bzw. der einzelnen Kam­mern ist über­haupt mög­lich? Wo liegen die Gren­zen?</p>
<p> </p>
<p>Und nicht zuletzt: Wie genau ist das Zusam­men­spiel der obigen Aspekte zwi­schen den einzel­nen Kam­mern. Denn: Es be­steht ein <em>starker</em> Zusam­men­hang!</p>
<p> </p>
<p>Alles zusammen eine große Heraus­for­de­rung … aber nicht un­mög­lich. An­ge­nom­men also, die Länge des Aktu­a­tors lässt sich mes­sen und kontrol­lieren. Um nun die End­ef­fektor-Posi­tion (die Posi­tion des Greifers) zu kon­trol­lieren … <em>muss man die aktu­el­le End­ef­fek­tor-Posi­tion kennen!</em></p>
<p>Die Endeffektor-Position anhand der Geo­metrie des Robo­ters und der Stel­lung der Aktua­toren zu er­rech­nen, nennt sich <em>Vor­wärts-Kine­ma­tik</em> und ist für handels­übliche Robo­ter kein großes Pro­blem, son­dern ein­fache Tri­go­no­metrie. Der BHA gehört allerdings zu einer anderen Klasse von Morpho­lo­gien, genannt <strong>Conti­nuum Kine­ma­tics</strong> (also in etwa: <em>konti­nu­ier­liche Kine­ma­tik</em>). Dank seiner mecha­ni­schen Flexi­bi­li­tät besitzt dieser Robo­ter­arm <em>unend­lich viele</em> Frei­heits­grade, da jeder Bereich des Robo­ters unter­schied­lich gebo­gen und ge­streckt sein kann. Unend­lich viele Frei­heits­grade kön­nen weder mit Sen­so­ren ge­mes­sen noch berech­net werden.</p>
<p>Als wir unsere Arbeit mit dem BHA be­gon­nen haben, planten wir nicht, die kom­pli­zier­te Kine­ma­tik des BHA zu simu­lie­ren. Da wir uns im Kontext des BHA haupt­säch­lich mit Maschi­nel­lem Ler­nen be­schäfti­gen, wollten wir die End­ef­fek­tor-Posi­tion schlicht <em>messen</em>, um sie be­nut­zen zu können (tun wir auch). Dass wir trotzdem eine Simu­la­tion benö­ti­gen würden, stellte sich heraus, als wir Schwierig­kei­ten in der <em>Vi­suali­sie­rung</em> bekamen. Wir wollten nämlich dar­stel­len, wie die räum­lichen Koor­di­na­ten mit den Be­we­gun­gen des BHA zu­sam­men­hän­gen.</p>
<p>Da Visualisierung Kenntnis der Kinematik voraus­setzt, began­nen wir, sie an­zu­nähern. Selbst wenn sich die Beugung und Streckung von unend­lich vielen Frei­heits­graden nicht berech­nen lässt, so lassen sich doch durch die Längen­senso­ren einige An­nah­men zur Beugung des Arms tref­fen. Die einfach­ste Art der Beugung ist eine kreis­förmige; im drei-dimen­sio­nalen Fall ent­spricht dies einem Torus:</p>
<figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/torus-model.jpg" alt="/images/blog/torus-model.jpg" width="640" /><figcaption class="wp-caption-text">Torus-Modell zur Annäherung der Beugung des BHA</figcaption></figure>
<p>Das Bild zeigt, wie sich ein Segment mit drei Aktua­toren (in der Ab­bil­dung als graue Röhren dar­ge­stellt) entlang eines Torus verbiegt. Diese Geometrie kann mit drei Parametern beschrieben werden: zwei Winkel (in der Abbildung blau dargestellt) und der Radius des Torus (in der Abbildung rot). Diese drei Parameter können anhand der gemessenen Längen an der Außenseite der BHA-Segmente rekonstruiert werden. Sobald diese Parameter bestimmt sind, ist das Berechnen der Vorwärtskinematik und damit die Bestimmung der Endeffektor-Position (also der Position des Greifers) einfach. Ein Problem tritt lediglich im Grenzfall auf, wenn alle Längen gleich sind, wenn also alle Kammern gleich gestreckt sind. Diese Verformung kann durch einen Torus nicht dargestellt werden, obwohl der BHA zu solch einer Bewegung in der Lage ist. Auch für dieses Problem ließ sich allerdings eine einfache, numerisch stabile Lösung finden. Der BHA lässt sich somit durch Aufeinandersetzen dreier solcher Segmente darstellen und simulieren.</p>
<p>Die gezeigten Torusdeformationen sind sehr einfache Annäherungen des Arms im Vergleich zu kom­plexen Physik des Ver­for­mungs-Pro­blems. Üblicherweise ist diese Art von Annäherung daher nicht hinreichend für diese Art von Robotern (siehe z.B. Trivedi 2008 <span id='easy-footnote-2-104' class='easy-footnote-margin-adjust'></span><span class='easy-footnote'><a href='https://botzeit.de/2012-04-17-simulation-des-festo-bionic-handling-assistant/#easy-footnote-bottom-2-104' title='&lt;a href=&quot;http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=4560068&quot;&gt;Geometrically Exact Models for Soft Robotic Manipulators&lt;/a&gt;'><sup>2</sup></a></span> ). Nicht jedoch für den BHA: Hier funktioniert die beschriebene Lösung sehr gut, in unseren Tests sehen wir einen durchschnittlichen Fehler von 1cm auf einer Länge von 1m. Nicht perfekt, aber absolut ausreichend für unsere Zwecke und außerdem durchaus konkurrenzfähig zu Lösungen in der Literatur.</p>
<p>Das folgende Video zeigt das simulierte Modell und unseren BHA:</p>


<p><iframe title="Kinematic Simulation of Festo&#039;s Bionic Handling Assistant" width="640" height="360" src="https://www.youtube.com/embed/kk3w2VchgWA?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>

BHA-Simulation

<p>Der große Vorteil des benutzten <em>einfachen</em> Torus-Modells ist seine Geschwindigkeit in der Berechnung. Unsere Software-Bibliothek ist auf Basis dieses Modells in der Lage, die Vorwärtskinematik des BHA auf einem einzelnen CPU-Kern <strong>mehrere zehntausend Mal</strong> in der Sekunde zu berechnen. Auch wenn wir diese Simulation ursprünglich nicht geplant hatten, ist sie damit mittlerweile eine essentielles Werkzeug bei unserer Arbeit mit dem BHA geworden. Die interessanten Dinge machen wir weiterhin auch auf der echten Hardware, aber parallel lassen sich nun viele Dinge bequem vorberechnen und darstellen.</p>
<p>Die Kinematik-Simulation ist in C++ implementiert und als <strong>Open-Source-Bibliothek</strong> verfügbar. Über die folgende Seite kann sie heruntergeladen werden und enthält sowohl die Vorwärtskinematik als auch die gezeigte OpenGL-basierte 3D-Visualisierung: <a href="http://www.cor-lab.de/software-continuum-kinematics-simulation">http://www.cor-lab.de/software-continuum-kinematics-simulation</a> Wir freuen uns über Benutzer und Erfahrungsberichte.</p>
<p>Der folgende einfache Code-Schnipsel berechnet zum Beispiel die Vorwärtskinematik des BHA:</p>
<p>// create robot morphology with segment radii 0.1, 0.09 and 0.08 meters ContinuumRobotKinematics kinematics(RealVector(0.1, 0.09, 0.08));<br />// specify an end effector offset kinematics.setEndEffectorOffset(RealVector(0.0, 0.0, 0.14));<br />// this is the forward kinematics function:<br />Mapping&lt;RealVector,RealVector&gt; fwdKin = kinematics.getForwardPositionKinematics();<br />// try out some posture (a combination of actuator lengths) RealVector posture = {0.2,0.24,0.24,0.2,0.24,0.24,0.2,0.24,0.24};<br />// this is the resulting end-effector position RealVector position = fwdKin(posture); // [-0.3808, 0, 0.686287]Neben der in diesem Artikel beschriebenen Kinematik-Berechnung und Simulation des BHA, haben wir in den letzten Monaten noch viele weitere spannende Dinge mit dem BHA gemacht, die wir auf der Automatica-Messe im Mai in München zeigen werden:<br />Um zu sehen wie wir trotz der zahlreichen obigen Probleme mithilfe maschineller Lernmethoden den Greifer auf dem echten BHA im Arbeitsraum zu kontrollieren gelernt haben, lohnt sich also ein Besuch unseres Standes <strong>auf der Automatica in München</strong>:<br />Stand 427 und 429 in Halle B3, vom 22. bis 25. Mai.</p>
<p> </p>
<p><strong>Kontakt:</strong></p>
<p> </p>
<p>Dipl.-Inform. Matthias Rolf, CoR-Lab &#8211; Bielefeld University, <a href="&#109;&#x61;&#x69;l&#116;&#x6f;:&#109;&#x72;o&#108;&#x66;&#64;&#99;&#x6f;&#x72;&#45;&#x6c;&#x61;b&#46;&#x75;n&#105;&#x2d;b&#105;&#x65;&#x6c;&#101;&#x66;&#x65;l&#100;&#x2e;d&#101;">&#109;&#x72;&#x6f;l&#102;&#x40;c&#111;&#x72;&#x2d;l&#97;&#x62;&#46;&#117;&#x6e;&#x69;-&#98;&#x69;e&#108;&#x65;&#x66;&#101;&#108;&#x64;&#46;&#100;&#x65;</a></p>
<p>Prof. Jochen Steil, CoR-Lab &#8211; Bielefeld University, <a href="&#109;&#x61;i&#x6c;&#x74;&#111;&#x3a;j&#115;&#x74;&#101;&#x69;l&#64;&#x63;o&#x72;-&#108;&#x61;b&#x2e;&#x75;&#110;&#x69;-&#98;&#x69;&#101;&#x6c;e&#102;&#x65;&#108;&#x64;&#46;&#100;&#x65;">&#106;&#x73;&#116;&#x65;&#105;&#x6c;&#64;&#x63;&#111;&#x72;&#45;&#x6c;&#97;&#x62;&#46;&#x75;&#110;&#x69;&#45;&#x62;&#105;&#x65;&#108;&#x65;&#102;&#x65;&#108;&#x64;&#46;&#x64;&#101;</a></p>
<p> </p><p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2012-04-17-simulation-des-festo-bionic-handling-assistant/">Simulation des Bionischen Handling-Assistenten</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
<img src="https://vg08.met.vgwort.de/na/bbfb6b30b59d46ffa973618fc2f7dd81" width="1" height="1" alt="" class="wpvgw-marker-image" loading="eager" data-no-lazy="1" referrerpolicy="no-referrer-when-downgrade" style="display:none;" />
]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/2012-04-17-simulation-des-festo-bionic-handling-assistant/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
