<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>CoR-Lab &ndash; botzeit</title>
	<atom:link href="https://botzeit.de/category/corlab/feed/" rel="self" type="application/rss+xml" />
	<link>https://botzeit.de</link>
	<description>Robotik-Blog</description>
	<lastBuildDate>Mon, 27 Jan 2020 20:58:31 +0000</lastBuildDate>
	<language>de-DE</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=5.8.3</generator>

<image>
	<url>https://botzeit.de/wp-content/uploads/2020/01/cropped-favicon-1-1-32x32.png</url>
	<title>CoR-Lab &ndash; botzeit</title>
	<link>https://botzeit.de</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Ein Vierbeiner für Bielefeld</title>
		<link>https://botzeit.de/2013-10-08-ein-vierbeiner-fuer-bielefeld/</link>
					<comments>https://botzeit.de/2013-10-08-ein-vierbeiner-fuer-bielefeld/#respond</comments>
		
		<dc:creator><![CDATA[Arne]]></dc:creator>
		<pubDate>Tue, 08 Oct 2013 17:51:26 +0000</pubDate>
				<category><![CDATA[CoR-Lab]]></category>
		<category><![CDATA[Mobile Roboter]]></category>
		<category><![CDATA[oncilla]]></category>
		<category><![CDATA[selbst­fahren­dem auto]]></category>
		<category><![CDATA[spielzeugroboter]]></category>
		<category><![CDATA[vierbeiner]]></category>
		<guid isPermaLink="false"></guid>

					<description><![CDATA[<p>Gestern habe ich mich mit einem leeren speziellen Transportkoffer auf den Weg nach Lausanne in die Schweiz gemacht, um einen neuen Roboter abzuholen und nach Bielefeld zu bringen. Noch ist der Koffer leer, aber für den Rückweg wird mir das BioRob Lab der EPFL in Lausanne einen nagelneuen Oncilla in den Koffer legen. Gerne geben [&#8230;]</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-10-08-ein-vierbeiner-fuer-bielefeld/">Ein Vierbeiner für Bielefeld</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Gestern habe ich mich mit einem leeren speziellen Transportkoffer auf den Weg nach Lausanne in die Schweiz gemacht, um einen neuen Roboter abzuholen und nach Bielefeld zu bringen. Noch ist der Koffer leer, aber für den Rückweg wird mir das <a href="http://biorob.epfl.ch">BioRob Lab</a><target ids="biorob-lab" names="biorob\ lab" refuri="http://biorob.epfl.ch"></target> der EPFL in Lausanne einen nagelneuen <a href="http://www.amarsi-project.eu/oncilla">Oncilla</a><target ids="oncilla" names="oncilla" refuri="http://www.amarsi-project.eu/oncilla"></target> in den Koffer legen. Gerne geben sie den selbstverständlich nicht her, aber so will es das <a href="http://amarsi-project.eu">AMARSi-Projekt</a><target ids="amarsi-projekt" names="amarsi-projekt" refuri="http://amarsi-project.eu"></target>. Und ich auch.</p>
<p>Hier der aktuelle Zustand des Oncilla-Roboters von heut morgen, noch auf dem Ständer und (noch) mit losen Kabelsträngen. Bis morgen ist Peter (im Bild) noch mit der finalen Verkabelung beschäftigt:</p>
<figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/oncilla-stand-cabling.jpg" alt="/images/blog/oncilla-stand-cabling.jpg" width="640" /><figcaption class="wp-caption-text">Oncilla-Roboter noch auf dem Ständer und mit (noch) losen Kabelsträngen</figcaption></figure>
<p>Hier ist ein Video der ersten Gehversuche (bzw. Trab-Versuche) eines Oncilla-Zwillings, das das <em>Reservoir Lab</em> aus Gent Anfang des Jahres gemacht hat:</p>
<figure style="width: 640px" class="wp-caption aligncenter"><iframe title="Trotting Oncilla Robot" width="640" height="480" src="https://www.youtube.com/embed/Ykn_XTm8yHA?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe><figcaption class="wp-caption-text">Erste Gehversuche mit dem Oncilla (Trab)</figcaption></figure>
<p>Ich hole den Roboter persönlich ab, um gleichzeitig auch eine Einführung in die Hardware zu bekommen. Da ich selbst hauptsächlich mit Software arbeite, bin ich in Hardware-Fragen weitgehend unerfahren und benötige dringend einen Crash-Kurs in Inbetriebnahme und Wartung von Vierbeinern, damit ich unseren Oncilla nicht direkt bei den ersten Experimenten zerlege.</p>
<p>Gleichzeitig werden wir auch die Zeit nutzen, ein bisschen an der Control-Software zu hacken, was direkt vor Ort mit den Oncilla-Erschaffern einfacher ist als über größere Distanz. Ziel ist eine einfache API zu entwickeln, da Software und Hardware des Roboters (inklusive Simulator) in naher Zukunft vollständig Open Source sein sollen.</p>
<p>Am Donnerstag geht&#8217;s dann samt Roboter im Gepäck zurück zum <a href="http://cor-lab.de">CoR-Lab</a><target ids="cor-lab" names="cor-lab" refuri="http://cor-lab.de"></target> nach Bielefeld, der Spezialkoffer mit den Schaumstoffeinlagen verhindert dabei hoffentlich sämtliche Beschädigungen.</p>
<p>Und dann wartet die eigentliche Arbeit: dem Oncilla neue Tricks beizubringen!</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-10-08-ein-vierbeiner-fuer-bielefeld/">Ein Vierbeiner für Bielefeld</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>

]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/2013-10-08-ein-vierbeiner-fuer-bielefeld/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Mensch und Roboter Hand in Hand</title>
		<link>https://botzeit.de/2013-08-06-mensch-und-roboter-hand-in-hand/</link>
					<comments>https://botzeit.de/2013-08-06-mensch-und-roboter-hand-in-hand/#respond</comments>
		
		<dc:creator><![CDATA[Arne]]></dc:creator>
		<pubDate>Tue, 06 Aug 2013 15:06:07 +0000</pubDate>
				<category><![CDATA[Artikel]]></category>
		<category><![CDATA[CoR-Lab]]></category>
		<category><![CDATA[Industrieroboter]]></category>
		<category><![CDATA[bielefeld]]></category>
		<category><![CDATA[coworker]]></category>
		<category><![CDATA[dritte hand]]></category>
		<category><![CDATA[flexirob]]></category>
		<category><![CDATA[harting]]></category>
		<category><![CDATA[helfende hand]]></category>
		<category><![CDATA[human robot interaktion]]></category>
		<category><![CDATA[interaktion]]></category>
		<category><![CDATA[kuka lbr lwr]]></category>
		<category><![CDATA[spiel]]></category>
		<category><![CDATA[studie]]></category>
		<guid isPermaLink="false"></guid>

					<description><![CDATA[<p>Wer hat sich nicht schon einmal einen Roboter gewünscht, der im Haus­halt hilft? Der zum Beispiel schon einmal den Kuchen­teig anrührt, knetet und ausrollt, während man selbst die Glasur vorbereitet, bzw. einem das lästige Gemüse­schnib­beln beim Kochen abnimmt. Oder einen kleinen Roboter­assisten­ten, der einem bei heimischen Bastel­arbei­ten die richtigen Werk­zeuge anreicht, wie man es aus [&#8230;]</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-08-06-mensch-und-roboter-hand-in-hand/">Mensch und Roboter Hand in Hand</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Wer hat sich nicht schon einmal einen Roboter gewünscht, der im Haus­halt hilft? Der zum Beispiel schon einmal den Kuchen­teig anrührt, knetet und ausrollt, während man selbst die Glasur vorbereitet, bzw. einem das lästige Gemüse­schnib­beln beim Kochen abnimmt. Oder einen kleinen Roboter­assisten­ten, der einem bei heimischen Bastel­arbei­ten die richtigen Werk­zeuge anreicht, wie man es aus OP-Sälen in Kranken­häusern kennt: <em>„Roboter, Schrauben­zieher!“</em> – <em>„Schraubenzieher, und weiter?“</em> – <em>„Schraubenzieher, bitte!“</em></p>
<figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/flexirob-hand-in-hand.jpg" alt="/images/blog/flexirob-hand-in-hand.jpg" width="640"><figcaption class="wp-caption-text">Die Vision: Roboter und Mensch arbeiten zusammen [johanneswienke.de]</figcaption></figure>
<p>Zumindest in Industrie­szenarien ist das keine allzu weit entfernte Zukunfts­vision mehr. Flexibel anpassbare Roboter, die autonom oder Hand in Hand mit dem Menschen in einer Werkstatt oder Produktions­strasse arbeiten und diesen bei Fertigungs­auf­gaben unterstützen, sind schon seit geraumer Zeit ein strate­gisches Anliegen europäischer Wissenschaftler und der Robotik­industrie. So führt bereits die im Jahr 2009 ausgerufene europäische <a href="http://www.robotics-platform.eu/cms/upload/SRA/2010-06_SRA_A3_low.pdf">Strategic Research Agenda</a><target ids="strategic-research-agenda" names="strategic\ research\ agenda" refuri="http://www.robotics-platform.eu/cms/upload/SRA/2010-06_SRA_A3_low.pdf"></target> diese beiden Szenarien, den „Robotic Worker“ und den „Robotic Co-Worker“, als Kern­an­wen­dungs­sze­na­rien zukünf­tiger Industrie­robotik mit auf. Dabei geht es nicht um Groß­serien-Voll­auto­matisie­rung wie man sie z. B. aus der Auto­mobil­industrie kennt, in der Roboter an Roboter aufgereiht in Käfigen und – aus Sicher­heits­gründen – abge­schot­tet vom Menschen monatelang exakt die gleiche Aufgabe ausführen:</p>
<figure style="width: 640px" class="wp-caption aligncenter"><iframe title="Car Factory - Kia Sportage factory production line" width="640" height="360" src="https://www.youtube.com/embed/sjAZGUcjrP8?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe><figcaption class="wp-caption-text">Vollautmatisierte Montage von Automobilen bei KIA</figcaption></figure>
<p>Es geht vielmehr um die Unter­stützung von Mitarbei­tern in kleinen und mittel­stän­dischen Unter­nehmen, deren Auftrags­lage sich relativ schnell ändern kann. Denkbar ist die Fertigung von Proto­typen, von denen häufig nur geringe, einstel­lige Stück­zahlen gefertigt werden. In diesem Kontext sind zur Zeit Hand­arbeits­plätze immer noch die Regel, d. h. Fachkräfte montieren und bearbeiten Bauteile bzw. bestücken und entladen Maschinen manuell. Häufig sind diese Arbeiten verbunden mit anstren­gender körper­licher Arbeit.</p>
<p>Eine Voll­automatisie­rung im klas­si­schen Sinne, also mit Robotern, die genau auf diesen einen Zweck ausgelegt sind und in aller Regel <em>nicht</em> oder nur sehr aufwendig an neue Fer­ti­gungs­auf­ga­ben angepasst werden können, macht hier allein schon aus ökonomischen Gründen keinen Sinn. Der durch die Einsparung einer Fachkraft gewonnene finan­zielle Vorteil wird sofort wieder zu­nichte gemacht durch den not­wen­digen, häufigen und kosten­inten­siven Einsatz von Experten, die den Roboter bei jeder Änderung im Pro­duk­tions­ablauf wieder an seine neue Aufgabe anpassen und um­program­mieren müssen. Zusätzlich sind viele Teil­aufgaben in solchen Fertigungs­prozessen sehr komplex und wenn überhaupt nur mit enorm hohem technischen Aufwand automatisch zu bewerk­stel­ligen, wie z. B. der berühmte <a href="https://de.wikipedia.org/wiki/Griff_in_die_Kiste">Griff in die Kiste</a><target ids="griff-in-die-kiste" names="griff\ in\ die\ kiste" refuri="https://de.wikipedia.org/wiki/Griff_in_die_Kiste"></target>.</p>
<p>Die Idee ist vielmehr, den Menschen zu unterstützen, indem man ihm diejenigen Arbeiten überlässt, die er z. B. auf Grund besserer visueller Wahrnehmung und guten Finger­fertig­keiten kompetenter und schneller durchführen kann als jede Maschine, ihn aber durch den Roboter­assisten­ten von körperlich belas­ten­den Arbeiten zu befreien … der Roboter als dritte Hand. Damit jedoch beide, Roboter und Mensch, an einem Arbeits­platz gemeinsam sinnvoll zusam­men­arbeiten können, sind einige Heraus­forderun­gen zu bewältigen. Ein bisschen <em>Buzzword-Bingo</em>:</p>
<p><bullet_list bullet="*"> 	<list_item>
</list_item></bullet_list></p>
<p><strong>Flexibilität</strong>: Um sich den ständig wechselnden Aufgaben anpassen zu können und in beliebigen (engen, eingeschränkten) Arbeits­räumen mit dem Menschen zusammen zu arbeiten, ist im Vergleich zu her­kömmlichen Industrie­robotern zusätzliche Flexi­bi­li­tät nötig. Diese erhält man z. B. durch zusätzliche Bewegungs­achsen: übliche Industrie­roboter verfügen über bis zu sechs Achsen, ab sieben Achsen erhält man durch Redundanz zusätzliche Flexi­bi­lität.</p>
<list_item><strong>Interaktion</strong>: Um teures und zeit­auf­wen­diges Um­program­mieren der Roboter durch Experten zu umgehen, muss der Mit­arbeiter vor Ort in der Lage sein, durch einfache, direkte Interaktion den Roboter an seine neuen Aufgaben und Arbeits­bedin­gun­gen anzupassen und ihn den eigenen Bedürf­nissen entsprechend zu <em>programmieren</em>.</p>
</list_item> 	<list_item><strong>Sicherheit</strong>: Die direkte physische Ko­operation zwischen Mensch und Maschine erfordert andere Sicher­heits­mecha­nis­men als Zäune und strikte Arbeits­raum­tren­nung, um die Sicherheit für den Menschen dennoch zu gewähr­leisten.</p>
</list_item>
<p>Technisch gesehen scheinen obige Herausforderungen so gut wie gelöst. Der vom <a href="http://www.dlr.de/rm/desktopdefault.aspx/tabid-8017/">Deutschen Luft- und Raumfahrtszentrum</a><target ids="deutschen-luft-und-raumfahrtszentrum" names="deutschen\ luft-\ und\ raumfahrtszentrum" refuri="http://www.dlr.de/rm/desktopdefault.aspx/tabid-8017/"></target> und <a href="http://www.kuka-robotics.com/germany/de/">KUKA</a><target ids="kuka" names="kuka" refuri="http://www.kuka-robotics.com/germany/de/"></target> gemeinsam entwickelten Leicht­bau­roboter IV (LBR IV), dessen serien­reifer Nachfolger KUKA LBR <em>iiwa</em> auf der diesjährigen <em>Hannover Messe</em> erstmals vorgestellt wurde, ist ein Beispiel. Das geringe Gewicht, Kraft­sensoren zur Kollisions­erkennung und eine sehr schnelle Regelung sind gute Voraus­setzun­gen für eine sichere Interaktion mit dem Menschen. Außerdem ist der LBR mit seinen sieben Bewegungs­achsen redundant, bietet also genügend Flexi­bi­li­tät, um um Hinder­nisse herum­zu­greifen oder Aufgaben auf mehr als nur eine Art zu erledigen.</p>
<p>Dass trotzdem nun nicht jeder sofort einem solchen Roboter Aufgaben bei­bringen kann, sieht man im folgenden Video, welches im Verlaufe einer umfang­reichen Feld­studie <span id='easy-footnote-1-56' class='easy-footnote-margin-adjust'></span><span class='easy-footnote'><a href='https://botzeit.de/2013-08-06-mensch-und-roboter-hand-in-hand/#easy-footnote-bottom-1-56' title='Wrede, S., Emmerich, C., Grünberg, R., Nordmann, A., Swadzba A., Steil, J.J.: &lt;a href=&quot;http://pub.uni-bielefeld.de/publication/2604310&quot;&gt;A User Study on Kinesthetic Teaching of Redundant Robots in Task and Configuration Space&lt;/a&gt;&lt;target ids=&quot;a-user-study-on-kinesthetic-teaching-of-redundant-robots-in-task-and-configuration-space&quot; names=&quot;a\ user\ study\ on\ kinesthetic\ teaching\ of\ redundant\ robots\ in\ task\ and\ configuration\ space&quot; refuri=&quot;http://pub.uni-bielefeld.de/publication/2604310&quot;&gt;&lt;/target&gt;, Journal of Human-Robot Interaction (Special Issue: HRI System Studies), 2013'><sup>1</sup></a></span> mit Mit­arbei­tern der Firma <a href="http://www.harting.de">Harting</a><target ids="harting" names="harting" refuri="http://www.harting.de"></target> entstand:</p>
<figure style="width: 640px" class="wp-caption aligncenter"><iframe title="Kinesthetic teaching of a redundant robot is difficult" width="640" height="360" src="https://www.youtube.com/embed/tRTfSWBbE1Q?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe><figcaption class="wp-caption-text">Auch moderne Roboter sind nicht leicht zu bedienen.</figcaption></figure>
<p>Die Aufgabe für die Probanden bestand im Prinzip aus einer Art Heißer-Draht-Spiel:<br />
Der vorn am Roboter montierte Greifer sollte möglichst genau an dem Styropor-Parcours entlang geführt werden, während­dessen natürlich jede Kollision sowohl vorne am Greifer als auch am Rest des Roboter­körpers mit den Umgebungs­objekten vermieden werden sollte. Der Hintergrund: Genau durch diese Art des Führens (englisch: <em>Kinesthetic Teaching</em>) können dem Roboter Aufgaben beigebracht werden. Die in der Inter­aktion ent­stan­denen Bewe­gun­gen werden auf­gezeich­net und können auf Befehl schneller, langsamer oder leicht verändert wieder abgespielt werden. Der Fachbegriff hierfür lautet <em>Teach-In</em> und bezeichnet das aktuell übliche Verfahren, um Roboter „anzulernen“.</p>
<p>Wie man in dem Video sieht, geht das zum Teil gehörig schief! Die Versuchs­personen scheinen (trotz einer vorherigen Eingewöhungs­phase mit dem Roboter) überfordert von der Aufgabe, dem LBR den Parcours kollisions­frei bei­zu­bringen. Das liegt nicht an der Komplexität der Aufgabe: Eine einfache vorgegebene drei­dimensionale Bewegung wie die des Parcours aus der Studie nachzufahren, ist für uns Menschen typischer­weise zu bewältigen und wie wir später sehen werden auch in Verbindung mit einem Roboter leicht möglich. Der Grund ist die durch jahrelange Ingenieurs­kunst geschaffene, komplizierte Technik des LBR, die technische Vorteile, aber auch erhöhte Komplexität mit sich bringt. Denn hinter dem einen „I“ des Wortes „Interaktion“ verstecken sich noch zwei weitere: <em>intuitiv</em> und <em>intelligent</em>. Einem Roboterarm mit sieben Gelenken eine bestimmte drei­dimensio­nale Bewegung beizubringen und dabei gleichzeitig darauf achten zu müssen, dass er mit seinen sieben Achsen nicht mit Hinder­nissen im Arbeits­raum kollidiert, ist <em>nicht</em> intuitiv. Und eine vorgemachte Bewegung abspeichern und wieder abspielen zu können, ist <em>nicht</em> sonderlich intelligent.</p>
<p>Dieses Beispiel zeigt, dass in der Praxis mehr notwendig ist als nur die tech­nischen Möglichkeiten zu schaffen. Der Schlüssel, davon sind wir überzeugt, liegt in einer syste­ma­tischen Inte­gration von Hoch­techno­logie, maschi­nel­lem Lernen und einfacher Inter­aktion. Um ein solches Robotik­system für den Arbeiter vor Ort bedienbar zu machen, muss die eigent­liche techno­lo­gische Komplexi­tät im besten Fall hinter intuitiven Benutzer­schnitt­stellen und schritt­weiser Inter­aktion versteckt werden. Am <a href="http://www.cor-lab.de">Forschungsinstitut für Kognition und Robotik (CoR-Lab)</a><target ids="forschungsinstitut-fur-kognition-und-robotik-cor-lab" names="forschungsinstitut\ für\ kognition\ und\ robotik\ (cor-lab)" refuri="http://www.cor-lab.de"></target> der Univer­sität Biele­feld beschäftigen wir uns seit Jahren genau damit. Das Roboter­system, das oben im Video zu sehen war und auf einem KUKA LBR IV aufbaut, ist unsere Forschungs­plattform <a href="http://www.cor-lab.de/flexirob">FlexIRob</a><target ids="flexirob" names="flexirob" refuri="http://www.cor-lab.de/flexirob"></target>: ein Beispiel­szenario, bei dem wir diese Art von Integration untersuchen. Um die obige Aufgabe zu erleichtern, haben wir einen Ansatz entwickelt, mit dem jeder einen solchen Roboter an neue Umgebungen und Aufgaben anpassen kann. Die Idee ist im Prinzip einfach und beruht darauf, die komplexe Aufgabe in zwei Teil­schritte zu unter­teilen. Dass das funktioniert, ist im folgenden Video zu sehen:</p>
<figure style="width: 640px" class="wp-caption aligncenter"><iframe title="MoFTaG Multimedia Report" width="640" height="360" src="https://www.youtube.com/embed/umoP9NZELc4?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe><figcaption class="wp-caption-text">Erleichterung der Interaktion durch Aufteilung in explizite Konfigurations- und assistierte Programmierphase (ab ca 1:15)</figcaption></figure>
<p>Der erste Teil­schritt der Aufgabe heißt <em>Konfigurations­phase</em> und ist unabhängig von der Aufgabe, die der Roboter­arm später ausführen soll. In dieser Phase bringt der Nutzer bzw. der Mit­arbeiter dem Roboter seine neue Umgebung bei, d. h. eventuelle dauerhafte Hindernisse, welche in seinem Arbeits­bereich platziert sind, wie z. B. herum­liegende Objekte, Säulen oder Regale. Als Mensch hat er dabei ein intuitives Verständnis der Szenerie: Er sieht die Hinder­nisse, er weiß, dass und wie man um sie herumgreifen muss und ist deswegen instinktiv in der Lage, den LBR dabei in aus­gesuchte Regionen zu führen und dort mit ihm zusammen einige Beispiel­bewegungen durch­zu­führen, ohne mit den Hinder­nissen zu kollidieren. Von diesen Beispiel­bewegungen kann nun der Roboterarm lernen, wie er sich in seinem Arbeits­bereich zu bewegen und wie er die Hinder­nisse im Zweifel zu umgreifen hat. Die Methoden zum Lernen, die dabei verwendet werden, gehen über simples Aufnehmen und Re­pro­du­zieren hinaus. Mit Hilfe von künst­lichen neuro­nalen Netzen ist das System nämlich nicht nur in der Lage sich innerhalb der trainier­ten Bereiche zu bewegen, sondern auch zwischen diesen hin- und her zu manö­vrieren und kollisions­freie Bewegungen für den Arm zu wählen. Diese Eigenschaft von Lern­verfahren nennt man <em>Genera­lisierungs­fähigkeit</em> und beschreibt die Fähigkeit, von wenigen Beispiel­daten ein generel­les Verhalten zu erlernen und dieses auf unbekannte Daten zu übertragen. In unserem Fall sind die Beispiel­daten die Trainings­daten, welche vom Nutzer zur Verfügung gestellt werden und im Video als grüne Punkte dargestell sind. Von diesen lernt der Roboter innerhalb weniger Minuten, beliebige Ziel­positionen anzufahren, ohne dabei mit den Hinder­nissen zu kollidieren. Und das nicht nur in den Trainings­berei­chen, sondern auch darüber hinaus <span id='easy-footnote-2-56' class='easy-footnote-margin-adjust'></span><span class='easy-footnote'><a href='https://botzeit.de/2013-08-06-mensch-und-roboter-hand-in-hand/#easy-footnote-bottom-2-56' title='Näheres zu den verwendeten Lernverfahren hier: Nordmann A., Emmerich C., Rüther S., Lemme A., Wrede S., Steil J.J.: &lt;a href=&quot;http://pub.uni-bielefeld.de/publication/2465826&quot;&gt;Teaching Nullspace Constraints in Physical Human-Robot Interaction using Reservoir Computing&lt;/a&gt;&lt;target ids=&quot;teaching-nullspace-constraints-in-physical-human-robot-interaction-using-reservoir-computing&quot; names=&quot;teaching\ nullspace\ constraints\ in\ physical\ human-robot\ interaction\ using\ reservoir\ computing&quot; refuri=&quot;http://pub.uni-bielefeld.de/publication/2465826&quot;&gt;&lt;/target&gt;, International Conference on Robotics and Automation, 2012'><sup>2</sup></a></span>.</p>
<p>Im nächsten Schritt, geht es nun darum, ihm die eigentliche Aufgabe beizubringen. Das kann z. B. eine Schweiß- oder Klebenaht sein und auf verschie­denen Wegen passieren, z. B. erneut mit Hilfe von <em>Kinesthetic Teaching</em>, also dem direkten Führen des Roboters. Da dieser sich aber in seiner Umgebung nun schon zu bewegen weiß, braucht der Nutzer nicht mehr alle Gelenke gleichzeitig zu kontrollieren. Es reicht, dass er ihn vorn am Greifer entlang der spezifischen Aufgabe führt und der Roboter assistiert ihm dabei sozusagen bei der Hindernis­vermei­dung, wie in dem Video ab Minute 2:10 zu sehen ist. Diese Phase nennen wir deshalb <em>Assisted Program­ming</em>.</p>
<p>Der Knackpunkt zur Verein­fachung dieser Inter­aktion liegt also in der Auf­teilung der Gesamt­aufgabe in zwei oder mehr aufeinander aufbauende Teil­schritte, um den Nutzer bzw. Mitarbeiter des Roboters nicht zu überfordern. Im letzten Jahr haben wir mit Unter­stützung der Firma Harting oben genannte Pilot­studie zum Thema <em>Kinesthetic Teaching</em> durchgeführt und die beschriebene Idee evaluiert. Dabei haben 48 Mitarbeiter, unterteilt in zwei Versuchs­grup­pen, mit dem System inter­agiert und versucht, dem Roboter obigen Parcours beizubringen. Die Ergeb­nisse der einen Gruppe waren bereits im ersten Video zu sehen. Von 24 Versuchs­teil­nehmern, haben es gerade einmal zwei Probanden geschafft, den Parcours kollisions­frei abzufahren; eine Probandin brach ihren Versuch nach einiger Zeit frustriert ab. Die zweite Versuchs­gruppe hingegen benutzte den assistier­ten Modus und zeigte signi­fi­kant bessere Ergebnisse. Diese Teilnehmer benötigten im Schnitt weniger als die Hälfte der Zeit, um den Roboter anzulernen, die bei­gebrach­ten Bewegungen waren signifikant näher an der Vorgabe und wesent­lich ruckel­freier.</p>
<p>Unsere Experimente und Studien legen nahe, dass moderne Robotik­systeme durchaus über die Flexi­bi­li­tät verfügen, regelmäßig und vor Ort an wechselnde Aufgaben angepasst zu werden, wie es zum Beispiel für Klein­serien­ferti­gung oder Pro­to­typen­bau notwendig ist. Dazu reicht die rein technische Flexi­bi­li­tät allerdings nicht aus, denn sie erfordert immer noch lange Einarbei­tung und Robotik­exper­ten. Erst in der Kombi­nation mit lernenden Systemen und einfachen Inter­aktions­schnitt­stel­len spielen solche Systeme ihr volles Potential aus.</p>
<transition></transition><a href="http://www.cor-lab.de/users/cemmeric">Christian Emmerich</a><target ids="christian-emmerich" names="christian\ emmerich" refuri="http://www.cor-lab.de/users/cemmeric"></target> und <a href="http://www.cor-lab.de/users/anordman">Arne Nordmann</a><target ids="arne-nordmann" names="arne\ nordmann" refuri="http://www.cor-lab.de/users/anordman"></target> <em>sind Doktoranden am Forschungs­institut für Kognition und Robotik der Universität Bielefeld und beschäftigen sich mit lernenden, interaktiven Robotik­systemen.</em></p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-08-06-mensch-und-roboter-hand-in-hand/">Mensch und Roboter Hand in Hand</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
<img src="https://vg08.met.vgwort.de/na/fa2a478b0ba64838a97bfd66077fa8f4" width="1" height="1" alt="" class="wpvgw-marker-image" loading="eager" data-no-lazy="1" referrerpolicy="no-referrer-when-downgrade" style="display:none;" />
]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/2013-08-06-mensch-und-roboter-hand-in-hand/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Umzug in den Forschungsbau „Interaktive Intelligente Systeme“</title>
		<link>https://botzeit.de/2013-07-17-umzug-forschungsbau-interaktive-intelligente-systeme/</link>
					<comments>https://botzeit.de/2013-07-17-umzug-forschungsbau-interaktive-intelligente-systeme/#respond</comments>
		
		<dc:creator><![CDATA[Arne]]></dc:creator>
		<pubDate>Wed, 17 Jul 2013 15:42:42 +0000</pubDate>
				<category><![CDATA[CoR-Lab]]></category>
		<category><![CDATA[baustelle]]></category>
		<category><![CDATA[campus bielefeld]]></category>
		<category><![CDATA[citec]]></category>
		<category><![CDATA[forschungsbau
interaktive intelligente systeme]]></category>
		<category><![CDATA[umzug]]></category>
		<category><![CDATA[wdr]]></category>
		<guid isPermaLink="false"></guid>

					<description><![CDATA[<p>So, es ist soweit, nach drei Jahren verlasse ich im mein bisheriges Büro im Hauptgebäude der Universität Bielefeld und ziehe etwa einen knappen Kilometer weiter auf den neuen Campus der Uni Bielefeld. Auf der sogenannten schlausten Baustelle Europas entsteht neben neuen Uni- und FH-Gebäuden auch der Forschungsbau „Interaktive Intelligente Systeme“, auf den man in Bielefeld [&#8230;]</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-07-17-umzug-forschungsbau-interaktive-intelligente-systeme/">Umzug in den Forschungsbau „Interaktive Intelligente Systeme“</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>So, es ist soweit, nach drei Jahren verlasse ich im mein bisheriges Büro im Hauptgebäude der Universität Bielefeld und ziehe etwa einen knappen Kilometer weiter auf den <a href="http://www.campus-bielefeld.de/">neuen Campus</a><target ids="neuen-campus" names="neuen\ campus" refuri="http://www.campus-bielefeld.de/"></target> der Uni Bielefeld.</p>
<p>Auf der sogenannten <em>schlausten Baustelle Europas</em> entsteht neben neuen Uni- und FH-Gebäuden auch der <a href="http://www.campus-bielefeld.de/universitaet-bielefeld/forschungsbau-interaktive-intelligente-systeme/">Forschungsbau „Interaktive Intelligente Systeme“</a><target ids="forschungsbau-interaktive-intelligente-systeme" names="forschungsbau\ „interaktive\ intelligente\ systeme“" refuri="http://www.campus-bielefeld.de/universitaet-bielefeld/forschungsbau-interaktive-intelligente-systeme/"></target>, auf den man in Bielefeld mächtig stolz ist. In seiner Empfehlung zur Förderung von Forschungsbauten an Hochschulen hatte der Wissenschaftsrat nämlich den Antrag zur Errichtung eines neuen Forschungsbaus „Interaktive Intelligente Systeme“ landesweit mit Platz 1 bewertet.</p>
<figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/fbiis.png" alt="/images/blog/fbiis.png" width="640" /><figcaption class="wp-caption-text">Forschungsbau „Interaktive Intelligente Systeme“ [Quelle: campus-bielefeld.de]</figcaption></figure>
<p>Neue Büros und neue große Labore, in die im Laufe der nächsten Tage ein Großteil des <a href="http://www.cit-ec.de/de">Exzellenzclusters Cognitive Interaction Technology</a><target ids="exzellenzclusters-cognitive-interaction-technology" names="exzellenzclusters\ cognitive\ interaction\ technology" refuri="http://www.cit-ec.de/de"></target> und der Bielefelder Robotik umziehen wird.</p>
<p><a href="http://www1.wdr.de/mediathek/video/sendungen/lokalzeit/lokalzeit-owl/videoroboterziehenum100_size-L.html?autostart=true#banner">Roboter ziehen um</a><target ids="roboter-ziehen-um" names="roboter\ ziehen\ um" refuri="http://www1.wdr.de/mediathek/video/sendungen/lokalzeit/lokalzeit-owl/videoroboterziehenum100_size-L.html?autostart=true#banner"></target>, ein Beitrag des WDR zum anstehenden Umzug.</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-07-17-umzug-forschungsbau-interaktive-intelligente-systeme/">Umzug in den Forschungsbau „Interaktive Intelligente Systeme“</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>

]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/2013-07-17-umzug-forschungsbau-interaktive-intelligente-systeme/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Ein Roboter-Rüssel lernt wie ein Baby</title>
		<link>https://botzeit.de/2013-05-26-ein-roboter-ruessel-lernt-wie-ein-baby/</link>
					<comments>https://botzeit.de/2013-05-26-ein-roboter-ruessel-lernt-wie-ein-baby/#respond</comments>
		
		<dc:creator><![CDATA[Arne]]></dc:creator>
		<pubDate>Sun, 26 May 2013 20:41:47 +0000</pubDate>
				<category><![CDATA[Artikel]]></category>
		<category><![CDATA[CoR-Lab]]></category>
		<category><![CDATA[Industrieroboter]]></category>
		<category><![CDATA[bewegungslernen]]></category>
		<category><![CDATA[bha]]></category>
		<category><![CDATA[bioligisch inspiriert]]></category>
		<category><![CDATA[bionic handling assistent]]></category>
		<category><![CDATA[explorieren]]></category>
		<category><![CDATA[festo]]></category>
		<category><![CDATA[goal babbling]]></category>
		<category><![CDATA[rüssel]]></category>
		<category><![CDATA[spiel]]></category>
		<guid isPermaLink="false"></guid>

					<description><![CDATA[<p>(this article is also available in English) Schon vor gut einem Jahr habe ich über Festos Bionic Handling Assistent (BHA) geschrieben, der damals frisch mit dem Deutschen Zukunftspreis gekrönt war. Wir haben einen von diesen Robotern bekommen und im April letzten Jahres haben wir bereits hier über unsere ersten Gehversuche und die Simulation des Roboters [&#8230;]</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-05-26-ein-roboter-ruessel-lernt-wie-ein-baby/">Ein Roboter-Rüssel lernt wie ein Baby</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p><em>(this article is also available <a href="https://planet-robotics.net/articles/how-infants-tell-us-how-to-control-the-bionic-handling-assistant/">in English</a>)</em></p>


<figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/bha.jpg" alt="/images/blog/bha.jpg" width="640" /><figcaption class="wp-caption-text">Festos Bionic Handling Assistent (BHA), inspiriert von einem Elefantenrüssel</figcaption></figure>
<p>Schon vor gut einem Jahr habe ich über Festos <a href="/2010_12_02-festo-bionic-arm/">Bionic Handling Assistent</a> (BHA) geschrieben, der damals frisch mit dem Deutschen Zukunftspreis gekrönt war. Wir haben einen von diesen Robotern bekommen und im April letzten Jahres haben wir bereits hier über <a href="/2012-04-17-simulation-des-festo-bionic-handling-assistant/">unsere ersten Gehversuche und die Simulation des Roboters</a> geschrieben. In diesem Artikel wird es nun darum gehen, wie wir von Babys gelernt haben, den Roboter zu kontrollieren.</p>
<p>Vor einigen Wochen wurde der BHA in der Sendung mit der Maus gezeigt. Wer das Video bis zu Minute 5:00 verfolgt, bekommt jedoch den Haken mit: so faszinierend der Roboter, insbesondere der BHA, auch ist … es ist ebenso kompliziert, ihn zu bewegen.</p>


<p><iframe title="Sendung mit der Maus - Festos BHA und Robotino" width="640" height="360" src="https://www.youtube.com/embed/06gl7jxRe_g?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>

Die Sendung mit der Maus &#8211; Festos BHA und Robotino

<p>In der Sendung und bei den meisten Vorführungen des Roboters steht daher jemand an einer Fernbedienung, oder öffnet und schließt händisch die Ventile, wie zu Beginn des Videos zu sehen. Von einem praktischen Einsatz, bei dem der Roboter eigenständig Aufgaben erledigt, ist das noch meilenweit entfernt.</p>
<p>Das liegt unter anderem daran, dass der Rüssel anders ist, als andere Roboter. Seine elastischen Bewegungen sind sehr schwierig und nur annähernd in mathematische Gleichungen zu fassen. Genau diese Bewegungsgleichungen benötigen aber die klassische Verfahren zur Robotersteuerung. Selbst <a href="/2012-04-17-simulation-des-festo-bionic-handling-assistant/">unser Modell</a> reicht dazu kaum aus, denn es kann keine Auskunft über die Reichweite der vielen Aktuatoren liefern. Diese müsste man sehr genau kennen um den Roboter (klassisch) ansteuern zu können: es ergeben sich schnell sehr große Fehler, wenn der Regler einem Aktuator einen Befehl gibt, der außerhalb seiner Reichweite liegt.</p>
<p>Was das Ganze noch schwieriger macht sind die Verzögerungen im Bewegungsverhalten: der Roboter bewegt sich mittels Luftkammern, die mit Druckluft aufgeblasen werden, die aber erst mit Verzögerung in den Kammern ankommt. Danach dauert es einige Zeit, mitunter bis zu 20 Sekunden, bis der Roboter seine neue Postur erreicht und sich stabilisiert hat. Diese Verzögerungen machen viele der sonst auf Robotern verwendeten Regler praktisch nutzlos, da sie schnelles und exaktes Roboterverhalten benötigen.</p>
<p>Schwierig … aber dafür gibt es maschinelle Lernverfahren, von denen es unzählige Methoden gibt, um Roboter Bewegungen lernen zu lassen. Zunächst muss man den Roboter seinen Bewegungsraum explorieren lassen, also ausprobieren welche resultierenden Bewegungen durch verschiedene Motorkommandos hervorgerufen werden. Da liegt allerdings schon die nächste Krux mit dem BHA, denn: es gibt sehr, sehr viele verschiedene Motorkommandos. Die Standard-Ansätze zum Lernen erfordern, sie alle auszuprobieren. Auf dem BHA benutzen wir aktuell neun Aktuatoren (die Luftkammern). Möchte man pro Aktuator nur 10 verschiedene Kommandos ausprobieren, ergeben sich bereits eine Milliarde (10^9) Kombinationen. Es würde Jahrzehnte dauern, würde man ernsthaft versuchen die alle auf dem Roboter zu explorieren. In der Praxis würde man daher eher zufällige Kommandos auswählen, und einfach irgendwann aufhören. Natürlich ändert das aber auch nichts daran, dass man eigentlich alle Kommandos ausprobieren müsste, damit das Bewegungslernen funktionieren kann.</p>
<p>Was tun?</p>
<p>Um diesem Problem zu begegnen, haben wir uns Inspiration aus der Biologie geholt. Die Aufgabe, den BHA-Rüssel kontrollieren zu lernen, ist nämlich in vielerlei Hinsicht der Aufgabe von Babys sehr ähnlich, in den ersten Lebensmonaten zu lernen, ihre eigenen Gliedmaßen zielgerichtet zu bewegen. Sie müssen dafür lernen, 600 Muskeln zu koordinieren, und sind dabei unglaublich effizient. Was ist also der Trick, den wir lernen müssen, wenn wir unsere Experimente mit dem BHA ähnlich effizient durchführen wollen?</p>
<p>Einen Hinweis liefert eine wegweisende Studie von Claes von Hosten aus dem Jahr 1982. Diese Studie konnte zeigen, dass selbst Neugeborene sich nicht ‐ wie es zuerst scheint ‐ zufällig bewegen, sondern von Beginn an zielgerichtet in Richtung bewegter Objekte greifen. Das folgende Bild zeigt dies unglaublicherweise bereits bei einem wenige Tage alten Baby:</p>
<figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/ronnqvist-hofsten-1994-infant-reach.jpeg" alt="/images/blog/ronnqvist-hofsten-1994-infant-reach.jpeg" width="640" /><figcaption class="wp-caption-text">Ein wenige Tage altes Neugeborenes zeigt bereits zielgerichtete Bewegung Richtung bewegter Objekte</figcaption></figure>
<p>Diese Erkenntnis wurde lange von der Machine Learning Community ignoriert, und sollte uns den entscheidenden Hinweis geben. Der von Matthias Rolf entwickelte Ansatz <em>Goal Babbling</em>, versucht nicht mehr durch zufällige Bewegungen den Bewegungsraum zu explorieren (Motor Babbling), sondern tut es von Anfang an zielgerichtet [Rolf et al., 2011]. Die Ergebnisse in Simulation waren vielversprechend, und haben gezeigt, dass dieser Ansatz auch mit 50 Freiheitsgraden zurecht kommt und nicht einmal mehr Zeit benötigt als für einen Roboter mit nur zwei Gelenken. Das ist ein entscheidender Vorteil gegenüber dem zufälligen Explorieren des Raumes, dessen Zeit zum Explorieren exponentiell mit der Anzahl der Dimensionen steigt. Mit <em>Goal Babbling</em> erhalten wir erste brauchbare Resultate bereits nach wenigen hundert Bewegungen, was sogar mit der Geschwindigkeit menschlichen Lernens vergleichbar ist [Sailer and Flanagan, 2005]. Wir können also offenbar wirklich mit der biologischen Vorlage das Lernen massiv beschleunigen! Zeit also, das biologisch-inspirierte Lernen auf dem biologisch inspirierten Roboter anzuwenden.</p>
<p>In unseren ersten Experimenten lernte der Roboter lediglich einfache Bewegungen des Greifers nach links und rechts. Nicht besonders nützlich, aber trotzdem beeindruckend als Live-Demonstration, denn der Roboter konnte innerhalb von zwei Minuten eigenständig lernen, seine neun Kammern zu koordinieren und diese Bewegung auszuführen. Schnell zeigte sich außerdem, wie gut das Verfahren mit Hardware-Defekten umgehen konnte, obwohl wir wahrlich nicht vor hatten, das herauszufinden. Eines Tages während der Experimente stellten wir jedoch ein kleines Loch in einer der Luftkammern fest, durch das Luft entwich: die Kammer konnte sich nicht mehr aufblasen. Schlimmer noch: die Kammer bewegte sich passiv wie eine mechanische Feder mit, was die Bewegung des gesamten BHA-Rüssels beeinflusste. Das Lernverfahren scherte das kaum. Es lernte einfach die anderen Aktuatoren entsprechend einzusetzen ‐ zusammen mit der passiven Bewegung des defekten Aktuators. Wohlgemerkt: wir mussten dem Verfahren dafür nicht mitteilen, dass etwas defekt war. So einfach kann es manchmal sein!</p>
<p>Eine ähnlich gute Entdeckung machten wir, als jemand den Roboter hin und her schob, während er grade explorierte und lernte. Durch das <em>Anschubsen</em> des Roboters konnte man ihm tatsächlich <em>unter die Arme greifen</em> und ihm zeigen, wie sinnvolle Bewegungen aussehen. Schiebt man ihn in die Richtung, in die er sich gerade bewegen will (also die <em>richtige</em> Richtung), spürt man bemerkenswerterweise kaum Widerstand vom Regler. Das Lernen geschieht in diesen Momenten so schnell, das der Roboter die Bewegung schon während des Führens in den gelernten Regler einarbeitet. Folglich reicht es aus, ihm die Bewegung ein einziges mal zu zeigen. Das Ganze ist überhaupt nur möglich, weil das ziel-gerichtete Explorieren und sehr schnelles kontinuierliches Lernen des <em>Goal Babblings</em> mit dem leichten, nachgiebigen BHA-Rüssel aufeinander treffen. Preis-gekrönte <span id='easy-footnote-1-64' class='easy-footnote-margin-adjust'></span><span class='easy-footnote'><a href='https://botzeit.de/2013-05-26-ein-roboter-ruessel-lernt-wie-ein-baby/#easy-footnote-bottom-1-64' title='&lt;a href=&quot;/2010_12_02-festo-bionic-arm/&quot;&gt;Zukunftspreis für Festos Bionischen Handling-Assistenten&lt;/a&gt;'><sup>1</sup></a></span>, biologisch inspirierte Hardware und preis-gekröntes <span id='easy-footnote-2-64' class='easy-footnote-margin-adjust'></span><span class='easy-footnote'><a href='https://botzeit.de/2013-05-26-ein-roboter-ruessel-lernt-wie-ein-baby/#easy-footnote-bottom-2-64' title='ICDL 2011 Best Student Paper Award'><sup>2</sup></a></span>, biologisch inspiriertes Lernen.</p>
<p>Bei dem gesamten Vorhaben leistete uns die vorher entwickelte Simulation des Bewegungsverhaltens gute Dienste. Auch wenn das Lernen und Explorieren auf dem echten Roboter stattfand, war die Simulation für allerhand Visualisierungen und zusätzliche Vorhersagen nützlich. So ließ sich nun die Bewegung des Roboters bezüglich selbst-generierter (und ausschließlich virtuell existierender) Ziele während des Lernens darstellen, und das Lernen auf dreidimensionale Ziele (anstatt nur links/rechts) erweitern. Wir konnten nun Einblick in das Lernen nehmen und live während des Lernens vorhersagen, wie gut der gerade lernende Regler verschiedene Positionen im Raum anfahren kann. Wir lernten dadurch, dass sich das Lernen auf dem echten Roboter ganz ähnlich <em>entfaltet</em> wie es unsere ersten Simulations-Experimenten 2010 bis Anfang 2011 (noch komplett ohne den BHA) gezeigt haben.</p>


<p><iframe title="Learning to reach with Festo&#039;s Bionic Handling Assistant" width="640" height="360" src="https://www.youtube.com/embed/aGFiMviI0VY?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>

Biologisch inspiriertes Lernen auf einem biologisch inspirierten Roboter

<p>Auf dem Rüssel liefert <em>Goal Babbling</em> schnell nützliche Ergebnisse. Nach dem Lernen lässt sich der Greifer mit ca. 2 cm Genauigkeit im Raum positionieren. Das ist nicht direkt perfekt, aber reicht in vielen Fällen schon aus, da der flexible <em>Fin-Gripper</em> Gegenstände großräumig mit seinen elastischen Fingern umschließt. Um den Rüssel so schnell und gezielt wie im Video bewegen zu können, darf man nicht auf Feedback (also Bewegungsantworten) vom Roboter warten, da das bei der Pneumatik zu lange dauert. Solch einen Regler, der ohne Feedback auskommt, liefert uns das Lernen. Dadurch <em>weiß</em> der Roboter sofort, wo er hin muss, anstatt sich langsam und Schritt für Schritt ans Ziel heranzutasten. Feedback ist dann lediglich eine zusätzliche Hilfe, die wie in der letzten Sequenz im Video zu sehen, die Genauigkeiten auf 6-8 mm erhöht. In Anbetracht der Tatsache, dass der Rüssel selbst permanent ca. 5 mm hin- und herschwankt, ist das beachtlich.</p>
<p>Erwähnenswert ist außerdem: das Ganze funktioniert nicht nur einmalig und im Video. Wir haben sehr ausgiebige Experimente dazu gemacht, und es funktionierte in jedem Durchgang. Das Lernen von links-/rechts-Bewegungen haben wir regelmäßig in Live-Demos gezeigt, in denen der Roboter binnen 1-3 Minuten seine Bewegungen lernt. Unter Anderem haben wir dies live auf der Automatica 2012 in München gezeigt, auf der das Live-Lernen mit dem Roboter und dem Objekt-Tracking aus dem Video vier Tage lang jeweils acht Stunden lief.</p>
<p>Die gute Nachricht lautet also: es funktioniert! Und es funktioniert <em>robust!</em></p>
<p>Festos Bionic Handling Assistant ist ein großartiger, spannender Roboter. Er ist nicht nur ein Hingucker durch seine Ähnlichkeit mit dem Elefantenrüssel, sondern seine Struktur macht auch den Umgang und die Interaktion mit ihm natürlich und sicher. Um ihn allerdings auf ähnliche Art und Weise kontrollieren zu können, wie wir es mit anderen Robotern tun, mussten wir einige Hürden überwinden: Ausgangspunkt war ein Roboter ganz ohne Modell und nur mit einfacher Druckregelung. Stück für Stück haben wir ein Vorwärtsmodell der Kinematik, Simulation und Längenregelung hinzugefügt. Der entscheidende Punkt war allerdings, maschinelles Lernen, vor Allem das durch Beobachtung von Babys inspirierte <em>Goal Babbling</em> einzusetzen, das erstaunlich schnell lernt, den Roboter zu kontrollieren.</p>
<p>Jetzt, da wir den Rüssel kontrollieren können, um Objekte zu greifen und zu bewegen: Für welche Aufgaben sollten wir ihn jetzt unbedingt einsetzen?</p>
<p><strong>Kontakt:</strong></p>
<p> </p>
<p>Dr.-Ing. Matthias Rolf, CoR-Lab &#8211; Bielefeld University, <a href="&#x6d;&#x61;&#x69;&#108;&#116;o:&#x6d;&#x72;&#x6f;&#108;&#102;&#64;c&#x6f;&#x72;&#x2d;&#108;&#97;b&#46;&#x75;&#x6e;&#x69;&#45;&#98;ie&#x6c;&#x65;&#x66;&#101;&#108;d&#46;&#x64;&#x65;">&#109;r&#x6f;l&#x66;&#64;&#x63;o&#x72;-&#x6c;a&#x62;&#46;&#x75;&#110;&#x69;&#45;&#x62;&#105;&#x65;&#108;&#x65;&#102;&#x65;&#108;d&#x2e;d&#x65;</a>, Emergent Robotics Lab, Osaka University</p>
<p>Prof. Jochen Steil, CoR-Lab &#8211; Bielefeld University, <a href="mai&#108;&#116;&#111;&#x3a;&#x6a;&#x73;&#x74;&#x65;&#x69;l&#64;c&#111;&#114;&#45;&#108;&#x61;&#x62;&#x2e;&#x75;&#x6e;&#x69;-bi&#101;&#108;&#101;&#x66;&#x65;&#x6c;&#x64;&#x2e;&#x64;e">j&#115;&#x74;&#x65;i&#108;&#x40;&#x63;o&#114;&#45;&#x6c;&#x61;b&#46;&#x75;&#x6e;i&#45;&#x62;&#x69;e&#108;&#101;&#x66;&#x65;l&#100;&#x2e;&#x64;e</a></p>
<p> </p><p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-05-26-ein-roboter-ruessel-lernt-wie-ein-baby/">Ein Roboter-Rüssel lernt wie ein Baby</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
<img src="https://vg08.met.vgwort.de/na/23e4ada0d6794094b0f3e00a0cc09817" width="1" height="1" alt="" class="wpvgw-marker-image" loading="eager" data-no-lazy="1" referrerpolicy="no-referrer-when-downgrade" style="display:none;" />
]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/2013-05-26-ein-roboter-ruessel-lernt-wie-ein-baby/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>DGR-Tage 2013 in München</title>
		<link>https://botzeit.de/2013-05-21-dgr-tage-2013-in-muenchen/</link>
					<comments>https://botzeit.de/2013-05-21-dgr-tage-2013-in-muenchen/#respond</comments>
		
		<dc:creator><![CDATA[Arne]]></dc:creator>
		<pubDate>Tue, 21 May 2013 09:29:30 +0000</pubDate>
				<category><![CDATA[Autonome Roboter]]></category>
		<category><![CDATA[Autonomes Fahren]]></category>
		<category><![CDATA[CoR-Lab]]></category>
		<category><![CDATA[Humanoide]]></category>
		<category><![CDATA[Industrieroboter]]></category>
		<category><![CDATA[Mobile Roboter]]></category>
		<category><![CDATA[deutsche gesellschaft für robotik]]></category>
		<category><![CDATA[dgr]]></category>
		<category><![CDATA[münchen]]></category>
		<category><![CDATA[oktober 2013]]></category>
		<guid isPermaLink="false"></guid>

					<description><![CDATA[<p>Vom 7.-8. Oktober werden die dritten DGR-Tage der Deutschen Gesellschaft für Robotik in München stattfinden. Die Veranstaltung richtet sich wie in jedem Jahr primär an Doktoranden und junge Wissenschaftler der Robotik, und ist eine tolle nationale Bühne, um seine Arbeit vorzustellen und zu diskutieren: „The purpose of the DGR-Days is to foster the scientific exchange [&#8230;]</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-05-21-dgr-tage-2013-in-muenchen/">DGR-Tage 2013 in München</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Vom 7.-8. Oktober werden die dritten DGR-Tage der Deutschen Gesellschaft für Robotik in München stattfinden. Die Veranstaltung richtet sich wie in jedem Jahr primär an Doktoranden und junge Wissenschaftler der Robotik, und ist eine tolle nationale Bühne, um seine Arbeit vorzustellen und zu diskutieren:</p>
<p>„The purpose of the DGR-Days is to foster the scientific exchange among robotics researchers in Germany, in particular young researchers and doctoral students. The organizers are working on the further details which will be posted to the webpage soon.“</p>
<p><a href="http://dgr2013.lsr.ei.tum.de/">DGR-Tage 2013 in München</a><target ids="dgr-tage-2013-in-munchen" names="dgr-tage\ 2013\ in\ münchen" refuri="http://dgr2013.lsr.ei.tum.de/"></target></p>
<p>Weitersagen!</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-05-21-dgr-tage-2013-in-muenchen/">DGR-Tage 2013 in München</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>

]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/2013-05-21-dgr-tage-2013-in-muenchen/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Delivery at Aircraft</title>
		<link>https://botzeit.de/2013-03-28-delivery-at-aircraft/</link>
					<comments>https://botzeit.de/2013-03-28-delivery-at-aircraft/#respond</comments>
		
		<dc:creator><![CDATA[Arne]]></dc:creator>
		<pubDate>Thu, 28 Mar 2013 19:55:46 +0000</pubDate>
				<category><![CDATA[CoR-Lab]]></category>
		<category><![CDATA[Humanoide]]></category>
		<category><![CDATA[delivery at aircraft]]></category>
		<category><![CDATA[flugzeug]]></category>
		<category><![CDATA[nao]]></category>
		<category><![CDATA[transport]]></category>
		<guid isPermaLink="false"></guid>

					<description><![CDATA[<p>… fliegt natürlich nicht so im Flugzeug, sondern eigentlich in seiner eigenen Transportbox.</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-03-28-delivery-at-aircraft/">Delivery at Aircraft</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/nao-flugzeug.jpg" alt="/images/blog/nao-flugzeug.jpg" width="640" /><figcaption class="wp-caption-text">Der Nao …</figcaption></figure></p>
<p><em>… fliegt natürlich nicht so im Flugzeug, sondern eigentlich in seiner eigenen Transportbox.</em></p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-03-28-delivery-at-aircraft/">Delivery at Aircraft</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>

]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/2013-03-28-delivery-at-aircraft/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Programmhinweis für heute: „Die Roboter kommen“</title>
		<link>https://botzeit.de/2013-02-05-programmhinweis-die-roboter-kommen/</link>
					<comments>https://botzeit.de/2013-02-05-programmhinweis-die-roboter-kommen/#respond</comments>
		
		<dc:creator><![CDATA[Arne]]></dc:creator>
		<pubDate>Tue, 05 Feb 2013 13:10:42 +0000</pubDate>
				<category><![CDATA[Autonome Roboter]]></category>
		<category><![CDATA[CoR-Lab]]></category>
		<category><![CDATA[Humanoide]]></category>
		<category><![CDATA[...]]></category>
		<category><![CDATA[planet wissen]]></category>
		<category><![CDATA[tv]]></category>
		<category><![CDATA[wdr]]></category>
		<guid isPermaLink="false"></guid>

					<description><![CDATA[<p>Ein kleiner Programmhinweis: Gleich, heute um 15:00 Uhr läuft im WDR die Sendung Planet Wissen – „Die Roboter kommen“. Zu Gast sind unter Anderem Dr. Alin Olimpiu Albu-Schäffer vom Deutschen Zentrum für Luft- und Raumfahrt und Prof. Jochen Steil, vom CoR-Lab in Bielefeld. Es wird eingie Roboter zu sehen geben und sicher interessant. Update: Jetzt [&#8230;]</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-02-05-programmhinweis-die-roboter-kommen/">Programmhinweis für heute: „Die Roboter kommen“</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Ein kleiner Programmhinweis: Gleich, <strong>heute um 15:00 Uhr</strong> läuft <strong>im WDR</strong> die Sendung <em>Planet Wissen</em> – <a href="http://www.planet-wissen.de/sendungen/2013/02/05_roboter.jsp">„Die Roboter kommen“</a>.</p>
<p>Zu Gast sind unter Anderem Dr. Alin Olimpiu Albu-Schäffer vom Deutschen Zentrum für Luft- und Raumfahrt und Prof. Jochen Steil, vom CoR-Lab in Bielefeld.</p>
<p>Es wird eingie Roboter zu sehen geben und sicher interessant.</p>
<p><strong>Update:</strong> <em>Jetzt auch in der Mediathek:</em> <a href="http://www.wdr.de/mediathek/html/regional/2013/02/05/planet-wissen.xml">Mediathek: Die Roboter kommen</a></p>
<p><target ids="die-roboter-kommen" names="„die\ roboter\ kommen“" refuri="http://www.planet-wissen.de/sendungen/2013/02/05_roboter.jsp"></target><target ids="mediathek-die-roboter-kommen" names="mediathek:\ die\ roboter\ kommen" refuri="http://www.wdr.de/mediathek/html/regional/2013/02/05/planet-wissen.xml"></target></p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2013-02-05-programmhinweis-die-roboter-kommen/">Programmhinweis für heute: „Die Roboter kommen“</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>

]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/2013-02-05-programmhinweis-die-roboter-kommen/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Roboter im Dortmunder Tatort</title>
		<link>https://botzeit.de/2012-09-22-dortmunder-tatort-mit-bielefelder-roboter/</link>
					<comments>https://botzeit.de/2012-09-22-dortmunder-tatort-mit-bielefelder-roboter/#respond</comments>
		
		<dc:creator><![CDATA[Arne]]></dc:creator>
		<pubDate>Sat, 22 Sep 2012 21:49:24 +0000</pubDate>
				<category><![CDATA[CoR-Lab]]></category>
		<category><![CDATA[Humanoide]]></category>
		<category><![CDATA[alter ego]]></category>
		<category><![CDATA[ard]]></category>
		<category><![CDATA[coworker]]></category>
		<category><![CDATA[dortmund]]></category>
		<category><![CDATA[dreharbeiten]]></category>
		<category><![CDATA[flobi]]></category>
		<category><![CDATA[roomba]]></category>
		<category><![CDATA[tatort]]></category>
		<guid isPermaLink="false"></guid>

					<description><![CDATA[<p>Am morgigen Sonntagabend läuft die Premiere des Dortmunder Tatort Alter Ego (ARD, Sonntag, 20.15 Uhr), der schon vor Wochen an den Bielefelder Robotik-Instituten CoR-Lab und CITEC seine Schatten voraus warf. Der Grund: Die Spurensuche führt die Kommissare im Tatort in ein Technologiezentrum spielt, in dem an menschenähnlichen Robotern geforscht wird. Für den Spielfilm wurde das [&#8230;]</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2012-09-22-dortmunder-tatort-mit-bielefelder-roboter/">Roboter im Dortmunder Tatort</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Am morgigen Sonntagabend läuft die Premiere des Dortmunder Tatort <em>Alter Ego</em> (ARD, Sonntag, 20.15 Uhr), der schon vor Wochen an den Bielefelder Robotik-Instituten <a href="http://www.cor-lab.de">CoR-Lab</a> und <a href="http://www.cit-ec.de">CITEC</a> seine Schatten voraus warf.</p>
<p>Der Grund: Die Spurensuche führt die Kommissare im Tatort in ein Technologiezentrum spielt, in dem an menschenähnlichen Robotern geforscht wird. Für den Spielfilm wurde das Technologiezentrum mit den zwei Bielefelder Robotern <a href="/2010_08_08-robotcub-icub/">iCub</a> und <a href="https://www.youtube.com/watch?v=dG7kNhxrOG8">Flobi</a> ausgestattet wurde. Die Ermittlerin befragt darin eine Tat-Zeugin, während ihr Kollege mit unserem iCub spielt.</p>
<p>Der Roboter wurde dazu so programmiert, dass er von einem Schauspieler gesteuert werden konnte, dessen Bewegungen mit Infrarotsensorik erfasst und gleichzeitig vom iCub nachgespielt werden.</p>
<p><figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/tatort-icub.jpg" alt="/images/blog/tatort-icub.jpg" width="640" /><figcaption class="wp-caption-text">Vorbereitung einer Filmszene mit dem Bielefelder iCub</figcaption></figure></p>
<p>Das <em>Humanoids Lab</em> am <a href="http://www.cor-lab.de">CoR-Lab</a>, in dem der iCub normalerweise steht, ist nur wenige Türen von meinem Büro entfernt und auch wenn ich nicht selbst an den Vorbereitungen beteiligt war, erinnere ich mich an so manchen langen Abend, an dem im Lab die Vorbereitungen liefen. Schon Tage vor dem Dreh wurden die Roboter für den Auftritt vorbereitet und programmiert, denn die Anforderungen für einen Filmdreh sind andere als die der täglichen Forschungsarbeit am Institut, insbesondere die neue Umgebung mit vielen Menschen, viel Hektik, neuen Anforderungen und komplett anderen Lichtverhältnissen als im gewohnten Labor. Die Kollegen Florian Lier, Simon Schulz, Lars Schillingmann und Frank Hegel haben dann auch den Roboter nicht nur selbst zum Drehort gebracht, sondern auch den ganzen Drehtag vor Ort betreut.</p>
<p>Leider ist das zahlreiche Filmmaterial mit dem Roboter letztendlich stark gekürzt worden, auf etwa 5 Sekunden. Spaß hat es allen Beteiligten aber wohl trotzdem gemacht und war für die Bielefelder Robotik auf jeden Fall eine spannende Erfahrung.</p>
<p><bullet_list bullet="*"><list_item>
<p>Neue Westfälische: <a href="http://www.nw-news.de/lokale_news/bielefeld/bielefeld/7050910_Ein_Roboter_als_Fernsehstar.html">Ein Roboter als Fernsehstar</a></p>
</list_item><list_item>
<p>Uni Bielefeld: <a href="http://ekvv.uni-bielefeld.de/blog/uniaktuell/entry/neuer_dortmund_tatort_mit_bielefelder1">Neuer Dortmund-Tatort mit Bielefelder Robotern</a></p>
</list_item></bullet_list><target ids="icub" names="icub" refuri="/blog/2010_08_08-robotcub-icub.html"></target><target ids="neuer-dortmund-tatort-mit-bielefelder-robotern" names="neuer\ dortmund-tatort\ mit\ bielefelder\ robotern" refuri="http://ekvv.uni-bielefeld.de/blog/uniaktuell/entry/neuer_dortmund_tatort_mit_bielefelder1"></target><target ids="ein-roboter-als-fernsehstar" names="ein\ roboter\ als\ fernsehstar" refuri="http://www.nw-news.de/lokale_news/bielefeld/bielefeld/7050910_Ein_Roboter_als_Fernsehstar.html"></target><target ids="cor-lab" names="cor-lab" refuri="http://www.cor-lab.de"></target><target ids="citec" names="citec" refuri="http://www.cit-ec.de"></target><target ids="flobi" names="flobi" refuri="https://www.youtube.com/watch?v=dG7kNhxrOG8"></target></p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2012-09-22-dortmunder-tatort-mit-bielefelder-roboter/">Roboter im Dortmunder Tatort</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
<img src="https://vg08.met.vgwort.de/na/1f1021ea5d4942fdbd7729d006dd8e1c" width="1" height="1" alt="" class="wpvgw-marker-image" loading="eager" data-no-lazy="1" referrerpolicy="no-referrer-when-downgrade" style="display:none;" />
]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/2012-09-22-dortmunder-tatort-mit-bielefelder-roboter/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>DGR-Tage 2012</title>
		<link>https://botzeit.de/2012-09-07-dgr-days/</link>
					<comments>https://botzeit.de/2012-09-07-dgr-days/#respond</comments>
		
		<dc:creator><![CDATA[Arne]]></dc:creator>
		<pubDate>Fri, 07 Sep 2012 20:57:31 +0000</pubDate>
				<category><![CDATA[CoR-Lab]]></category>
		<category><![CDATA[deutschen gesellschaft für robotik]]></category>
		<category><![CDATA[doktoranden]]></category>
		<category><![CDATA[echse]]></category>
		<category><![CDATA[explorieren]]></category>
		<category><![CDATA[pflege]]></category>
		<guid isPermaLink="false"></guid>

					<description><![CDATA[<p>Heute sind die DGR-Tage 2012, das zweite Jahrestreffen der Deutschen Gesellschaft für Robotik, zu Ende gegangen. Dieses Mal wurden sie gemeinsam von Olliver Brock, Marc Toussaint und Ivo Boblan an der TU Berlin ausgerichtet. Das Jahrestreffen teilt sein hehres Ziel mit dem von botzeit propagierten Robotik-Stammtisch, allerdings deutschlandweit: Nämlich den Austausch der deutschen Ro­bo­tik-Forschungslandschaft, insbesondere [&#8230;]</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2012-09-07-dgr-days/">DGR-Tage 2012</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Heute sind die <a href="http://dgr.robotics.tu-berlin.de">DGR-Tage 2012</a>, das zweite Jahrestreffen der <a href="http://www.robotik-deutschland.de">Deutschen Gesellschaft für Robotik</a>, zu Ende gegangen. Dieses Mal wurden sie gemeinsam von <a href="/017_oliver-brock-folgt-ruf-nach-berlin/">Olliver Brock</a>, Marc Toussaint und Ivo Boblan an der TU Berlin ausgerichtet. Das Jahrestreffen teilt sein hehres Ziel mit dem von botzeit propagierten <a href="/Robotik-Stammtisch-NRW.html">Robotik-Stammtisch</a>, allerdings deutschlandweit: Nämlich den Austausch der deutschen Ro­bo­tik-Forschungslandschaft, insbesondere der Doktoranden, zu fördern.</p>
<p>Dementsprechend waren am ersten der beiden Veranstaltungstage zwanzig Dokto­ran­den, dieses Mal auch ich, eingeladen, ihre Projekte und ihre Forschung vorzustellen. Viele interessante Projekte, aufgeteilt nach den For­schungs­fel­dern <em>Perception</em> (Umgebungs­wahr­nehmung), <em>Representations and Learning</em> (Umgebungs­repre­sen­tation und maschi­nel­les Lernen), <em>Manipulation and Motion Planning</em> (Greifen und Be­we­gungs­pla­nung), <em>Robot Programming</em> und <em>Flying, Swimming, Rolling</em>.</p>
<p>Der Vorträge des zweiten Veranstaltungs­tags wurde mit Vor­trägen verwandter Diszi­pli­nen und den deutschen <em>Big Players</em> der Robotik­szene gefüllt: u.A. Michael Beetz, Helge Ritter und Wolfram Burgard (dem sich der <a href="/001_leibnizfuerburgard/">erste Beitrag von botzeit</a> widmete).</p>
<p>Die Teilnahme an dieser Veran­staltung (die es auch im nächsten Jahr wieder geben soll), kann ich jedem nur empfehlen, der sich für die deutsche Robotik-Forschungs­land­schaft interessiert. Hier zeigen sich die deutsche Unis und Robotik­institute und zeigen Aus­schnitte aus ihren aktuellen Forschungs­pro­jekten. Dem ab­schlie­ßenden Aufruf der Veran­stalter, die <a href="https://lists.ira.uni-karlsruhe.de/mailman/listinfo/dgr">Mailingliste der DGR</a> zur Anmeldung zu empfehlen, die über diese und ähnliche zukünf­tige Veran­stal­tungen infor­miert, kann ich mich deswegen nur anschließen.</p>
<p><target ids="dgr-tage-2012" names="dgr-tage\ 2012" refuri="http://dgr.robotics.tu-berlin.de"></target><target ids="deutschen-gesellschaft-fur-robotik" names="deutschen\ gesellschaft\ für\ robotik" refuri="http://www.robotik-deutschland.de"></target><target ids="olliver-brock" names="olliver\ brock" refuri="/blog/017_oliver-brock-folgt-ruf-nach-berlin.html"></target><target ids="robotik-stammtisch" names="robotik-stammtisch" refuri="/Robotik-Stammtisch-NRW.html"></target><target ids="erste-beitrag-von-botzeit" names="erste\ beitrag\ von\ botzeit" refuri="/blog/001_leibnizfuerburgard.html"></target><target ids="mailingliste-der-dgr" names="mailingliste\ der\ dgr" refuri="https://lists.ira.uni-karlsruhe.de/mailman/listinfo/dgr"></target></p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2012-09-07-dgr-days/">DGR-Tage 2012</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>

]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/2012-09-07-dgr-days/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Simulation des Bionischen Handling-Assistenten</title>
		<link>https://botzeit.de/2012-04-17-simulation-des-festo-bionic-handling-assistant/</link>
					<comments>https://botzeit.de/2012-04-17-simulation-des-festo-bionic-handling-assistant/#respond</comments>
		
		<dc:creator><![CDATA[Arne]]></dc:creator>
		<pubDate>Tue, 17 Apr 2012 11:27:22 +0000</pubDate>
				<category><![CDATA[Artikel]]></category>
		<category><![CDATA[CoR-Lab]]></category>
		<category><![CDATA[Industrieroboter]]></category>
		<category><![CDATA[bionic handling assistant]]></category>
		<category><![CDATA[bionischer handling-assistent]]></category>
		<category><![CDATA[continuum kinematics]]></category>
		<category><![CDATA[elefantenrüssel]]></category>
		<category><![CDATA[festo]]></category>
		<category><![CDATA[fin gripper]]></category>
		<category><![CDATA[forschungspreis]]></category>
		<category><![CDATA[goal babbling]]></category>
		<category><![CDATA[greifer]]></category>
		<category><![CDATA[ijspeert]]></category>
		<category><![CDATA[mailingliste]]></category>
		<category><![CDATA[spiel]]></category>
		<guid isPermaLink="false"></guid>

					<description><![CDATA[<p>(this article is also available in English) Im April 2010 wurde der Bionische Handling-Assistent (BHA) von Festo auf der Hannover Messe der Öffent­lich­keit vorgestellt. In den fol­gen­den Mona­ten sah dieser bio­lo­gisch inspirierte Roboter­arm zu recht eine große Medien­präsenz und wurde mit zahl­reichen Prei­sen, unter anderem dem Deutschen Forschungspreis 2010, aus­ge­zeich­net. Im Februar 2011 bekamen wir [&#8230;]</p>
<p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2012-04-17-simulation-des-festo-bionic-handling-assistant/">Simulation des Bionischen Handling-Assistenten</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p><em>(this article is also available <a href="https://planet-robotics.net/articles/simulation-of-the-bionic-handling-assistant/">in English</a>)</em></p>


<p>Im April 2010 wurde der <a href="http://www.festo.com/de/bha">Bionische Handling-Assistent</a> (BHA) von Festo auf der Hannover Messe der Öffent­lich­keit vorgestellt. In den fol­gen­den Mona­ten sah dieser bio­lo­gisch inspirierte Roboter­arm zu recht eine große Medien­präsenz und wurde mit zahl­reichen Prei­sen, unter anderem dem <a href="/2010_12_02-festo-bionic-arm/">Deutschen Forschungspreis 2010</a>, aus­ge­zeich­net. Im Februar 2011 bekamen wir dann unseren eigenen BHA, voller Vor­freude, denn wir wussten, dass niemand bislang mit dem BHA tun konnte, was wir mit ihm vor­hat­ten: <em>ihn zu kon­trol­lieren.</em> <span id='easy-footnote-1-104' class='easy-footnote-margin-adjust'></span><span class='easy-footnote'><a href='https://botzeit.de/2012-04-17-simulation-des-festo-bionic-handling-assistant/#easy-footnote-bottom-1-104' title='„Kontrollieren“ im regelungstechnischen Sinne. Hier also gemeint:&lt;br /&gt;Regeln der Endeffektor-Position.'><sup>1</sup></a></span></p>
<p>Die Struktur und Funk­tions­weise des BHA ist inspi­riert von einem Elefan­ten­rüs­sel, wie in fol­gen­der Ab­bildung un­schwer zu erken­nen ist. Der Arm wird im Sinne des <em>Rapid Proto­typings</em> im 3D-Drucker <em>gedruckt</em>. Als Material wird <a href="https://de.wikipedia.org/wiki/Polyamide">Polyamid</a> ver­wen­det, wodurch der gesamte Arm leicht-gewich­tig und durch­gängig ver­form­bar wird: Im Wesent­lichen besteht der BHA also aus Plastik und einer Menge Luft. Bewegt wird der Arm von drei­zehn pneu­ma­ti­schen Ven­tilen, die die drei­zehn Kammern des Robo­ters mit Luft füllen oder ent­leeren. Dies wiederum verbiegt, beugt und streckt die kom­plet­te Struktur.</p>
<figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/bha.jpg" alt="/images/blog/bha.jpg" width="640" /><figcaption class="wp-caption-text">Von einem Elefantenrüssel inspiriert</figcaption></figure>
<p>Festo hat mit dem BHA die Vision eines leichten, frei­beweg­lichen <em>Dritte-Hand-Systems</em>, das den Men­schen bei seiner Arbeit unter­stützen kann. Dank seiner struk­tu­rel­len Nach­giebig­keit (<a href="/2010_11_03-compliance-und-interaktion/">Compliance</a>) ist der Arm im Kontakt mit Menschen und seiner Umgebung natur­gemäß sicher, was die Mög­lich­keiten von direkter Zu­sam­men­arbeit von Mensch und Roboter eröffnet. In in­dustriel­lem Kontext kann der BHA in Fertigungs­pro­zes­sen ein­ge­setzt werden, z.B. um mit empfind­lichen Gütern wie z.B. Lebens­mit­teln zu arbeiten.</p>
<p>Als wir uns ent­schlos­sen haben, Festos Bio­nischen Handling-Assisten­ten zu erwer­ben, wussten wir, dass wenige der klas­si­schen und bekannten Ver­fahren mit diesem Roboter funktio­nie­ren würden. Trotz­dem war über­raschend, dass der Roboter <em>ohne jeg­liche Software</em> aus­ge­lie­fert wurde.</p>
<p>Keine Software.</p>
<p><em>Nichts.</em></p>
<p>Noch bis vor einem Jahr konnten wir mit dem BHA nicht viel mehr tun, als von Hand die pneu­ma­ti­schen Ven­tile zu öffnen und zu schließen, um damit entweder vol­len Druck oder gar keinen Druck in die Kam­mern zu geben. Auch damit waren die Be­we­gun­gen des Robo­ters absolut fas­zi­nie­rend und wir hatten großen Spaß, aber ernst­hafte An­wen­dungen waren damit natür­lich noch nicht möglich. Wie von Festo zugesagt, bekamen wir dann vor fast genau einem Jahr elektro­nische Ventile, mit denen wir (mehr oder weniger präzise) den Druck in den Kammern auto­ma­tisch vor­geben konnten. Nicht mehr und nicht weniger: den Druck kon­trol­lie­ren.</p>
<p>Um es einmal vorsichtig zu sagen: Der Schritt von dieser Druck­re­ge­lung zu einer ernst­haften An­wendung mit dem BHA ist <em>groß</em>!</p>
<p>Das tat­säch­liche Werkzeug, dass man mit dem BHA kon­trol­lieren will, ist der so­ge­nan­nte <a href="http://www.festo.com/cms/en_corp/9779.htm">Fin Gripper</a> am Ende des Arms. Diesen Greifer zu al­ler­dings genau zu po­si­tio­nie­ren setzt zu­al­ler­erst voraus, die Postur des Arms prä­zise bestimmen zu können. Den Druck in den ein­zel­nen Kam­mern zu kennen, reicht dafür bei weitem nicht aus; dass dies zum Scheitern ver­ur­teilt sein würde, diese Er­fah­rung hatten wir bereits mir anderen Robo­tik­platt­for­men gemacht: Zehn Mal den gleichen Druck auf einen pneu­ma­ti­schen Roboter zu geben, ergibt im Regel­fall zehn ver­schie­dene Posturen des Robo­ters. Reibung, Reibung, Hyste­rese-Effekte und Nicht-Stationaritäten ver­ändern das Ergeb­nis von Mal zu Mal.</p>
<figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/bha-marked.jpeg" alt="/images/blog/bha-marked.jpeg" width="640" /><figcaption class="wp-caption-text">Die kinematische Struktur des BHA</figcaption></figure>
<p>Um diesen Problemen zu begegnen, besitzt der BHA Längen­sen­soren (Kabel-Poten­tio­meter), um an der Außen­seite des Arms die Streckung der einzel­nen Kam­mern zu messen (siehe obige Abbildung). Natür­lich wollten wir diese Länge nicht nur <em>kennen</em>, sondern auch <em>kontrol­lieren</em> können. Das ist theore­tisch mit klas­si­scher (PID-)Regel­technik möglich, aber funktio­niert auf diese Weise nur sehr schlecht. Um dieses Ver­hal­ten zu verbes­sern, könnte man nun ver­suchen, all das Wissen über den BHA in eine aus­ge­feil­tere Regelungs­technik zu stecken. Wenn man dieses Wissen bloß hätte …</p>
<p>Eine kurze Liste von Dingen, die man über den BHA <em>nicht</em> weiß:</p>
<p> </p>
<p>Das präzise Verhältnis zwischen Druck in den Kammern und der geo­me­trischen Postur im Ruhe­punkt (im Equi­li­brium)</p>
<p>Jegliche Art von Dynamik (nicht nur der Pneu­ma­tik selbst, sondern auch des sehr viel lang­sa­me­ren Zusam­men­spiels zwischen der Pneu­matik und Geo­me­trie)</p>
<p> </p>
<p>Welche Länge des Arms bzw. der einzelnen Kam­mern ist über­haupt mög­lich? Wo liegen die Gren­zen?</p>
<p> </p>
<p>Und nicht zuletzt: Wie genau ist das Zusam­men­spiel der obigen Aspekte zwi­schen den einzel­nen Kam­mern. Denn: Es be­steht ein <em>starker</em> Zusam­men­hang!</p>
<p> </p>
<p>Alles zusammen eine große Heraus­for­de­rung … aber nicht un­mög­lich. An­ge­nom­men also, die Länge des Aktu­a­tors lässt sich mes­sen und kontrol­lieren. Um nun die End­ef­fektor-Posi­tion (die Posi­tion des Greifers) zu kon­trol­lieren … <em>muss man die aktu­el­le End­ef­fek­tor-Posi­tion kennen!</em></p>
<p>Die Endeffektor-Position anhand der Geo­metrie des Robo­ters und der Stel­lung der Aktua­toren zu er­rech­nen, nennt sich <em>Vor­wärts-Kine­ma­tik</em> und ist für handels­übliche Robo­ter kein großes Pro­blem, son­dern ein­fache Tri­go­no­metrie. Der BHA gehört allerdings zu einer anderen Klasse von Morpho­lo­gien, genannt <strong>Conti­nuum Kine­ma­tics</strong> (also in etwa: <em>konti­nu­ier­liche Kine­ma­tik</em>). Dank seiner mecha­ni­schen Flexi­bi­li­tät besitzt dieser Robo­ter­arm <em>unend­lich viele</em> Frei­heits­grade, da jeder Bereich des Robo­ters unter­schied­lich gebo­gen und ge­streckt sein kann. Unend­lich viele Frei­heits­grade kön­nen weder mit Sen­so­ren ge­mes­sen noch berech­net werden.</p>
<p>Als wir unsere Arbeit mit dem BHA be­gon­nen haben, planten wir nicht, die kom­pli­zier­te Kine­ma­tik des BHA zu simu­lie­ren. Da wir uns im Kontext des BHA haupt­säch­lich mit Maschi­nel­lem Ler­nen be­schäfti­gen, wollten wir die End­ef­fek­tor-Posi­tion schlicht <em>messen</em>, um sie be­nut­zen zu können (tun wir auch). Dass wir trotzdem eine Simu­la­tion benö­ti­gen würden, stellte sich heraus, als wir Schwierig­kei­ten in der <em>Vi­suali­sie­rung</em> bekamen. Wir wollten nämlich dar­stel­len, wie die räum­lichen Koor­di­na­ten mit den Be­we­gun­gen des BHA zu­sam­men­hän­gen.</p>
<p>Da Visualisierung Kenntnis der Kinematik voraus­setzt, began­nen wir, sie an­zu­nähern. Selbst wenn sich die Beugung und Streckung von unend­lich vielen Frei­heits­graden nicht berech­nen lässt, so lassen sich doch durch die Längen­senso­ren einige An­nah­men zur Beugung des Arms tref­fen. Die einfach­ste Art der Beugung ist eine kreis­förmige; im drei-dimen­sio­nalen Fall ent­spricht dies einem Torus:</p>
<figure style="width: 640px" class="wp-caption aligncenter"><img class="alignnone size-full wp-image-25" src="/wp-content/uploads/2020/01/torus-model.jpg" alt="/images/blog/torus-model.jpg" width="640" /><figcaption class="wp-caption-text">Torus-Modell zur Annäherung der Beugung des BHA</figcaption></figure>
<p>Das Bild zeigt, wie sich ein Segment mit drei Aktua­toren (in der Ab­bil­dung als graue Röhren dar­ge­stellt) entlang eines Torus verbiegt. Diese Geometrie kann mit drei Parametern beschrieben werden: zwei Winkel (in der Abbildung blau dargestellt) und der Radius des Torus (in der Abbildung rot). Diese drei Parameter können anhand der gemessenen Längen an der Außenseite der BHA-Segmente rekonstruiert werden. Sobald diese Parameter bestimmt sind, ist das Berechnen der Vorwärtskinematik und damit die Bestimmung der Endeffektor-Position (also der Position des Greifers) einfach. Ein Problem tritt lediglich im Grenzfall auf, wenn alle Längen gleich sind, wenn also alle Kammern gleich gestreckt sind. Diese Verformung kann durch einen Torus nicht dargestellt werden, obwohl der BHA zu solch einer Bewegung in der Lage ist. Auch für dieses Problem ließ sich allerdings eine einfache, numerisch stabile Lösung finden. Der BHA lässt sich somit durch Aufeinandersetzen dreier solcher Segmente darstellen und simulieren.</p>
<p>Die gezeigten Torusdeformationen sind sehr einfache Annäherungen des Arms im Vergleich zu kom­plexen Physik des Ver­for­mungs-Pro­blems. Üblicherweise ist diese Art von Annäherung daher nicht hinreichend für diese Art von Robotern (siehe z.B. Trivedi 2008 <span id='easy-footnote-2-104' class='easy-footnote-margin-adjust'></span><span class='easy-footnote'><a href='https://botzeit.de/2012-04-17-simulation-des-festo-bionic-handling-assistant/#easy-footnote-bottom-2-104' title='&lt;a href=&quot;http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=4560068&quot;&gt;Geometrically Exact Models for Soft Robotic Manipulators&lt;/a&gt;'><sup>2</sup></a></span> ). Nicht jedoch für den BHA: Hier funktioniert die beschriebene Lösung sehr gut, in unseren Tests sehen wir einen durchschnittlichen Fehler von 1cm auf einer Länge von 1m. Nicht perfekt, aber absolut ausreichend für unsere Zwecke und außerdem durchaus konkurrenzfähig zu Lösungen in der Literatur.</p>
<p>Das folgende Video zeigt das simulierte Modell und unseren BHA:</p>


<p><iframe title="Kinematic Simulation of Festo&#039;s Bionic Handling Assistant" width="640" height="360" src="https://www.youtube.com/embed/kk3w2VchgWA?feature=oembed" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></p>

BHA-Simulation

<p>Der große Vorteil des benutzten <em>einfachen</em> Torus-Modells ist seine Geschwindigkeit in der Berechnung. Unsere Software-Bibliothek ist auf Basis dieses Modells in der Lage, die Vorwärtskinematik des BHA auf einem einzelnen CPU-Kern <strong>mehrere zehntausend Mal</strong> in der Sekunde zu berechnen. Auch wenn wir diese Simulation ursprünglich nicht geplant hatten, ist sie damit mittlerweile eine essentielles Werkzeug bei unserer Arbeit mit dem BHA geworden. Die interessanten Dinge machen wir weiterhin auch auf der echten Hardware, aber parallel lassen sich nun viele Dinge bequem vorberechnen und darstellen.</p>
<p>Die Kinematik-Simulation ist in C++ implementiert und als <strong>Open-Source-Bibliothek</strong> verfügbar. Über die folgende Seite kann sie heruntergeladen werden und enthält sowohl die Vorwärtskinematik als auch die gezeigte OpenGL-basierte 3D-Visualisierung: <a href="http://www.cor-lab.de/software-continuum-kinematics-simulation">http://www.cor-lab.de/software-continuum-kinematics-simulation</a> Wir freuen uns über Benutzer und Erfahrungsberichte.</p>
<p>Der folgende einfache Code-Schnipsel berechnet zum Beispiel die Vorwärtskinematik des BHA:</p>
<p>// create robot morphology with segment radii 0.1, 0.09 and 0.08 meters ContinuumRobotKinematics kinematics(RealVector(0.1, 0.09, 0.08));<br />// specify an end effector offset kinematics.setEndEffectorOffset(RealVector(0.0, 0.0, 0.14));<br />// this is the forward kinematics function:<br />Mapping&lt;RealVector,RealVector&gt; fwdKin = kinematics.getForwardPositionKinematics();<br />// try out some posture (a combination of actuator lengths) RealVector posture = {0.2,0.24,0.24,0.2,0.24,0.24,0.2,0.24,0.24};<br />// this is the resulting end-effector position RealVector position = fwdKin(posture); // [-0.3808, 0, 0.686287]Neben der in diesem Artikel beschriebenen Kinematik-Berechnung und Simulation des BHA, haben wir in den letzten Monaten noch viele weitere spannende Dinge mit dem BHA gemacht, die wir auf der Automatica-Messe im Mai in München zeigen werden:<br />Um zu sehen wie wir trotz der zahlreichen obigen Probleme mithilfe maschineller Lernmethoden den Greifer auf dem echten BHA im Arbeitsraum zu kontrollieren gelernt haben, lohnt sich also ein Besuch unseres Standes <strong>auf der Automatica in München</strong>:<br />Stand 427 und 429 in Halle B3, vom 22. bis 25. Mai.</p>
<p> </p>
<p><strong>Kontakt:</strong></p>
<p> </p>
<p>Dipl.-Inform. Matthias Rolf, CoR-Lab &#8211; Bielefeld University, <a href="&#x6d;&#97;&#105;l&#x74;&#x6f;&#58;m&#x72;&#x6f;&#108;f&#x40;&#x63;&#111;r&#x2d;&#x6c;&#97;b&#x2e;&#x75;&#110;i&#x2d;&#x62;&#105;&#101;l&#x65;&#x66;&#101;l&#x64;&#x2e;&#100;e">&#x6d;r&#x6f;&#108;&#x66;&#64;&#x63;&#x6f;r&#x2d;&#108;&#x61;&#98;&#x2e;&#117;n&#x69;&#45;&#x62;&#105;&#x65;&#108;e&#x66;&#101;&#x6c;&#100;&#x2e;&#100;e</a></p>
<p>Prof. Jochen Steil, CoR-Lab &#8211; Bielefeld University, <a href="&#109;&#x61;&#105;&#x6c;&#116;&#x6f;&#58;&#x6a;s&#x74;e&#x69;l&#x40;c&#111;&#x72;&#45;&#x6c;&#97;&#x62;&#46;&#x75;&#110;&#x69;-&#x62;i&#x65;l&#x65;f&#101;&#x6c;&#100;&#x2e;&#100;&#x65;">&#106;&#x73;&#116;&#x65;&#105;&#x6c;&#64;&#x63;o&#114;&#x2d;&#108;&#x61;&#98;&#x2e;u&#x6e;i&#45;&#x62;&#105;&#x65;&#108;&#x65;&#102;&#x65;l&#x64;&#46;&#100;&#x65;</a></p>
<p> </p><p>Der Beitrag <a rel="nofollow" href="https://botzeit.de/2012-04-17-simulation-des-festo-bionic-handling-assistant/">Simulation des Bionischen Handling-Assistenten</a> erschien zuerst auf <a rel="nofollow" href="https://botzeit.de">botzeit</a>.</p>
<img src="https://vg08.met.vgwort.de/na/bbfb6b30b59d46ffa973618fc2f7dd81" width="1" height="1" alt="" class="wpvgw-marker-image" loading="eager" data-no-lazy="1" referrerpolicy="no-referrer-when-downgrade" style="display:none;" />
]]></content:encoded>
					
					<wfw:commentRss>https://botzeit.de/2012-04-17-simulation-des-festo-bionic-handling-assistant/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
