Der RoboCup kommt

/images/blog/robocup-istanbul.png
RoboCup 2011 in Istanbul

In knapp drei Tagen, am kom­men­den Dienstag startet in Istanbul an der Grenze zwi­schen Eu­ro­pa und Asien die RoboCup-Welt­mei­ster­schaft 2011. Auch ein Team aus Bie­le­feld, ToBi (Team of Bielefeld) ist wie­der in der RoboCup@Home-Liga da­bei.

Ich habe deswegen die Gelegenheit des letzten Robotik-Stammtischs genutzt, um mit Frederic Siepmann, dem Verantwortlichen für das Bielefelder Team, ein wenig über den RoboCup und die Vorbereitungen dafür zu sprechen:

Ich: Hey Frederic. Ihr habt ja im letzten Jahr in Singapur den siebten Platz gemacht. Welche Unterschiede und Verbesserungen in diesem Jahr an Eurem System gibt es im Vergleich zum Vorjahr. Und sind überhaupt die Aufgaben wieder die gleichen?

Frederic: In diesem Jahr ist im Prinzip der selbe Funktionumfang wie im letzten Jahr gefordert. Es gibt immer einige kleine Änderungen an Aufgaben, in denen sich im vergangenen Jahr Probleme herausgestellt haben oder die Regeln nicht klar genug formuliert waren. Es hat sich auch ein bisschen etwas an der Punktevergabe geändert, aber im Prinzip sind es die selben Aufgaben.

Daher ist der Unterschied bei uns zum letzten Jahr vor allem, dass damals viele Sachen einfach mit der heißen Nadel gestrickt waren. Das konnten wir jetzt mal etwas intensiver testen und stabilisieren. Im Rahmen der @­Home-­Liga gibt es auch immer die sogenannte Demo Challenge. Dafür wird immer ein Thema vorgegeben und dort kann man dann im Prinzip tun, was man will. Es muss nur irgendwie in dieses Demo-Konzept passen. In Singapur im letzten Jahr war ein Restaurant-Kontext vorgegeben. Das heißt, wir haben zum Beispiel viel gesehen, dass der Roboter Bestellungen entgegennimmt und den Leuten Getränke bringt; wie man sich das eben von einen Roboter im Restaurant vorstellt. In diesem Jahr ist das Thema Household Cleaning vorgegeben. Da haben wir jetzt bei den German Open noch nicht so sehr viel gesehen, aber man sah, dass viele Roboter versuchen, Gegenstände vom Boden aufzusammeln und in den Müll zu schmeißen …

Ich: Ich glaube, ich habe auch gesehen, wie einer der Roboter versucht hat, mit einem Lappen einen Tisch sauberzumachen …

Frederic: Ja, genau. Das waren wir.

Ich: Ach, das wart Ihr. Und das werdet Ihr auch in Istanbul zeigen?

Frederic: Ja, wir werden mit Sicherheit wieder Tischsäubern zeigen. Wie Du ja weißt, ist die Plattform bei uns ja etwas eingeschränkt, da der Arm nicht soweit herauskommt. Aber wir haben jetzt noch ein paar Extra-Gimmicks eingebaut, zum Beispiel dass der Roboter jetzt dynamisch die Flächen erkennen kann und man dem Roboter zeigen kann, wo er reinigen soll. Es ist für den Roboter natürlich schwierig zu erkennen, wie schmutzig eine Fläche ist. Wenn da Konfetti liegen ist das noch okay, aber bei Staub wird es schon schwierig. Man muss da noch etwas sehen, welche Szenarien da denkbar sind, aber im Prinzip passt das.

Ich: Ihr wart ja im April bei den German Open und habt glaube ich den dritten Platz gemacht …

Frederic: Nee, nach der Vorrunde waren wir zwar auf dem dritten Platz, sind dann im Finale aber noch von den b-it-bots abgefangen worden.

Ich: Ein vierter Platz, mit dem Ihr zufrieden wart?

Frederic: Ja, auf jeden Fall.

Ich: Ich nehme aber an, dass Ihr auch von dort noch Dinge mitgenommen habt, die noch zu verbessern sind?

Frederic: Ja. Die German Open – und vermutlich alle nationalen Vorentscheide – sind immer so ein bisschen ein erster Test Case. Da hat man dann normalerweise zum ersten Mal on site wirklich Zeit, das System intensiv zu testen. Die Studenten bekommen dann auch zum ersten Mal wirklich mit, wie das ist: Wenn es dann wirklich auf Kommando losgehen soll, hektisch ist und die Hardware überall herumfliegt usw. … von daher ist das ein super Testszenario, das würde ich auch nicht missen wollen.

Ich: Zum ersten Mal auch unter den echten Wettkampfbedingungen …

Frederic: Richtig! Man muss dann auch zum ersten Mal richtig in die Arena hereinfahren und dann stehen dort Objekte und Möbel herum, die man nicht erkennen kann. Man kann sich dann auch wirklich intensiv und mit viel Zeit um den Roboter kümmern, da ja dann auch das gesamte Team da ist. In der Uni mischen sich dann ja auch immer viele andere Dinge dazu. Das hat uns auch wieder ziemlich viel gebracht in diesem Jahr. Wir konnten viele Dinge für die weitere Arbeit in unserem Wiki festhalten: Dinge, die gut und Dinge, die nicht so gut gelaufen sind und die wir noch verbessern wollen.

Ich: Seit wievielen Jahren seit Ihr jetzt mit Eurem System beim RoboCup@Home vertreten?

Frederic: Tatsächlich erst seit 2009. Damals sind wir aus dem Stand auf den achten Platz gekommen, was ziemlich gut war. Im letzten Jahr sind wir dann wie gesagt Siebter geworden, dieses Jahr werden wir sehen, was passiert.

Ich: War das damals die gleiche Plattform wie in diesem Jahr?

Frederic: Ja gut, wir haben die seitdem natürlich etwas modifiziert, aber die Basis ist die gleiche geblieben. Wir hatten damals die neue Plattform bekommen und in dem Rahmen beschlossen, dass die Teilnahme an der @Home-Liga eine brauchbare Sache wäre. Diese Liga hat eben Anforderungen, die unserer sonstigen Forschung insgesamt schon recht ähnlich sind. Das erste Team hat natürlich erst einmal die meiste Arbeit, weil einige der Basiskomponenten einfach noch nicht für die Plattform zur Verfügung standen. SLAM zum Beispiel musste erst einmal darauf gebracht werden. Oder Objekterkennung. Das war zwar schon vorhanden, aber eben noch nicht auf dieses Robotersystem portiert. Das war viel Arbeit zu Beginn.

Ich: Kommen bei Euch denn jetzt eigentlich auch im Vergleich zur German Open noch weitere Features dazu?

Frederic: Stabilität ist natürlich auch ein Feature. (lacht) Wir haben aber tatsächlich auch noch ein wenig grundlegend an der Software gearbeitet. Zum Beispiel die Ansteuerung des Arms und die Objekterkennung verbessert. Das heißt, da können wir jetzt auch noch etwas mehr als bei den German Open.

Das klassiche Problem ist ja zum Beispiel, dass wenn man ein Objekt erkannt hat, man den Roboter erst einmal so positionieren muss, dass der Arm das Objekt überhaupt greifen kann. Das stellt sich im Moment noch etwas als Schwierigkeit heraus. Die Software haben wir schon, sie ist aktuell aber einfach noch nicht vollständig ins System integriert.

Ich: Also Frederic, ich nehme an, Deine letzten Wochen waren deutlich von der Arbeit für den RoboCup bestimmt?

Frederic: Das würde ich sofort unterschreiben, ja!

Ich: Das kostet ja insgesamt schon ziemlich viel Zeit, insbesondere natürlich in der Vorbereitung eines Turniers. Inwiefern, würdest Du sagen, profitiert da ein Institut oder vielleicht sogar Du als Wissenschaftler von?

Frederic: Super Frage! Also bei uns ist es ja tatsächlich so, dass ca. 90 Prozent der Teammitglieder jedes Jahr wechseln. Da kommen also jedes Jahr frische, neue Studenten, die an dem Roboter arbeiten wollen. Das ist mit Sicherheit auch etwas Besonderes von dem Bielefelder Team, was natürlich auch besondere Anforderungen an die Entwicklungsumgebung stellt. Wir machen das aber natürlich sehr gerne, weil wir dadurch sehr früh die Studenten mitnehmen können. Von der universitären Seite ist natürlich sehr spannend, dass wir die Studenten so sehr früh in unsere Software einführen können. Die können dann damit wirklich coole Sachen machen, wir haben zum Beispiel unheimlich viele studentische Abschlussarbeiten im Rahmen unserer RoboCup-Teilnahme. Außerdem kommen so auch immer wieder Studenten als Hilfswissenschaftler zu uns. Davon kann natürlich die Universität und das Institut ganz enorm profitieren. Einfach auch weil wir damit natürlich auch viel Manpower dazugewinnen.

Das System als solches, das wir in dem Rahmen entwickeln, und die Entwicklung, die man in der Kürze der Zeit damit macht, würde man wahrscheinlich sonst auch in der Form nicht hinbekommen.

Ich: … wegen der fokussierten Arbeit an einer lauffähigen und stabilen Version …

Frederic: Genau! Also, man mag mir da widersprechen, aber es ist sonst im universitären Umfeld auch nicht so häufig, dass so stark in Richtung eines Systems gearbeitet wird, das wirklich stabil auf einer Plattform läuft.

In wissenschlaftlicher Hinsicht ist der RoboCup immer durchaus zwiespältig diskutiert. Einige sagen, dass die Verfahren einfach schon seit Jahren bekannt sind und es im Prinzip nur darum geht, die schnellere Hardware zu haben. Zum Teil ist das sicherlich auch berechtigt und mag stimmen. Gerade beim Roboterfußball hört man das häufig.

Bei der @Home-Liga trifft das sicherlich nicht so sehr zu. Da lässt sich durch schnellere Hardware nicht so viel wettmachen, weil viele Probleme hier einfach auch noch nicht gelöst sind.

Ich: In der @Home-Liga passiert also auch noch mehr Forschung, würdest Du sagen? Weil es da auch konzeptionell noch mangelt?

Frederic: Die @Home-Liga ist auch einfach noch eine der jüngsten Ligen des RoboCup, ich glaube erst 2005 gegründet worden, und seitdem die am stärksten wachsende Liga. Und die Teilnehmer, ob jetzt Georgia Tech, University of Tokio, Osaka University, Bielefeld und einige andere … das sind Namen, die man durchaus auch im Forschungsumfeld viel hört.

Es sind einfach auch viele Probleme wirklich noch ungelöst. Daher würde ich schon sagen, dass wenn man Forschung in diesem Bereich macht – was Grundvoraussetzung ist – kann man da durchaus von profitieren. Auch, da man dadurch ja Systeme bekommt, mit denen man dann empirische Daten aufnehmen kann. Häufig hat man eben in der Robotik einzelne Komponenten, aber ohne lauffähiges Gesamtsystem kann man keine vernünftigen Tests machen. Das Problem haben wir nicht.

Ich: Du würdest also sagen, dass Du auch als Wissenschaftler davon profitierst?

Frederic: Vielleicht nicht so viel wie ich könnte, aber im Prinzip auf jeden Fall, ja.

Ich: Und ich nehme an, du würdest Studenten in der Robotik auch jederzeit empfehlen, an solchen Wettbewerben teilzunehmen, sofern die Möglichkeit an der Universität oder dem Institut besteht?

Frederic: In meinen Augen ist das das beste, was man machen kann. Das ist das echte Entwicklerleben und nicht die berühmte trockene Theorie, die einem ja sonst häufig in der Informatik vorgeworfen wird. Das einmal mitgemacht zu haben, ist auch wirklich ein Erlebnis. Kann natürlich auch sehr frustrieren sein, wenn es nicht funktioniert. Aber wenn man dann dazu beigetragen hat, einen Platz XY bei der Weltmeisterschaft zu machen und Sachen, die man selbst programmiert hat vor einem Publikum präsentieren kann und der Roboter räumt dann richtig ab … das ist einfach nur genial!

Ich: Okay, Frederic. Danke vielmals für den ausführlichen Einblick und viel Erfolg mit Team ToBi in Istanbul!

Frederic: Danke.

Das Team ToBi bloggt übrigens auch fleißig über den Turnierverlauf und die Vorbereitungen. Frederic Siepmann ist Diplom-Informatiker am Center of Excellence Cognitive Interaction Technology (CITEC) in Bielefeld und seit 2008 Teamlader des Team ToBi.

Kauftipp: Plug and Pray auf DVD

/images/blog/plugandpray-dvd-cover.jpg
Plug&Pray auf DVD

Im letz­ten Jahr habe ich bereits zum Ki­no­start den Film Plug & Pray empfohlen. Ver­gan­ge­nen Frei­tag nun ist der Film Plug & Pray auf DVD erschienen (Affi­liate-Link). Ein hoch-in­te­res­san­ter Do­ku­men­ta­tions­film zur ak­tu­el­len Ro­bo­tik-For­schung mit Aus­schnit­ten aus For­schungs­in­sti­tu­ten aus al­ler Welt. Im­mer wie­der un­ter­bro­chen durch die in­te­res­san­ten, kri­ti­schen An­sich­ten des wun­der­ba­ren und lei­der in­zwi­schen ver­stor­be­nen Joseph Weizenbaum.

Klare Kaufempfehlung!

Nachtrag: Regisseur Jens Schanze macht mich darauf aufmerksam, dass es auf der Film-Website http://www.plugandpray-film.de nicht nur eine DVD-Sonderedition mit Bonusmaterial und verschiedenen Sprachen gibt, sondern dort auch ein größerer Teil der Erlöse direkt an die Filemmacher fließt. Jens Schanze schreibt über die Sonderedition:

Plug & Pray DVD Special Edition – enthält bisher unveröffentlichte Szenen mit Joseph Weizenbaum, iCub und Robovie sowie ein exklusives Interview mit dem Regisseur Jens Schanze. Originalversion mit Untertiteln in Deutsch, Englisch, Französisch, Spanisch, Portugiesisch, Russisch

Also besser hier kaufen. Und hier nochmal der Trailer:

Trailer zu Plug&Pray

Nächstes Treffen des Robotik-Stammtischs NRW

Wie angekündigt findet auch in diesem Monat am letz­ten Don­ners­tag, also in der kom­men­den Woche am 26. Mai, ein Tref­fen des frisch ge­grün­de­ten Ro­bo­tik-Stamm­tisches statt. Dieses Mal werden wir uns im Ruhr­ge­biet im schö­nen Dort­mund treffen. Als Lo­ka­li­tät haben wir das BAM Boomerang in Bahn­hofs­nä­he aus­ge­wählt, in dem für uns aus­rei­chend Platz re­ser­viert sein wird.

Wir freuen uns darauf, an die ge­sel­lige At­mos­phäre des letzten Stamm­tisches und an die zahl­rei­chen fach­li­chen und auch we­ni­ger fach­li­chen Ge­sprä­che an­knüp­fen zu kön­nen. Die­ses Mal hof­fent­lich auch wie­der mit ei­ni­gen neuen Ge­sich­tern aus NRW, dem Ruhr­ge­biet und Um­ge­bung. Ein gu­tes Mit­tel da­für ist Mund-zu-Mund-Pro­pa­gan­da, des­we­gen bit­te Ort und Ter­min flei­ßig an Ro­bo­tik-In­te­res­sier­te wei­ter­lei­ten.

Mehr zum nächsten Stamm­tisch, in­klu­si­ve Karte, gibt`s wie ge­habt auf der Stammtisch-Seite (jetzt auch rechts in der Sei­ten­lei­ste zu fin­den). Bitte nach Mög­lich­keit auch wie­der ins Doodle ein­tra­gen.

Wir sehen uns in Dortmund!

Erstes Treffen des Robotik-Stammtischs NRW

/images/stammtisch-bier-und-roboter.jpg
Robotik-Stammtisch

Letzte Woche Donnerstag, am 28. April, traf sich eine mutige Gruppe Robotik-Interessierter aus NRW zur Gründung des Robotik-Stammtisches NRW. Insgesamt ein gutes Dutzent Teilnehmer aus Bielefeld und dem Ruhrgebiet besprachen sich gut speisend und trinkend sowohl fachfremd als auch zum Hauptthema des Stammtisches, wie die unten abgebildete Servietten-Skizze beweist (Thema war maschinelles Lernen in gemeinsamer Diskussion zwischen Dortmundern und Bielefeldern).

Anlass für erste vage Projektabsichten gab das mitgebrachte Maskottchen des ersten Treffens, ein RP6 (rechts im Bild), der möglicherweise bald mit Anbindung an ein Android-Phone aufgerüstet wird. Wissenschaftliche Kontakte wurden auch bereits erfolgreich geknüpft.

Insgesamt zeigten sich alle Anwesenden, mit denen ich gesprochen habe, sehr zufrieden mit dem ersten Treffen und haben sich einstimmig dafür ausgesprochen, das Treffen regelmäßigzu wiederholen. Und auch der einmonatige Rhythmus soll fürs Erste beibehalten werden, vorgesehen ist ab sofort der letzte Donnerstag jeden Monats. Das nächste Treffen ist auch schon geplant und wird am 26. Mai im Ruhrgebiet, in Dortmund stattfinden, um mehr Teilnehmer aus dem Ruhrgebiet und vielleicht sogar von außerhalb anzulocken. Die genaue Lokalität (natürlich zwecks bequemer An- und Abreise wieder in Bahnhofsnähe) wird noch verkündet. Hier werden wie immer Informationen zum nächsten Treffen zu finden sein und dort im Doodle kann man sich schon eintragen.

/images/blog/stammtisch-skizze.jpg
Servietten-Mathematik beim Stammtisch

Ich freue mich schon auf das nächste Treffen und hoffe auch neue Teilnehmer zu sehen. Wie gehabt bitte ich alle Leser, dies an alle Robotik-Interessierte der Region weiterzugeben.

Und jetzt geht`s auf nach Italien.

Robotik-Stammtisch NRW

Ungefährt zwei Jahr ist die Idee nun schon alt und endlich – verzögert durch Ortswechsel und allerhand anderer Gründe, die derlei Dinge gerne verzögern – ist die Umsetzung abzusehen: Die Gründung einer Robotik-Gruppe oder, wie wir es nun nennen, eines Robotik-Stammtisches.

Es gibt einige Robotik-Enthusiasten, die so wie zwei Autoren dieses Blogs, Arne und Jörn, verrückt genug sind, sich nicht nur während der Arbeitszeit mit Robotern beschäftigen zu wollen, sondern die sich auch in der Freizeit mit Robotik beschäftigen und nach Möglichkeit mit Robotern herumbasteln wollen. Alleine macht dies allerdings sehr viel weniger Spaß als gemeinsam und ist überdies im regen Erfahrungs- und Ideenaustausch sehr viel spannender und produktiver. Begünstigt durch die dichte Hochschullandschaft beschäftigen sich zahlreiche Studierende sowie Doktoranden mit den vielfältigen und spannenden Themen der Robotik. Etwas schade ist, dass trotz dieser räumlichen Nähe Bekanntschaften mitunter nur auf Konferenzen entstehen und bisweilen verebben.

Mit dem Ziel also, Robotik-Enthusiasten und -Interessierte zusammenzubringen, gegenseitig Wissen auszutauschen, gemeinsam Ideen zu entwickeln oder einfach nur in entspannter Atmosphäre mit Gleichgesinnten bei einem Bierchen oder anderem Getränk über Robotik zu plaudern, findet am 28.04.2011 in Bielefeld die Gründung des Robotik-Stammtisches NRW statt.

Wer auch immer interessiert ist, ob aus NRW, ganz Deutschland oder weltweit, ist herzlich eingeladen, an dem Treffen teilzunehmen und diese Einladung an andere Robotik-Interessierte weiterzugeben. Als Lokalität für den ersten Stammtisch haben wir Bielefeld und dort zugunsten der einfachen An- und Abreise das New Orleans in unmittelbarer Bahnhofs-Nähe gewählt. Der Stammtisch startet um 19:00 Uhr.

Geplant ist es, den Stammtisch im monatlichen Rhythmus zu etablieren und, da es sich um den Robotik-Stammtisch NRW mit Gründungsmitgliedern aus dem Raum Bielefeld und Dortmund handelt, den Ort des Treffens regelmäßig zwischen Bielefeld und dem Ruhrgebiet wechseln zu lassen. Aktuelle Informationen zu Ort und Termin dieses und zukünftiger Stammtischtreffen finden sich zukünftig hier auf dieser Seite: Robotik-Stammtisch NRW

Wenn Du am Stammtisch teilnehmen möchtest, dann trag Dich nach Möglichkeit bis zum 26.04.11 im Stammtisch- Doodle ein, damit wir einen ungefähren Eindruck zur Anzahl der Teilnehmer gewinnen.

Robuste Roboterhand vom DLR

Einen Vorgeschmack zur weiteren Entwicklung in der Robotik hat das Deutsche Zentrum für Luft- und Raumfahrt (DLR) in den letzten Tagen geliefert:
Angetriggert von einem Artikel in der IEEE Spektrum, wie ich annehme, berichteten in den letzten Tagen allerhand englischsprachige Robotik-Blogs (z.B.) über die neue Roboterhand, die das DLR vorgestellt hat.

/images/blog/dlr-leichtbau-hand.jpg
Leichtbau-Hand des DLR

Die Hand sieht nicht nur spektakulär aus, ihre wahre Sensation liegt zum einen in ihrer Ähnlichkeit zur menschlichen Hand und vor allem in ihrer Robustheit. Die Ähnlichkeit zur menschlichen Hand liegt maßgeblich im (technische) Design begründet, das dem Bewegungsapparat der menschlichen Hand sehr Nahe kommt. Dass die Hand in den Blogs dieser Welt unter Bezeichnungen wie Super Robust Robot Hand geführt wird, ist darin begründet, dass das DLR zeigen kann, dass diese Hand selbst mehrere Schläge mit einem Hammer überlebt; mit nahezu allen bisherigen Robotik-Bauteilen absolut undenkbar. Vor allem, wenn sie dafür nicht in eine Schutzhülle eingepackt sein müssen und sich dabei noch so präzise bewegen können.

Hier im Video ist die Hand zu sehen und wie mit ihr umgegangen wird:

Leichtbau-Hand des DLR in Bewegung und grob behandelt

Schon auf der Automatica im letzten Jahr zeigte das DLR die Hand plus angeschlossenem Unterarm und zog damals schon viele Blicke auf sich. Dass die Robotik-Abteilung des DLR um Hirzinger plant, sozusagen als nächsten großen Wurf, dieses Designprinzip innerhalb der nächsten fünf Jahr in einen Vollkörper-Humanoiden fließen zu lassen, stimmt mich äußerst erwartungsvoll. Der Plan ist, so hört man aus eingeweihten Kreisen, innerhalb der nächsten fünf Jahre die Hardware des Roboter fertigzuhaben und in weiteren fünf Jahren den Roboter vollständig zu beherrschen, so dass er rennen und Treppen rauf- und runterspringen kann. Und wem ist das mehr zuzutrauen, als dem DLR, nachdem die Robotik-Abteilung zuletzt mit dem Leichtbau-Industriearm gezeigt hat, zu welchen technologischen Sätzen man dort in den Lage ist.

Was diese Hand so besonders robust macht, ist ihr durchdachtes Design, moderne Materialien, aber vor allem die Verwendung von künstlichen Sehnen zur Bewegung der Finger. Diese erlauben es, plötzlich auftretenden Kräften nachzugeben (wie zum Beispiel bei einem Aufprall), so dass die Struktur der Hand und die Elektronik von diesen Kräften nicht verletzt wird. Weiterhin wurden die Sehnen in einer Art und Weise verbaut, die es erlauben, ihre Steifigkeit zu verändern. Also etwa steife Sehnen für einen möglichst präzisen Griff und weniger steife Sehnen, wenn es darum geht, unbekannte Gegenstände zu ertasten, oder empfindliche Objekte sanft zu greifen.

Mit insgesamt 19 Freiheitsgraden ist die Hand außerdem ähnlich bewegungsfähig wie unsere Hand (die gerade einmal einen Freiheitsgrad mehr hat). Bei der Konstruktion haben die Bauer darauf achtgegeben, dass die Bewegungsabläufe der Finger denen menschlicher Finger sehr nahe kommen, was diese Hand insgesamt mit all den obigen Faktoren zur aktuell wahrscheinlich coolsten Roboterhand für Humanoide macht. Der Konferenzbeitrag 1 zu der Hand und diesem Arm wurde auf der HUMANOIDS-Konferenz im Dezember in Nashville folgerichtig mit dem Best Paper Award ausgezeichnet. Dort zeigte der Vortragende Grebenstein im Video, wie mit einem Baseball-Schläger auf den Arm eingeschlagen wird, ohne dass dieser Schaden nimmt. Und das – das macht es so beeindruckend – nicht etwa mit ausgeschalteten Motoren und schlaff herumhängend, sondern in voller Positionsregelung. Ein gehöriger Unterschied, muss man doch bislang mit Robotern jede Bewegung im Vorhinein in Simulation ausführen, um jede Kollision mit eigenen Körperteilen oder anderen Objekten und eine damit einhergehende Beschädigung des Roboters auszuschließen.

Auf den Humanoiden des DLR in diesem Design kann man nur gespannt sein. Mehr und mehr beeindruckende Humanoide hat man in den letzten zwei Jahren die Weltbühne betreten sehen. Aber ein Leichtbau-Roboter, der in jedem Detail so durchdacht und so technologisch fortgeschritten ist, wie es uns mit der DLR-Hand gezeigt wurde, dürfte ein neues Niveau erreichen.

Auf nach Nashville!

/images/blog/humanoids.jpg
HUMANOIDS 2010

Morgen geht`s für mich auf nach Nashville, Tennessee, wo am Montag eine der – aus meiner Sicht – spannendsten Ro­bo­tik-Kon­fe­ren­zen statt­fin­den wird: die HUMANOIDS 2010, eine Kon­fe­renz gewidmet der Königsklasse der Roboter: den Humanoiden.

Ich bin am Dienstag auf dem im Rahmen der Konferenz stattfindenden iCub-Humanoids-Workshop iCub and Friends dazu eingeladen, über meine Arbeit der letzten Monate vorzutragen. Workshops wie dieser sind eine tolle Gelegenheit nicht nur vorzutragen, sondern sehr fokussiert – in diesem Fall mit Fokus auf dem iCub – mit den anderen Teil­neh­mern in­ten­siv Ideen aus­zu­tau­schen und zu dis­ku­tie­ren.

Ich bin schon sehr gespannt auf die Vorträge der anderen Workshop-Teilnehmer und die Vorträge der Hauptkonferenz an den anderen beiden Tagen. Hoffentlich macht mir der Schnee beim Hinflug keinen Strich durch die Rechnung. Drückt mir die Daumen.

Auf nach Nashville! Yihaaa!

Die neuen Beine des iCub

In der letzten Zeit habe ich einige Male über den iCub geschrieben. Das liegt zum Einen daran, dass ich bekennender iCub-Fan bin und zum Anderen daran, dass ich in letzter Zeit immer häufiger von Arbeitswegen mit ihm in Berührung komme. Endlich finde ich nun die Zeit, mal über eine neue Entwicklung des iCub zu schreiben, die ich schon seit einigen Monaten mit Spannung verfolge und zu der ich jetzt auch Bilder und Videos aus erster Hand zeigen kann: Die neuen Beine des iCub.

Der iCub ist im Rahmen des RobotCub-Projekts seit 2004 entstanden und wird seitdem kontinuierlich weiterentwickelt. Hauptsächlich bezog sich dies in den letzten Jahren auf Weiterentwicklung der Firmware und der iCub-Softwareumgebung, um die vorhandene Hardware immer besser, effektiver und einfacher nutzen zu können. Da der iCub als humanoide Forschungsplattform aber so erfolgreich ist, wird er konsequenterweise auch in Sachen Hardware weiterentwickelt. Kopf, Hände, Arme, Beine … für nahezu alle Teile existieren mehr oder weniger fortgeschrittene Pläne und Ansätze zur Weiterentwicklung.

Am CoR-Lab arbeiten wir zur Zeit noch mit der ersten Version des iCub, auf der Summer School jedoch durfte ich schon mit einer weiterentwickelten Version des iCub arbeiten, die über Kraftsensorik in Armen und Beinen verfügt. Diese Kraftsensoren können (noch relativ grob) Kontaktkräfte messen, die auf Arme und Beine einwirken. So erlaubt diese iCub-Version zum Beispiel, dass man den iCub bei der Hand nimmt und seinen Arm führt; ein bedeutender Fortschritt in der Interaktion von Mensch und Roboter, wenn man ihn anfassen und führen kann. Eine weitere faszinierende Möglichkeit ist, den Roboter in einen Nachgiebigkeits-Modus zu schalten. In diesem Modus reagiert der Roboter auf die Kräfte, die auf ihn wirken, auf die gleiche Art, wie es eine Feder tun würde: Bei kleiner Krafteinwirkung gibt der Roboter ein wenig nach, bei größerer Krafteinwirkung gibt der Roboter deutlicher nach. Der Roboter fühlt sich dadurch sanft und weich an. Dieser Modus, diese Art der Regelung, nennt sich Active Compliance (aktive Nachgiebigkeit). Ein Video mit dieser iCub-Version zeigt, wie Ugo diese Eigenschaften nutzt, um den iCub mit Spielzeug vertraut zu machen:

Der iCub wird geführt und kann Objekte ertasten

Bei meinem Besuch am IIT (Italien Institute of Technology in Genua) an einem Tag während der Summer School habe ich eine iCub-Version kennengelernt, die für das AMARSi-Projekt entwickelt wird und dieses Konzept noch weiter treibt. Dieser iCub (der vielleicht irgendwann einmal auf den Namen cCub, Compliant iCub, hören wird), hat nicht nur wie sein Vorgänger in Armen und Beinen jeweils einen Kraftsensor, sondern er verfügt über neue Gelenke, die jeweils sowohl weitere Kraftsensorik als auch echte mechanische Federn integrieren. Was diese integrierten Gelenk-Module in dem Betrachter auszulösen vermögen, wenn sich der iCub damit bewegt, ist eine der faszinierendsten Dinge, die ich in letzter Zeit in der Robotik gesehen habe. Die Kombination aus Active Compliance, also der durch Sensorik und Regelung simulierten Nachgiebigkeit, mit der realen Nachgiebigkeit der eingebauten mechanischen Fähigkeiten (Passive Compliance), bewirkt eine Natürlichkeit der Bewegung des Roboters, die im ersten Moment irritierend bis verstörend wirken kann.

Active Compliance allein macht die Interaktion mit dem Roboter schon deutlich natürlicher, und Bewegungen sehen weicher, runder und natürlicher aus. Nichtsdestotrotz bleibt der Eindruck beim Betrachter, dass es sich – tatsächlich – nach wie vor um eine Maschine handelt. Und genau dieser Eindruck scheint in dem Moment zu verschwinden, in dem zu der aktiven Nachgiebigkeit die echte (passive) Nachgiebigkeit der mechanischen Federung hinzukommt. Der Roboter bewegt sich damit offenbar in einer Art und Weise mit unterbewusst wahrgenommenen Schwingungen, die im menschlichen Hirn den Eindruck erwecken, hier würde sich ein biologisches Körperteil bewegen. Die mechanische Federung scheint ein ähnliches Muster aus Schwingungen und Oberschwingungen zu erzeugen, wie es menschliche Muskeln und Sehnen tun. Für mich war dies ein faszinierender, erschreckender Moment – als Robotiker allerdings positiv, was vermutlich nicht jedem Betrachter so ergeht. Nikos Tsagarakis, dessen Gruppe am IIT diese integrierten nachgiebigen Gelenke des iCub entwickelt, hat mir Fotos und Videos zugesandt und mir erlaubt, diese hier im Blog zu veröffentlichen. Zu sehen sind im folgenden Video die neuen Beine (noch ohne Oberkörper), wie sie balancieren und kleine Schritte tun. Ich weiß nicht, wie gut der beschriebene Effekt im Video erkennbar ist, wenn man ihn nicht live erlebt, aber dies ist der Versuch:

Die neuen Beine des iCub in Bewegung

Wer dies im Video nicht zu erkennen vermag, erfreut sich vielleicht an der Vorstellung des vergangenen AMARSi-Projekttreffens, als bei der Live-Demo dieser Beine grob geschätzt 40 Wissenschaftler, die in ihrem Leben schon hunderte Roboter gesehen haben, schweigend und mit großen Augen minutenlang diesen Beinen bei ihrer einfachen Bewegung zusahen.

Und hier die Beine nochmal in der Großaufnahme:

/images/blog/ccub-legs.jpg
Die neuen Beine des iCub (Foto: IIT)

Technisch Interessierte finden eine detailliertere Beschreibung dieser integrierten Aktuatoren in der Konferenzbeitrag zur ICRA 2009: A Compact Soft Actuator Unit for Small Scale Human Friendly Robots (kostenpflichtiger Zugriff via IEEE). Die weitere Entwicklung dieser iCub-Version wird weiterhin auf der Website des AMARSi-Projekts dokumentiert.

Compliance

Traditionell ist die Interaktion mit Robotern darauf beschränkt, dass dem Roboter Kommandos zugesandt werden (in der Regel als textuelle Kommandos, seltener per Sprache) und der Roboter über geeignete Sensorik (Kameras, Mikrofone, Laserscanner, …) seine Umgebung wahrzunehmen versucht. Was dabei in der Interaktion mit Menschen entsteht, ist allerdings häufig eine holprige, wenig natürliche und dadurch für Menschen oft anstrengende Interaktion. Dass man auf diese Art und Weise auch Menschen mit Robotern interagieren lässt, die nicht an der Entwicklung beteiligt waren und dadurch nicht Verständnis für diese Schwierigkeiten aufbringen, passiert daher eher selten.

Eine Form der Interaktion, die sehr viel natürlicher ist, weil sie durch die physische Rückkopplung sehr viel direkter ist, ist die direkte Berührung und damit das Führen des Roboters. Der Mensch fasst den Roboter an der Hand (sofern er eine solche besitzt) und leitet den Roboter an. In der Robotik ist dies ein relativ aktueller Zweig der sogenannten Mensch-Maschine-Interaktion (MMI, Human Machine Interaction – HMI). Im Umfeld der industriellen Robotik sind ähnliche Techniken unter den Begriffen Teach-In und Kinestethic Teaching zu finden.

Es gibt mehrere Möglichkeiten, einen Roboter für diese Form der Interaktion auszustatten. Eine Möglichkeit ist es, die Hardware des Roboters bewusst so zu konstruieren, etwa durch die Integration von mechanischen Federn in Struktur des Roboters, dass dieser nachgiebig ist. Diese Art der Nachgiebigkeit wird in der Robotik bzw. Regelungstechnik als Passive Nachgiebigkeit (engl.: Passive Compliance) bezeichnet, da sie – einmal verbaut – das System ohne weiteres Zutun dauerhaft nachgiebig gestaltet.

Eine aufwendigere, aber dafür auch flexiblere Möglichkeit ist die Aktive Nachgiebigkeit (engl.: Active Compliance). Hierbei kann die Roboterhardware mechanisch völlig steif sein; die Nachgiebigkeit des Systems wird durch eine entsprechende Ansteuerung der Motoren simuliert. Dafür ist der Roboter mit Kraftsensorik ausgerüstet, die dem System konstant die auf den Roboter einwirkenden externen Kräfte meldet. Eine geschickte Regelung (Wikipedia) lässt den Roboter dann auf diese Kräfte auf die gleiche Art und Weise reagieren, wie es eine reale Feder tun würde: Bei kleiner Krafteinwirkung gibt der Roboter mit einer kleinen Bewegung nach, bei größerer Krafteinwirkung reagiert der Roboter mit einer deutlicheren Ausweichbewegung. Nicht, weil die Motoren nicht kräftig genug wären, den Kräften entgegenzuhalten, sondern weil dieses Verhalten den Eindruck eines weichen, nachgiebigen Systems erweckt und erwecken soll. Wie so eine Interaktion aussehen kann, zeigt das folgende Video:

Der iCub wird geführt und kann Objekte ertasten

Nachgiebigkeit ist dabei allerdings nicht allein für Interaktion eingesetzt; es ist auch ein enormer Sicherheitsaspekt. Ein Roboter, der mit seiner Umgebung (im schlimmsten Fall dem Menschen) kollidiert, weil er sie nicht richtig erkannt hat, richtet potentiell deutlich weniger Schaden an, wenn er nachgiebig ist;
Schaden an sich und der Umwelt. Dies gilt für passive Nachgiebigkeit, genauso wie für aktive Nachgiebigkeit, wie das Deutsche Luft- und Raumfahrtzentrum im folgenden Video eindrücklich und mit offenbar ausreichend Vertrauen in die Technik beweist; am Ende des Videos mit Messer und einem menschlichen Probanden:

KUKA Lightweight Robot IV mit Kollisionserkennung

Plug and Pray

Im nächsten Monat, am 11. November, wird der Film Plug & Pray in die deutschen Kinos kommen. Ich hatte schon vor einigen Wochen das Vergnügen, den Film in trauter Runde während der iCub Summer School zu sehen, von der auch Szenen im Film zu sehen sind (unter anderem mit dem Slogan des Filmes „Dafür werden wir alle exkommuniziert“).

/images/blog/plugandpray.jpg
Der iCub im Film „Plug & Pray“

Die Visionen, die heutzutage wegen fortschreitender Technik rund um die künstliche Intelligenz und die Robotik entstehen, sind längst auf dem Level der Science-Fiction des letzten Jahrhunderts angekommen. Auch wenn es technisch an so vielen Stellen noch hapert, sind diese Visionen auch in der Forschung präsent. So wird im Film zum Beispiel Hiroshi Ishiguro gezeigt, der sich einen Roboter nach seinem Abbild geschaffen hat, den Geminoid. Oder der iCub, der einem Kind nachgebildet ist und wie ein Kind lernen und seine Umgebung entdecken soll. Oder Ray Kurzweil, seit Jahren in den USA gefeierter Visionär, der seit einiger Zeit die baldige Verschmelzung von Mensch und Maschine und das menschgemachte Vorantreiben der Evolution predigt.

Plug & Pray ist ein Dokumentarfilm und stellt aktuelle Visionen, Über­zeu­gun­gen und den Alltag von Forschungsinstituten und Wis­sen­schaft­lern weltweit vor, die sich mit künstlicher Intelligenz und Robotik beschäftigen. Durch die schonungslose und gut recherchierte Dar­stellung der Szene und den zum Teil von den Wissenschaftlern leichtfertig vorgetragenen Fantasien ist der Film durchaus provokant und vielleicht sogar verängstigend. Er nimmt dabei allerdings seine dar­gestellten Protagonisten ernst, bleibt menschlich und liebevoll, ist niemals reißerisch und lässt Platz zum Nachdenken.

Anstrengend wird der Film dadurch nicht, dass er nie wirklich technisch wird und vor allem durch den wunderbaren, mittlerweile leider verstorbenen Joseph Weizenbaum, einem der Computerwissenschaftler des letzten Jahrhunderts, der mit Humor und scharfem Verstand den roten Faden des Filmes bildet. Immer wieder sind Interviewschnipsel und Alltagsszenen mit ihm eingestreut, die die zum Teil verstörenden Szenen einordnen und in der normalen Welt erden. Dass dies ausgerechnet einem Com­pu­ter­wis­sen­schaft­ler gelingt, der mit ELIZA (Wikipedia) einen der Meilensteine der künstlichen Intelligenz geschaffen hat, ist erstaunlich und beruhigend zugleich.

Gut recherchiert, nachdenklich, humorvoll und mit durchdachter Einordnung der gesellschaftlichen Relevanz ist Plug & Pray ein Film für Menschen vom Fach, Technik-Interessierte und jeden, den ein Zweig unserer Zukunft interessiert, der gerade rasant entsteht und der immer noch ziemlich un­be­re­chen­bar ist.

Trailer zum Film „Plug & Pray“

Anschauen dringend empfohlen.

PLUG & PRAY ist erschütternd und packend. Joseph Weizenbaum, mit der Gabe des Humors ausgestattet, verkörpert den gesunden Menschenverstand, während um ihn herum der Wahnsinn geadelt wird.“

Hans-Peter Dürr, Kernphysiker

Filmkritik von Nino Klingler bei critic.de