Humanoide

Die neuen Beine des iCub

Arne am 03.11.2010 um 14:34 Uhr - zum Artikel

In der letzten Zeit habe ich einige Male über den iCub geschrieben. Das liegt zum Einen daran, dass ich bekennender iCub-Fan bin und zum Anderen daran, dass ich in letzter Zeit immer häufiger von Arbeitswegen mit ihm in Berührung komme. Endlich finde ich nun die Zeit, mal über eine neue Entwicklung des iCub zu schreiben, die ich schon seit einigen Monaten mit Spannung verfolge und zu der ich jetzt auch Bilder und Videos aus erster Hand zeigen kann: Die neuen Beine des iCub.

Der iCub ist im Rahmen des RobotCub-Projekts seit 2004 entstanden und wird seitdem kontinuierlich weiterentwickelt. Hauptsächlich bezog sich dies in den letzten Jahren auf Weiterentwicklung der Firmware und der iCub-Softwareumgebung, um die vorhandene Hardware immer besser, effektiver und einfacher nutzen zu können. Da der iCub als humanoide Forschungsplattform aber so erfolgreich ist, wird er konsequenterweise auch in Sachen Hardware weiterentwickelt. Kopf, Hände, Arme, Beine … für nahezu alle Teile existieren mehr oder weniger fortgeschrittene Pläne und Ansätze zur Weiterentwicklung.

Am CoR-Lab arbeiten wir zur Zeit noch mit der ersten Version des iCub, auf der Summer School jedoch durfte ich schon mit einer weiterentwickelten Version des iCub arbeiten, die über Kraftsensorik in Armen und Beinen verfügt. Diese Kraftsensoren können (noch relativ grob) Kontaktkräfte messen, die auf Arme und Beine einwirken. So erlaubt diese iCub-Version zum Beispiel, dass man den iCub bei der Hand nimmt und seinen Arm führt; ein bedeutender Fortschritt in der Interaktion von Mensch und Roboter, wenn man ihn anfassen und führen kann. Eine weitere faszinierende Möglichkeit ist, den Roboter in einen Nachgiebigkeits-Modus zu schalten. In diesem Modus reagiert der Roboter auf die Kräfte, die auf ihn wirken, auf die gleiche Art, wie es eine Feder tun würde: Bei kleiner Krafteinwirkung gibt der Roboter ein wenig nach, bei größerer Krafteinwirkung gibt der Roboter deutlicher nach. Der Roboter fühlt sich dadurch sanft und weich an. Dieser Modus, diese Art der Regelung, nennt sich Active Compliance (aktive Nachgiebigkeit). Ein Video mit dieser iCub-Version zeigt, wie Ugo diese Eigenschaften nutzt, um den iCub mit Spielzeug vertraut zu machen:

Der iCub wird geführt und kann Objekte ertasten

Bei meinem Besuch am IIT (Italien Institute of Technology in Genua) an einem Tag während der Summer School habe ich eine iCub-Version kennengelernt, die für das AMARSi-Projekt entwickelt wird und dieses Konzept noch weiter treibt. Dieser iCub (der vielleicht irgendwann einmal auf den Namen cCub, Compliant iCub, hören wird), hat nicht nur wie sein Vorgänger in Armen und Beinen jeweils einen Kraftsensor, sondern er verfügt über neue Gelenke, die jeweils sowohl weitere Kraftsensorik als auch echte mechanische Federn integrieren. Was diese integrierten Gelenk-Module in dem Betrachter auszulösen vermögen, wenn sich der iCub damit bewegt, ist eine der faszinierendsten Dinge, die ich in letzter Zeit in der Robotik gesehen habe. Die Kombination aus Active Compliance, also der durch Sensorik und Regelung simulierten Nachgiebigkeit, mit der realen Nachgiebigkeit der eingebauten mechanischen Fähigkeiten (Passive Compliance), bewirkt eine Natürlichkeit der Bewegung des Roboters, die im ersten Moment irritierend bis verstörend wirken kann.

Active Compliance allein macht die Interaktion mit dem Roboter schon deutlich natürlicher, und Bewegungen sehen weicher, runder und natürlicher aus. Nichtsdestotrotz bleibt der Eindruck beim Betrachter, dass es sich – tatsächlich – nach wie vor um eine Maschine handelt. Und genau dieser Eindruck scheint in dem Moment zu verschwinden, in dem zu der aktiven Nachgiebigkeit die echte (passive) Nachgiebigkeit der mechanischen Federung hinzukommt. Der Roboter bewegt sich damit offenbar in einer Art und Weise mit unterbewusst wahrgenommenen Schwingungen, die im menschlichen Hirn den Eindruck erwecken, hier würde sich ein biologisches Körperteil bewegen. Die mechanische Federung scheint ein ähnliches Muster aus Schwingungen und Oberschwingungen zu erzeugen, wie es menschliche Muskeln und Sehnen tun. Für mich war dies ein faszinierender, erschreckender Moment – als Robotiker allerdings positiv, was vermutlich nicht jedem Betrachter so ergeht. Nikos Tsagarakis, dessen Gruppe am IIT diese integrierten nachgiebigen Gelenke des iCub entwickelt, hat mir Fotos und Videos zugesandt und mir erlaubt, diese hier im Blog zu veröffentlichen. Zu sehen sind im folgenden Video die neuen Beine (noch ohne Oberkörper), wie sie balancieren und kleine Schritte tun. Ich weiß nicht, wie gut der beschriebene Effekt im Video erkennbar ist, wenn man ihn nicht live erlebt, aber dies ist der Versuch:

Die neuen Beine des iCub in Bewegung

Wer dies im Video nicht zu erkennen vermag, erfreut sich vielleicht an der Vorstellung des vergangenen AMARSi-Projekttreffens, als bei der Live-Demo dieser Beine grob geschätzt 40 Wissenschaftler, die in ihrem Leben schon hunderte Roboter gesehen haben, schweigend und mit großen Augen minutenlang diesen Beinen bei ihrer einfachen Bewegung zusahen.

Und hier die Beine nochmal in der Großaufnahme:

Die neuen Beine des iCub (Foto: IIT)Die neuen Beine des iCub (Foto: IIT)

Technisch Interessierte finden eine detailliertere Beschreibung dieser integrierten Aktuatoren in der Konferenzbeitrag zur ICRA 2009: A Compact Soft Actuator Unit for Small Scale Human Friendly Robots (kostenpflichtiger Zugriff via IEEE). Die weitere Entwicklung dieser iCub-Version wird weiterhin auf der Website des AMARSi-Projekts dokumentiert.

Compliance

Arne am 03.11.2010 um 14:34 Uhr - zum Artikel

Traditionell ist die Interaktion mit Robotern darauf beschränkt, dass dem Roboter Kommandos zugesandt werden (in der Regel als textuelle Kommandos, seltener per Sprache) und der Roboter über geeignete Sensorik (Kameras, Mikrofone, Laserscanner, …) seine Umgebung wahrzunehmen versucht. Was dabei in der Interaktion mit Menschen entsteht, ist allerdings häufig eine holprige, wenig natürliche und dadurch für Menschen oft anstrengende Interaktion. Dass man auf diese Art und Weise auch Menschen mit Robotern interagieren lässt, die nicht an der Entwicklung beteiligt waren und dadurch nicht Verständnis für diese Schwierigkeiten aufbringen, passiert daher eher selten.

Eine Form der Interaktion, die sehr viel natürlicher ist, weil sie durch die physische Rückkopplung sehr viel direkter ist, ist die direkte Berührung und damit das Führen des Roboters. Der Mensch fasst den Roboter an der Hand (sofern er eine solche besitzt) und leitet den Roboter an. In der Robotik ist dies ein relativ aktueller Zweig der sogenannten Mensch-Maschine-Interaktion (MMI, Human Machine Interaction – HMI). Im Umfeld der industriellen Robotik sind ähnliche Techniken unter den Begriffen Teach-In und Kinestethic Teaching zu finden.

Es gibt mehrere Möglichkeiten, einen Roboter für diese Form der Interaktion auszustatten. Eine Möglichkeit ist es, die Hardware des Roboters bewusst so zu konstruieren, etwa durch die Integration von mechanischen Federn in Struktur des Roboters, dass dieser nachgiebig ist. Diese Art der Nachgiebigkeit wird in der Robotik bzw. Regelungstechnik als Passive Nachgiebigkeit (engl.: Passive Compliance) bezeichnet, da sie – einmal verbaut – das System ohne weiteres Zutun dauerhaft nachgiebig gestaltet.

Eine aufwendigere, aber dafür auch flexiblere Möglichkeit ist die Aktive Nachgiebigkeit (engl.: Active Compliance). Hierbei kann die Roboterhardware mechanisch völlig steif sein; die Nachgiebigkeit des Systems wird durch eine entsprechende Ansteuerung der Motoren simuliert. Dafür ist der Roboter mit Kraftsensorik ausgerüstet, die dem System konstant die auf den Roboter einwirkenden externen Kräfte meldet. Eine geschickte Regelung (Wikipedia) lässt den Roboter dann auf diese Kräfte auf die gleiche Art und Weise reagieren, wie es eine reale Feder tun würde: Bei kleiner Krafteinwirkung gibt der Roboter mit einer kleinen Bewegung nach, bei größerer Krafteinwirkung reagiert der Roboter mit einer deutlicheren Ausweichbewegung. Nicht, weil die Motoren nicht kräftig genug wären, den Kräften entgegenzuhalten, sondern weil dieses Verhalten den Eindruck eines weichen, nachgiebigen Systems erweckt und erwecken soll. Wie so eine Interaktion aussehen kann, zeigt das folgende Video:

Der iCub wird geführt und kann Objekte ertasten

Nachgiebigkeit ist dabei allerdings nicht allein für Interaktion eingesetzt; es ist auch ein enormer Sicherheitsaspekt. Ein Roboter, der mit seiner Umgebung (im schlimmsten Fall dem Menschen) kollidiert, weil er sie nicht richtig erkannt hat, richtet potentiell deutlich weniger Schaden an, wenn er nachgiebig ist; Schaden an sich und der Umwelt. Dies gilt für passive Nachgiebigkeit, genauso wie für aktive Nachgiebigkeit, wie das Deutsche Luft- und Raumfahrtzentrum im folgenden Video eindrücklich und mit offenbar ausreichend Vertrauen in die Technik beweist; am Ende des Videos mit Messer und einem menschlichen Probanden:

KUKA Lightweight Robot IV mit Kollisionserkennung

Plug and Pray

Arne am 23.10.2010 um 19:00 Uhr - zum Artikel

Im nächsten Monat, am 11. November, wird der Film Plug & Pray in die deutschen Kinos kommen. Ich hatte schon vor einigen Wochen das Vergnügen, den Film in trauter Runde während der iCub Summer School zu sehen, von der auch Szenen im Film zu sehen sind (unter anderem mit dem Slogan des Filmes „Dafür werden wir alle exkommuniziert“).

Der iCub im Film „Plug & Pray“Der iCub im Film „Plug & Pray“

Die Visionen, die heutzutage wegen fortschreitender Technik rund um die künstliche Intelligenz und die Robotik entstehen, sind längst auf dem Level der Science-Fiction des letzten Jahrhunderts angekommen. Auch wenn es technisch an so vielen Stellen noch hapert, sind diese Visionen auch in der Forschung präsent. So wird im Film zum Beispiel Hiroshi Ishiguro gezeigt, der sich einen Roboter nach seinem Abbild geschaffen hat, den Geminoid. Oder der iCub, der einem Kind nachgebildet ist und wie ein Kind lernen und seine Umgebung entdecken soll. Oder Ray Kurzweil, seit Jahren in den USA gefeierter Visionär, der seit einiger Zeit die baldige Verschmelzung von Mensch und Maschine und das menschgemachte Vorantreiben der Evolution predigt.

Plug & Pray ist ein Dokumentarfilm und stellt aktuelle Visionen, Über­zeu­gun­gen und den Alltag von Forschungsinstituten und Wis­sen­schaft­lern weltweit vor, die sich mit künstlicher Intelligenz und Robotik beschäftigen. Durch die schonungslose und gut recherchierte Dar­stellung der Szene und den zum Teil von den Wissenschaftlern leichtfertig vorgetragenen Fantasien ist der Film durchaus provokant und vielleicht sogar verängstigend. Er nimmt dabei allerdings seine dar­gestellten Protagonisten ernst, bleibt menschlich und liebevoll, ist niemals reißerisch und lässt Platz zum Nachdenken.

Anstrengend wird der Film dadurch nicht, dass er nie wirklich technisch wird und vor allem durch den wunderbaren, mittlerweile leider verstorbenen Joseph Weizenbaum, einem der Computerwissenschaftler des letzten Jahrhunderts, der mit Humor und scharfem Verstand den roten Faden des Filmes bildet. Immer wieder sind Interviewschnipsel und Alltagsszenen mit ihm eingestreut, die die zum Teil verstörenden Szenen einordnen und in der normalen Welt erden. Dass dies ausgerechnet einem Com­pu­ter­wis­sen­schaft­ler gelingt, der mit ELIZA (Wikipedia) einen der Meilensteine der künstlichen Intelligenz geschaffen hat, ist erstaunlich und beruhigend zugleich.

Gut recherchiert, nachdenklich, humorvoll und mit durchdachter Einordnung der gesellschaftlichen Relevanz ist Plug & Pray ein Film für Menschen vom Fach, Technik-Interessierte und jeden, den ein Zweig unserer Zukunft interessiert, der gerade rasant entsteht und der immer noch ziemlich un­be­re­chen­bar ist.

Trailer zum Film „Plug & Pray“

Anschauen dringend empfohlen.

PLUG & PRAY ist erschütternd und packend. Joseph Weizenbaum, mit der Gabe des Humors ausgestattet, verkörpert den gesunden Menschenverstand, während um ihn herum der Wahnsinn geadelt wird.“

Hans-Peter Dürr, Kernphysiker

Telenoid R1 und das Uncanny Valley

Arne am 22.08.2010 um 11:25 Uhr - zum Artikel

Das Uncanny Valley (englisch für „unheimliches Tal“) ist die Bezeichnung für einen psychologischen Effekt, der in der Robotik bei humanoiden Robotern auftritt. Der Effekt ist scheinbar widersprüchlich, aber deutlich messbar. Er bewirkt, dass humanoide Roboter dem Menschen nicht in dem Maße vertrauter werden wie sie ihm ähnlicher werden.

Das Uncanny Valley, das unheimliche TalDas Uncanny Valley, das unheimliche Tal

Bis zu einem gewissen Maße ist dies zwar der Fall: Ein ASIMO ist uns vertrauter als eine Blech­büch­se. Aber ir­gend­wann kippt dieser Ef­fekt und wir be­gin­nen, uns zu gruseln. Es ist der Moment, in dem unser Un­ter­be­wusst­sein beginnt, in dem Roboter tat­säch­lich eine mensch­li­che Ge­stalt zu erkennen. Unser Un­ter­be­wusst­sein be­ginnt in dem Mo­ment al­ler­dings auch, an diese mensch­­li­­che Ge­­stalt all die An­sprüche zu stellen, die wir an einen Men­schen stellen. Wir erwarten Mimik, dass sich der Brust­korb beim Atmen bewegt, dass die Augen mit uns Blick­kontakt aufnehmen, viel­leicht blinzeln und wir erwarten vor Allem weiche, natür­liche, mensch­liche Bewegung. Sehen wir eine mensch­liche Gestalt (die gilt übrigens im gleichen Maße für animierte Figuren etwa in einem Com­pu­ter­spiel) und vermis­sen diese Aspekte, signa­li­siert uns unser Unter­be­wusst­sein, dass irgend­etwas nicht stimmt. Schuld ist hier wie so oft unser Fort­pflan­zungs­trieb, der uns po­ten­tiel­le Partner kon­ti­nu­ier­lich auf Hin­weise auf Fehl­bild­ungen oder Krank­hei­ten absuchen lässt.

Der Effekt lässt sich wie gesagt messen und wie in obiger Grafik darstellen (entnommen der Wikipedia). Die Grafik zeigt in rot die intuitive Annahme, dass die (emotionale) Akzeptanz mit der Menschenähnlichkeit steigt und in blau die tatsächliche Akzeptanz, die kurz vor der Menschenähnlichkeit dramatisch einknickt und den Betrachter verstört.

Zurück zur Robotik: Das Uncanny Valley zu Umschiffen ist für die Erbauer humanoider Roboter eine wichtige Frage. Wollen Sie den Roboter für die Interaktion mit dem Menschen erbauen (und das ist bis auf wenige Ausnahmen bei Humanoiden der Fall), ist einem mit einem Roboter, der den Betrachter verstört, nicht viel geholfen.

Viele Entwickler entscheiden sich deshalb bewusst für eine schemenhafte, manchmal gar comic-hafte Gestalt, die uns schon vertraut ist, aber bewusst nicht ähnlich genug, um ins Uncanny Valley zu geraten. An dieser Stelle wollte ich auf ursprünglich auf den iCub verweisen, der für mich ein gutes Beispiel darstellt. Ein Kommentar in meinem Beitrag zum iCub zeigt jedoch, dass es da offenbar deutliche Unterschiede gibt. Simon ist vielleicht ein noch besseres Beispiel.

Und damit komme ich zum ursprünglichen Antrieb für diesen Blogbeitrag: Ein neuer Roboter auf der internationalen Bildfläche der Telenoid R1:

Telenoid R1Telenoid R1

Der Roboter ist nicht nur ein humanoider, sondern er ist sogar ausdrücklich zur Kommunikation mit einem Menschen konstruiert. Er ist ein Telepräsenzroboter und damit dafür gedacht, einen Diskussionspartner zu vertreten, der irgendwo auf der Welt in eine Kamera spricht. Der Roboter gibt die Sprache weiter und versucht, die mit der Kamera aufgezeichnete Gesichtszüge und Mimik nachzuahmen.

Die reduzierte Gestalt des Roboters ist Absicht und soll erlauben, dass der Telepräsenzroboter sowohl weibliche als auch männliche, sowohl junge als auch ältere Gesprächspartner repräsentieren kann.

Hier scheint es mir doch deutlich der Fall zu sein, dass die Uncanny-Valley-Empfindung im japanischen Raum entweder eine komplett andere ist oder von dem allgemeinen Robotik-Enthusiasmus schlicht überschrieben wird. Dass jemand 6.000 Euro bezahlt (der geplante Preis bei Markt-Einführung), um sich in einem Gespräch von dem merkwürdig anmutenden Telenoid mit seinen Stummelarmen vertreten zu lassen, scheint mir in westlichen Ländern mindestens unwahrscheinlich. Das Konzept, die Telepräsenz auf die Art und Weise durch die physische Präsenz eines Avatars noch realistischer zu machen, ist mir zwar einleuchtend, aber wer will schon während der Telepräsenz tief im Uncanny Valley sitzen?

Und hier sieht man den Roboter im Einsatz, für mich sieht das nicht nach einer besonders vorteilhaften Gesprächssituation aus:

Demonstration eines Ferngesprächs mit dem Telenoid

Der Telenoid kommt übrigens von dem gleichen Schaffer, Hiroshi Ishiguro, der auch schon für den Geminoid verantwortlich zeichnet, der ähnliche Reaktionen hervorrief.

Fußballroboter trainiert im Weltall

Arne am 10.08.2010 um 20:31 Uhr - zum Artikel

Der Nao, französischer Fußballroboter und aktuelle Standardplattform in der RoboCup-Fußballliga, soll in Zukunft im Weltall trainieren. Allerdings nicht sich selbst, sondern die dortigen Langzeitastronauten.

NaoNao

Der Nao soll als Personal Trainer die Langzeitastronauten bei Laune halten und zum täglichen Kampf gegen den Mus­kel­rück­gang motivieren. Das zu­min­dest plant das CoR-Lab, For­schungs­in­sti­tu­tes für Kog­ni­tion und Ro­bo­tik, in Zu­sam­men­ar­beit mit dem DLR, dem deut­schen Zen­trum für Luft- und Raum­fahrt.

Das Projekt umfasst sowohl die Analyse von Techniken menschlicher Mo­ti­va­tions­trai­ner als auch die Über­tra­gung der Er­geb­nis­se auf den Ro­bo­ter. Die Uni­ver­si­tät Bie­le­feld hat mit dem CoR-Lab und dem CITEC, dem Exzellenzcluster für kognitive Interaktionstechnologie, die notwendige Expertise, sowohl die Interaktion zwischen Motivationstrainer und -schüler zu verstehen, als auch dies in Technik umzusetzen. Zumindest in dem Rahmen, in dem man dies heutzutage schon mit Roboter machen kann. Zum Einsatz kommen werden dabei wahrscheinlich sowohl der Nao als auch FloBi, ein emotionaler Roboterkopf aus Bielefeld.

Flobi, Roboterkopf mit ausdrucksstarker Mimik

Das Projekt läuft über drei jahre und endet in einem Live-Versuch, in dem mehrere Personen unter medizinischer Aufsicht isoliert werden und über mehrere Wochen unter den Augen der Wissenschaftler vom Nao bespaßt werden und dabei auf ihre Stimmungslage und Trainingserfolge untersucht werden.

Disclaimer: Das CoR-Lab ist mein aktueller Arbeitgeber.

Die großartige iCub Summer School

Arne am 08.08.2010 um 21:05 Uhr - zum Artikel

Zurück von der iCub Summer School VVV10, die einfach großartig war. Fast zwei Wochen haben einige dutzend Robotiker aus Europa (sowie einzelne aus den USA und Neuseeland) in einem alten Kirchengebäude in Sestri Levante rund um zwei iCubs gearbeitet, ausprobiert und gelernt. Wie das aussieht und wie die Arbeitsstimmung dort ist, zeigt ein Timelapse-Video eines der Tage:

iCub Summer School 2010, 24. Juli 2010 (Dank an Alexis)

Links im Vordergrund ist ein iCub in schwarzem Gewand aufgebaut (die Roboter sind besser erkennbar, wenn man das Video in HD ansieht), links im Hintergrund der zweite im weißen Gewand. Bereits in den ersten zwei Tagen hatten sich alle Teilnehmer in Gruppen zusammengerauft, die ähnliche Ziele verfolgten und ähnliche Experimente machen wollten und somit in den nächsten Tagen gemeinsam arbeiteten.

Die freie, konstruktive und kollegiale Arbeitsstimmung … das gemeinsame Arbeiten und Lernen mit Wissenschaftler aus aller Welt … das tolle Kon­gress­zen­trum nur fünf Schritte vom Meer entfernt … das war eine richtig tol­le Summerschool.

Dass ich nicht nur viel über den iCub gelernt habe, sondern auch tolle Gespräche mit den Machern des iCub führen konnte, die mir in den nächsten Tagen viel helfen werden, und dass ich zusätzlich noch eine private Führung durch das IIT (Italien Institute of Technology) bekommen habe, war das Sahnehäubchen. Am IIT durfte ich die Protoypen der Weiterentwicklung des iCub sehen: die tollen neuen Beine (mit eingebauter Federung und Kraftregelung) und neue, kleine und feinfühlige Hände.

Ich freue mich schon auf die nächste Summerschool.

Roboter: iCub

Arne am 07.08.2010 um 22:25 Uhr - zum Artikel

Der iCub  (Foto von LV, robotcub.org)Der iCub (Foto von LV, robotcub.org)

Der iCub ist ein waschechter europäischer Roboter-Spross. Die Vision zu diesem Roboter hatte Giorgio Metta vom IIT (Italien Institute of Technology), der an seinem Institut zusammen mit vielen anderen europäischen Forschungsinstituten im fünf­jäh­ri­gen RobotCub-Projekt das Roboterkind entwickelte.

Die Kleinkind-Gestalt des iCub kommt nicht von Ungefähr. Mit dieser Gestalt trickst man die Kommunikationspartner – den menschlichen Gegenüber des iCub – aus. Zum einen erwarten Menschen instinktiv von einem Kind nicht so viele, komplexe und entwickelte Fähigkeiten wie von einem Erwachsenen. Entsprechend verzeihen wir einem kindlichen Roboter eher die Fehler, die jeder Roboter heutzutage nun einmal noch zuhauf und ständig begeht: Sie verstehen uns nicht, erkennen Objekte in ihrer Umgebung nicht und greifen daneben, wenn sie diese greifen sollen.

Zum anderen bietet die kindliche Gestalt große Vorteile für den Roboter, wenn es darum geht, Fähigkeiten vom Menschen zu lernen. Unbewusst ändern Menschen ihre Sprache, Gestik und Mimik gegenüber Kleinkindern. Sprechen wir mit Kindern, sprechen wir sehr deutlich und sehr betont. Wir achten darauf, Bewegungen langsam und deutlich auszuführen und synchron mit der Stimme auszuführen die gerade die Bewegung oder deren Zweck beschreibt. Und wir zeigen mit unserem Blick ganz deutlich, wo auch das Kind gerade hinsehen sollte, um die Aufgabe zu verstehen. Diesen Effekt, mit dem normalerweise Eltern und Erwachsene Kleinkindern beim Lernen und Verstehen der Welt helfen, macht man sich so zunutze. Ein Vorteil bei der Kommunikation zwischen Roboter und Mensch, den man zumindest heute mit besserer Sensorik und besserer Technik des Roboters noch nicht ausgleichen kann.

Ursprünglich war der iCub nach der Vorlage eines noch kleineren Kindes geplant, herausgekommen ist ein Roboter, der in der Einschätzung zwischen zwei- und dreijährig rangiert. Der Grund ist, dass es Motoren und Getriebe in der Größe und gleichzeitig Leistungsfähigkeit, um den iCub zu tragen, damals noch nicht gab, weswegen man die Größenvorstellung anpassen musste.

Doch auch mit diesem Kompromiss ist der iCub ein wunderbarer Roboter geworden, der im besten Sinne ein langfristiges, europäisches Projekt ist. Die Robotik-Welt beneidet Europa um die langfristige, klare Strategie in der Robotik und der iCub zeigt, warum. Das Projekt lief fünf Jahre und ist seit nunmehr einem Jahr vorüber, aber der iCub macht munter weiter. Überall auf der Welt ist er im Einsatz, wie stetig neue Videos auf Youtube beweisen. Neben den einzelnen Experimenten der (hauptsächlich europäischen) Forschungsinstitute, laufen über die nächsten Jahre weitere große Projekte, die den iCub nutzen und weiterentwickeln: iTALK, Robotdoc, AMARSi, … um nur drei der großen aktuellen Projekte zu nennen.

Bericht über den iCub

Morgen geht’s los

Arne am 17.07.2010 um 23:37 Uhr - zum Artikel

In sieben Stunden geht’s los nach Italien. Bis zum 28. Juli wird dort die diesjährige iCub Summer School stattfinden. Zehn Tage lang wird sich alles um den iCub drehen und mehrere dutzend Wissenschaftler aus ganz Europa werden zusammenarbeiten um dem iCub neue Fähigkeiten beizubringen oder einfach voneinander zu lernen. Da ich bislang den iCub nur in Simulation bewegt habe, werde ich mich in den ersten Tagen auf das Lernen konzentrieren.

Da die Summer School praktischerweise in der Nähe von Genua ist, habe ich mich außerdem schon für einen Kurzbesuch bei Nikos Tsagarakis am IIT (Italien Institute of Technology) angemeldet und werde an die Summer School noch zwei Tage am IIT ranhängen. Dort werde ich dann die neue Version des iCub sehen, die dort gerade in der Advanced-Robotics -Gruppe entwickelt wird. So bekomme ich dann noch einen konkreteren Einblick in die weitere Zukunft des iCub und kann einige meiner Kollegen aus dem AMARSi-Projekt persönlich kennenlernen, mit denen ich bislang nur per E-Mail Kontakt hatte.

Auf geht’s nach Sestri Levante!