Artikel

Der RoboCup kommt

Arne am 02.07.2011 um 11:53 Uhr - zum Artikel

RoboCup 2011 in IstanbulRoboCup 2011 in Istanbul

In knapp drei Tagen, am kom­men­den Dienstag startet in Istanbul an der Grenze zwi­schen Eu­ro­pa und Asien die RoboCup-Welt­mei­ster­schaft 2011. Auch ein Team aus Bie­le­feld, ToBi (Team of Bielefeld) ist wie­der in der RoboCup@Home-Liga da­bei.

Ich habe deswegen die Gelegenheit des letzten Robotik-Stammtischs genutzt, um mit Frederic Siepmann, dem Verantwortlichen für das Bielefelder Team, ein wenig über den RoboCup und die Vorbereitungen dafür zu sprechen:

Ich: Hey Frederic. Ihr habt ja im letzten Jahr in Singapur den siebten Platz gemacht. Welche Unterschiede und Verbesserungen in diesem Jahr an Eurem System gibt es im Vergleich zum Vorjahr. Und sind überhaupt die Aufgaben wieder die gleichen?

Frederic: In diesem Jahr ist im Prinzip der selbe Funktionumfang wie im letzten Jahr gefordert. Es gibt immer einige kleine Änderungen an Aufgaben, in denen sich im vergangenen Jahr Probleme herausgestellt haben oder die Regeln nicht klar genug formuliert waren. Es hat sich auch ein bisschen etwas an der Punktevergabe geändert, aber im Prinzip sind es die selben Aufgaben.

Daher ist der Unterschied bei uns zum letzten Jahr vor allem, dass damals viele Sachen einfach mit der heißen Nadel gestrickt waren. Das konnten wir jetzt mal etwas intensiver testen und stabilisieren. Im Rahmen der @­Home-­Liga gibt es auch immer die sogenannte Demo Challenge. Dafür wird immer ein Thema vorgegeben und dort kann man dann im Prinzip tun, was man will. Es muss nur irgendwie in dieses Demo-Konzept passen. In Singapur im letzten Jahr war ein Restaurant-Kontext vorgegeben. Das heißt, wir haben zum Beispiel viel gesehen, dass der Roboter Bestellungen entgegennimmt und den Leuten Getränke bringt; wie man sich das eben von einen Roboter im Restaurant vorstellt. In diesem Jahr ist das Thema Household Cleaning vorgegeben. Da haben wir jetzt bei den German Open noch nicht so sehr viel gesehen, aber man sah, dass viele Roboter versuchen, Gegenstände vom Boden aufzusammeln und in den Müll zu schmeißen …

Ich: Ich glaube, ich habe auch gesehen, wie einer der Roboter versucht hat, mit einem Lappen einen Tisch sauberzumachen …

Frederic: Ja, genau. Das waren wir.

Ich: Ach, das wart Ihr. Und das werdet Ihr auch in Istanbul zeigen?

Frederic: Ja, wir werden mit Sicherheit wieder Tischsäubern zeigen. Wie Du ja weißt, ist die Plattform bei uns ja etwas eingeschränkt, da der Arm nicht soweit herauskommt. Aber wir haben jetzt noch ein paar Extra-Gimmicks eingebaut, zum Beispiel dass der Roboter jetzt dynamisch die Flächen erkennen kann und man dem Roboter zeigen kann, wo er reinigen soll. Es ist für den Roboter natürlich schwierig zu erkennen, wie schmutzig eine Fläche ist. Wenn da Konfetti liegen ist das noch okay, aber bei Staub wird es schon schwierig. Man muss da noch etwas sehen, welche Szenarien da denkbar sind, aber im Prinzip passt das.

Ich: Ihr wart ja im April bei den German Open und habt glaube ich den dritten Platz gemacht …

Frederic: Nee, nach der Vorrunde waren wir zwar auf dem dritten Platz, sind dann im Finale aber noch von den b-it-bots abgefangen worden.

Ich: Ein vierter Platz, mit dem Ihr zufrieden wart?

Frederic: Ja, auf jeden Fall.

Ich: Ich nehme aber an, dass Ihr auch von dort noch Dinge mitgenommen habt, die noch zu verbessern sind?

Frederic: Ja. Die German Open – und vermutlich alle nationalen Vorentscheide – sind immer so ein bisschen ein erster Test Case. Da hat man dann normalerweise zum ersten Mal on site wirklich Zeit, das System intensiv zu testen. Die Studenten bekommen dann auch zum ersten Mal wirklich mit, wie das ist: Wenn es dann wirklich auf Kommando losgehen soll, hektisch ist und die Hardware überall herumfliegt usw. … von daher ist das ein super Testszenario, das würde ich auch nicht missen wollen.

Ich: Zum ersten Mal auch unter den echten Wettkampfbedingungen …

Frederic: Richtig! Man muss dann auch zum ersten Mal richtig in die Arena hereinfahren und dann stehen dort Objekte und Möbel herum, die man nicht erkennen kann. Man kann sich dann auch wirklich intensiv und mit viel Zeit um den Roboter kümmern, da ja dann auch das gesamte Team da ist. In der Uni mischen sich dann ja auch immer viele andere Dinge dazu. Das hat uns auch wieder ziemlich viel gebracht in diesem Jahr. Wir konnten viele Dinge für die weitere Arbeit in unserem Wiki festhalten: Dinge, die gut und Dinge, die nicht so gut gelaufen sind und die wir noch verbessern wollen.

Ich: Seit wievielen Jahren seit Ihr jetzt mit Eurem System beim RoboCup@Home vertreten?

Frederic: Tatsächlich erst seit 2009. Damals sind wir aus dem Stand auf den achten Platz gekommen, was ziemlich gut war. Im letzten Jahr sind wir dann wie gesagt Siebter geworden, dieses Jahr werden wir sehen, was passiert.

Ich: War das damals die gleiche Plattform wie in diesem Jahr?

Frederic: Ja gut, wir haben die seitdem natürlich etwas modifiziert, aber die Basis ist die gleiche geblieben. Wir hatten damals die neue Plattform bekommen und in dem Rahmen beschlossen, dass die Teilnahme an der @Home-Liga eine brauchbare Sache wäre. Diese Liga hat eben Anforderungen, die unserer sonstigen Forschung insgesamt schon recht ähnlich sind. Das erste Team hat natürlich erst einmal die meiste Arbeit, weil einige der Basiskomponenten einfach noch nicht für die Plattform zur Verfügung standen. SLAM zum Beispiel musste erst einmal darauf gebracht werden. Oder Objekterkennung. Das war zwar schon vorhanden, aber eben noch nicht auf dieses Robotersystem portiert. Das war viel Arbeit zu Beginn.

Ich: Kommen bei Euch denn jetzt eigentlich auch im Vergleich zur German Open noch weitere Features dazu?

Frederic: Stabilität ist natürlich auch ein Feature. (lacht) Wir haben aber tatsächlich auch noch ein wenig grundlegend an der Software gearbeitet. Zum Beispiel die Ansteuerung des Arms und die Objekterkennung verbessert. Das heißt, da können wir jetzt auch noch etwas mehr als bei den German Open.

Das klassiche Problem ist ja zum Beispiel, dass wenn man ein Objekt erkannt hat, man den Roboter erst einmal so positionieren muss, dass der Arm das Objekt überhaupt greifen kann. Das stellt sich im Moment noch etwas als Schwierigkeit heraus. Die Software haben wir schon, sie ist aktuell aber einfach noch nicht vollständig ins System integriert.

Ich: Also Frederic, ich nehme an, Deine letzten Wochen waren deutlich von der Arbeit für den RoboCup bestimmt?

Frederic: Das würde ich sofort unterschreiben, ja!

Ich: Das kostet ja insgesamt schon ziemlich viel Zeit, insbesondere natürlich in der Vorbereitung eines Turniers. Inwiefern, würdest Du sagen, profitiert da ein Institut oder vielleicht sogar Du als Wissenschaftler von?

Frederic: Super Frage! Also bei uns ist es ja tatsächlich so, dass ca. 90 Prozent der Teammitglieder jedes Jahr wechseln. Da kommen also jedes Jahr frische, neue Studenten, die an dem Roboter arbeiten wollen. Das ist mit Sicherheit auch etwas Besonderes von dem Bielefelder Team, was natürlich auch besondere Anforderungen an die Entwicklungsumgebung stellt. Wir machen das aber natürlich sehr gerne, weil wir dadurch sehr früh die Studenten mitnehmen können. Von der universitären Seite ist natürlich sehr spannend, dass wir die Studenten so sehr früh in unsere Software einführen können. Die können dann damit wirklich coole Sachen machen, wir haben zum Beispiel unheimlich viele studentische Abschlussarbeiten im Rahmen unserer RoboCup-Teilnahme. Außerdem kommen so auch immer wieder Studenten als Hilfswissenschaftler zu uns. Davon kann natürlich die Universität und das Institut ganz enorm profitieren. Einfach auch weil wir damit natürlich auch viel Manpower dazugewinnen.

Das System als solches, das wir in dem Rahmen entwickeln, und die Entwicklung, die man in der Kürze der Zeit damit macht, würde man wahrscheinlich sonst auch in der Form nicht hinbekommen.

Ich: … wegen der fokussierten Arbeit an einer lauffähigen und stabilen Version …

Frederic: Genau! Also, man mag mir da widersprechen, aber es ist sonst im universitären Umfeld auch nicht so häufig, dass so stark in Richtung eines Systems gearbeitet wird, das wirklich stabil auf einer Plattform läuft.

In wissenschlaftlicher Hinsicht ist der RoboCup immer durchaus zwiespältig diskutiert. Einige sagen, dass die Verfahren einfach schon seit Jahren bekannt sind und es im Prinzip nur darum geht, die schnellere Hardware zu haben. Zum Teil ist das sicherlich auch berechtigt und mag stimmen. Gerade beim Roboterfußball hört man das häufig.

Bei der @Home-Liga trifft das sicherlich nicht so sehr zu. Da lässt sich durch schnellere Hardware nicht so viel wettmachen, weil viele Probleme hier einfach auch noch nicht gelöst sind.

Ich: In der @Home-Liga passiert also auch noch mehr Forschung, würdest Du sagen? Weil es da auch konzeptionell noch mangelt?

Frederic: Die @Home-Liga ist auch einfach noch eine der jüngsten Ligen des RoboCup, ich glaube erst 2005 gegründet worden, und seitdem die am stärksten wachsende Liga. Und die Teilnehmer, ob jetzt Georgia Tech, University of Tokio, Osaka University, Bielefeld und einige andere … das sind Namen, die man durchaus auch im Forschungsumfeld viel hört.

Es sind einfach auch viele Probleme wirklich noch ungelöst. Daher würde ich schon sagen, dass wenn man Forschung in diesem Bereich macht – was Grundvoraussetzung ist – kann man da durchaus von profitieren. Auch, da man dadurch ja Systeme bekommt, mit denen man dann empirische Daten aufnehmen kann. Häufig hat man eben in der Robotik einzelne Komponenten, aber ohne lauffähiges Gesamtsystem kann man keine vernünftigen Tests machen. Das Problem haben wir nicht.

Ich: Du würdest also sagen, dass Du auch als Wissenschaftler davon profitierst?

Frederic: Vielleicht nicht so viel wie ich könnte, aber im Prinzip auf jeden Fall, ja.

Ich: Und ich nehme an, du würdest Studenten in der Robotik auch jederzeit empfehlen, an solchen Wettbewerben teilzunehmen, sofern die Möglichkeit an der Universität oder dem Institut besteht?

Frederic: In meinen Augen ist das das beste, was man machen kann. Das ist das echte Entwicklerleben und nicht die berühmte trockene Theorie, die einem ja sonst häufig in der Informatik vorgeworfen wird. Das einmal mitgemacht zu haben, ist auch wirklich ein Erlebnis. Kann natürlich auch sehr frustrieren sein, wenn es nicht funktioniert. Aber wenn man dann dazu beigetragen hat, einen Platz XY bei der Weltmeisterschaft zu machen und Sachen, die man selbst programmiert hat vor einem Publikum präsentieren kann und der Roboter räumt dann richtig ab … das ist einfach nur genial!

Ich: Okay, Frederic. Danke vielmals für den ausführlichen Einblick und viel Erfolg mit Team ToBi in Istanbul!

Frederic: Danke.

Das Team ToBi bloggt übrigens auch fleißig über den Turnierverlauf und die Vorbereitungen. Frederic Siepmann ist Diplom-Informatiker am Center of Excellence Cognitive Interaction Technology (CITEC) in Bielefeld und seit 2008 Teamlader des Team ToBi.

Robuste Roboterhand vom DLR

Arne am 10.02.2011 um 13:30 Uhr - zum Artikel

Einen Vorgeschmack zur weiteren Entwicklung in der Robotik hat das Deutsche Zentrum für Luft- und Raumfahrt (DLR) in den letzten Tagen geliefert: Angetriggert von einem Artikel in der IEEE Spektrum, wie ich annehme, berichteten in den letzten Tagen allerhand englischsprachige Robotik-Blogs (z.B.) über die neue Roboterhand, die das DLR vorgestellt hat.

Leichtbau-Hand des DLRLeichtbau-Hand des DLR

Die Hand sieht nicht nur spektakulär aus, ihre wahre Sensation liegt zum einen in ihrer Ähnlichkeit zur menschlichen Hand und vor allem in ihrer Robustheit. Die Ähnlichkeit zur menschlichen Hand liegt maßgeblich im (technische) Design begründet, das dem Bewegungsapparat der menschlichen Hand sehr Nahe kommt. Dass die Hand in den Blogs dieser Welt unter Bezeichnungen wie Super Robust Robot Hand geführt wird, ist darin begründet, dass das DLR zeigen kann, dass diese Hand selbst mehrere Schläge mit einem Hammer überlebt; mit nahezu allen bisherigen Robotik-Bauteilen absolut undenkbar. Vor allem, wenn sie dafür nicht in eine Schutzhülle eingepackt sein müssen und sich dabei noch so präzise bewegen können.

Hier im Video ist die Hand zu sehen und wie mit ihr umgegangen wird:

Leichtbau-Hand des DLR in Bewegung und grob behandelt

Schon auf der Automatica im letzten Jahr zeigte das DLR die Hand plus angeschlossenem Unterarm und zog damals schon viele Blicke auf sich. Dass die Robotik-Abteilung des DLR um Hirzinger plant, sozusagen als nächsten großen Wurf, dieses Designprinzip innerhalb der nächsten fünf Jahr in einen Vollkörper-Humanoiden fließen zu lassen, stimmt mich äußerst erwartungsvoll. Der Plan ist, so hört man aus eingeweihten Kreisen, innerhalb der nächsten fünf Jahre die Hardware des Roboter fertigzuhaben und in weiteren fünf Jahren den Roboter vollständig zu beherrschen, so dass er rennen und Treppen rauf- und runterspringen kann. Und wem ist das mehr zuzutrauen, als dem DLR, nachdem die Robotik-Abteilung zuletzt mit dem Leichtbau-Industriearm gezeigt hat, zu welchen technologischen Sätzen man dort in den Lage ist.

Was diese Hand so besonders robust macht, ist ihr durchdachtes Design, moderne Materialien, aber vor allem die Verwendung von künstlichen Sehnen zur Bewegung der Finger. Diese erlauben es, plötzlich auftretenden Kräften nachzugeben (wie zum Beispiel bei einem Aufprall), so dass die Struktur der Hand und die Elektronik von diesen Kräften nicht verletzt wird. Weiterhin wurden die Sehnen in einer Art und Weise verbaut, die es erlauben, ihre Steifigkeit zu verändern. Also etwa steife Sehnen für einen möglichst präzisen Griff und weniger steife Sehnen, wenn es darum geht, unbekannte Gegenstände zu ertasten, oder empfindliche Objekte sanft zu greifen.

Mit insgesamt 19 Freiheitsgraden ist die Hand außerdem ähnlich bewegungsfähig wie unsere Hand (die gerade einmal einen Freiheitsgrad mehr hat). Bei der Konstruktion haben die Bauer darauf achtgegeben, dass die Bewegungsabläufe der Finger denen menschlicher Finger sehr nahe kommen, was diese Hand insgesamt mit all den obigen Faktoren zur aktuell wahrscheinlich coolsten Roboterhand für Humanoide macht. Der Konferenzbeitrag [1] zu der Hand und diesem Arm wurde auf der HUMANOIDS-Konferenz im Dezember in Nashville folgerichtig mit dem Best Paper Award ausgezeichnet. Dort zeigte der Vortragende Grebenstein im Video, wie mit einem Baseball-Schläger auf den Arm eingeschlagen wird, ohne dass dieser Schaden nimmt. Und das – das macht es so beeindruckend – nicht etwa mit ausgeschalteten Motoren und schlaff herumhängend, sondern in voller Positionsregelung. Ein gehöriger Unterschied, muss man doch bislang mit Robotern jede Bewegung im Vorhinein in Simulation ausführen, um jede Kollision mit eigenen Körperteilen oder anderen Objekten und eine damit einhergehende Beschädigung des Roboters auszuschließen.

Auf den Humanoiden des DLR in diesem Design kann man nur gespannt sein. Mehr und mehr beeindruckende Humanoide hat man in den letzten zwei Jahren die Weltbühne betreten sehen. Aber ein Leichtbau-Roboter, der in jedem Detail so durchdacht und so technologisch fortgeschritten ist, wie es uns mit der DLR-Hand gezeigt wurde, dürfte ein neues Niveau erreichen.

1
Markus Grebenstein, Maxime Chalon, Gerd Hirzinger, Roland Siegwart: Antagonistically Driven Finger Design for the Anthropomorphic DLR Hand Arm System, HUMANOIDS 2010. (Abstract, Full Paper)

Die neuen Beine des iCub

Arne am 03.11.2010 um 14:34 Uhr - zum Artikel

In der letzten Zeit habe ich einige Male über den iCub geschrieben. Das liegt zum Einen daran, dass ich bekennender iCub-Fan bin und zum Anderen daran, dass ich in letzter Zeit immer häufiger von Arbeitswegen mit ihm in Berührung komme. Endlich finde ich nun die Zeit, mal über eine neue Entwicklung des iCub zu schreiben, die ich schon seit einigen Monaten mit Spannung verfolge und zu der ich jetzt auch Bilder und Videos aus erster Hand zeigen kann: Die neuen Beine des iCub.

Der iCub ist im Rahmen des RobotCub-Projekts seit 2004 entstanden und wird seitdem kontinuierlich weiterentwickelt. Hauptsächlich bezog sich dies in den letzten Jahren auf Weiterentwicklung der Firmware und der iCub-Softwareumgebung, um die vorhandene Hardware immer besser, effektiver und einfacher nutzen zu können. Da der iCub als humanoide Forschungsplattform aber so erfolgreich ist, wird er konsequenterweise auch in Sachen Hardware weiterentwickelt. Kopf, Hände, Arme, Beine … für nahezu alle Teile existieren mehr oder weniger fortgeschrittene Pläne und Ansätze zur Weiterentwicklung.

Am CoR-Lab arbeiten wir zur Zeit noch mit der ersten Version des iCub, auf der Summer School jedoch durfte ich schon mit einer weiterentwickelten Version des iCub arbeiten, die über Kraftsensorik in Armen und Beinen verfügt. Diese Kraftsensoren können (noch relativ grob) Kontaktkräfte messen, die auf Arme und Beine einwirken. So erlaubt diese iCub-Version zum Beispiel, dass man den iCub bei der Hand nimmt und seinen Arm führt; ein bedeutender Fortschritt in der Interaktion von Mensch und Roboter, wenn man ihn anfassen und führen kann. Eine weitere faszinierende Möglichkeit ist, den Roboter in einen Nachgiebigkeits-Modus zu schalten. In diesem Modus reagiert der Roboter auf die Kräfte, die auf ihn wirken, auf die gleiche Art, wie es eine Feder tun würde: Bei kleiner Krafteinwirkung gibt der Roboter ein wenig nach, bei größerer Krafteinwirkung gibt der Roboter deutlicher nach. Der Roboter fühlt sich dadurch sanft und weich an. Dieser Modus, diese Art der Regelung, nennt sich Active Compliance (aktive Nachgiebigkeit). Ein Video mit dieser iCub-Version zeigt, wie Ugo diese Eigenschaften nutzt, um den iCub mit Spielzeug vertraut zu machen:

Der iCub wird geführt und kann Objekte ertasten

Bei meinem Besuch am IIT (Italien Institute of Technology in Genua) an einem Tag während der Summer School habe ich eine iCub-Version kennengelernt, die für das AMARSi-Projekt entwickelt wird und dieses Konzept noch weiter treibt. Dieser iCub (der vielleicht irgendwann einmal auf den Namen cCub, Compliant iCub, hören wird), hat nicht nur wie sein Vorgänger in Armen und Beinen jeweils einen Kraftsensor, sondern er verfügt über neue Gelenke, die jeweils sowohl weitere Kraftsensorik als auch echte mechanische Federn integrieren. Was diese integrierten Gelenk-Module in dem Betrachter auszulösen vermögen, wenn sich der iCub damit bewegt, ist eine der faszinierendsten Dinge, die ich in letzter Zeit in der Robotik gesehen habe. Die Kombination aus Active Compliance, also der durch Sensorik und Regelung simulierten Nachgiebigkeit, mit der realen Nachgiebigkeit der eingebauten mechanischen Fähigkeiten (Passive Compliance), bewirkt eine Natürlichkeit der Bewegung des Roboters, die im ersten Moment irritierend bis verstörend wirken kann.

Active Compliance allein macht die Interaktion mit dem Roboter schon deutlich natürlicher, und Bewegungen sehen weicher, runder und natürlicher aus. Nichtsdestotrotz bleibt der Eindruck beim Betrachter, dass es sich – tatsächlich – nach wie vor um eine Maschine handelt. Und genau dieser Eindruck scheint in dem Moment zu verschwinden, in dem zu der aktiven Nachgiebigkeit die echte (passive) Nachgiebigkeit der mechanischen Federung hinzukommt. Der Roboter bewegt sich damit offenbar in einer Art und Weise mit unterbewusst wahrgenommenen Schwingungen, die im menschlichen Hirn den Eindruck erwecken, hier würde sich ein biologisches Körperteil bewegen. Die mechanische Federung scheint ein ähnliches Muster aus Schwingungen und Oberschwingungen zu erzeugen, wie es menschliche Muskeln und Sehnen tun. Für mich war dies ein faszinierender, erschreckender Moment – als Robotiker allerdings positiv, was vermutlich nicht jedem Betrachter so ergeht. Nikos Tsagarakis, dessen Gruppe am IIT diese integrierten nachgiebigen Gelenke des iCub entwickelt, hat mir Fotos und Videos zugesandt und mir erlaubt, diese hier im Blog zu veröffentlichen. Zu sehen sind im folgenden Video die neuen Beine (noch ohne Oberkörper), wie sie balancieren und kleine Schritte tun. Ich weiß nicht, wie gut der beschriebene Effekt im Video erkennbar ist, wenn man ihn nicht live erlebt, aber dies ist der Versuch:

Die neuen Beine des iCub in Bewegung

Wer dies im Video nicht zu erkennen vermag, erfreut sich vielleicht an der Vorstellung des vergangenen AMARSi-Projekttreffens, als bei der Live-Demo dieser Beine grob geschätzt 40 Wissenschaftler, die in ihrem Leben schon hunderte Roboter gesehen haben, schweigend und mit großen Augen minutenlang diesen Beinen bei ihrer einfachen Bewegung zusahen.

Und hier die Beine nochmal in der Großaufnahme:

Die neuen Beine des iCub (Foto: IIT)Die neuen Beine des iCub (Foto: IIT)

Technisch Interessierte finden eine detailliertere Beschreibung dieser integrierten Aktuatoren in der Konferenzbeitrag zur ICRA 2009: A Compact Soft Actuator Unit for Small Scale Human Friendly Robots (kostenpflichtiger Zugriff via IEEE). Die weitere Entwicklung dieser iCub-Version wird weiterhin auf der Website des AMARSi-Projekts dokumentiert.

Compliance

Arne am 03.11.2010 um 14:34 Uhr - zum Artikel

Traditionell ist die Interaktion mit Robotern darauf beschränkt, dass dem Roboter Kommandos zugesandt werden (in der Regel als textuelle Kommandos, seltener per Sprache) und der Roboter über geeignete Sensorik (Kameras, Mikrofone, Laserscanner, …) seine Umgebung wahrzunehmen versucht. Was dabei in der Interaktion mit Menschen entsteht, ist allerdings häufig eine holprige, wenig natürliche und dadurch für Menschen oft anstrengende Interaktion. Dass man auf diese Art und Weise auch Menschen mit Robotern interagieren lässt, die nicht an der Entwicklung beteiligt waren und dadurch nicht Verständnis für diese Schwierigkeiten aufbringen, passiert daher eher selten.

Eine Form der Interaktion, die sehr viel natürlicher ist, weil sie durch die physische Rückkopplung sehr viel direkter ist, ist die direkte Berührung und damit das Führen des Roboters. Der Mensch fasst den Roboter an der Hand (sofern er eine solche besitzt) und leitet den Roboter an. In der Robotik ist dies ein relativ aktueller Zweig der sogenannten Mensch-Maschine-Interaktion (MMI, Human Machine Interaction – HMI). Im Umfeld der industriellen Robotik sind ähnliche Techniken unter den Begriffen Teach-In und Kinestethic Teaching zu finden.

Es gibt mehrere Möglichkeiten, einen Roboter für diese Form der Interaktion auszustatten. Eine Möglichkeit ist es, die Hardware des Roboters bewusst so zu konstruieren, etwa durch die Integration von mechanischen Federn in Struktur des Roboters, dass dieser nachgiebig ist. Diese Art der Nachgiebigkeit wird in der Robotik bzw. Regelungstechnik als Passive Nachgiebigkeit (engl.: Passive Compliance) bezeichnet, da sie – einmal verbaut – das System ohne weiteres Zutun dauerhaft nachgiebig gestaltet.

Eine aufwendigere, aber dafür auch flexiblere Möglichkeit ist die Aktive Nachgiebigkeit (engl.: Active Compliance). Hierbei kann die Roboterhardware mechanisch völlig steif sein; die Nachgiebigkeit des Systems wird durch eine entsprechende Ansteuerung der Motoren simuliert. Dafür ist der Roboter mit Kraftsensorik ausgerüstet, die dem System konstant die auf den Roboter einwirkenden externen Kräfte meldet. Eine geschickte Regelung (Wikipedia) lässt den Roboter dann auf diese Kräfte auf die gleiche Art und Weise reagieren, wie es eine reale Feder tun würde: Bei kleiner Krafteinwirkung gibt der Roboter mit einer kleinen Bewegung nach, bei größerer Krafteinwirkung reagiert der Roboter mit einer deutlicheren Ausweichbewegung. Nicht, weil die Motoren nicht kräftig genug wären, den Kräften entgegenzuhalten, sondern weil dieses Verhalten den Eindruck eines weichen, nachgiebigen Systems erweckt und erwecken soll. Wie so eine Interaktion aussehen kann, zeigt das folgende Video:

Der iCub wird geführt und kann Objekte ertasten

Nachgiebigkeit ist dabei allerdings nicht allein für Interaktion eingesetzt; es ist auch ein enormer Sicherheitsaspekt. Ein Roboter, der mit seiner Umgebung (im schlimmsten Fall dem Menschen) kollidiert, weil er sie nicht richtig erkannt hat, richtet potentiell deutlich weniger Schaden an, wenn er nachgiebig ist; Schaden an sich und der Umwelt. Dies gilt für passive Nachgiebigkeit, genauso wie für aktive Nachgiebigkeit, wie das Deutsche Luft- und Raumfahrtzentrum im folgenden Video eindrücklich und mit offenbar ausreichend Vertrauen in die Technik beweist; am Ende des Videos mit Messer und einem menschlichen Probanden:

KUKA Lightweight Robot IV mit Kollisionserkennung

Roboter: iCub

Arne am 07.08.2010 um 22:25 Uhr - zum Artikel

Der iCub  (Foto von LV, robotcub.org)Der iCub (Foto von LV, robotcub.org)

Der iCub ist ein waschechter europäischer Roboter-Spross. Die Vision zu diesem Roboter hatte Giorgio Metta vom IIT (Italien Institute of Technology), der an seinem Institut zusammen mit vielen anderen europäischen Forschungsinstituten im fünf­jäh­ri­gen RobotCub-Projekt das Roboterkind entwickelte.

Die Kleinkind-Gestalt des iCub kommt nicht von Ungefähr. Mit dieser Gestalt trickst man die Kommunikationspartner – den menschlichen Gegenüber des iCub – aus. Zum einen erwarten Menschen instinktiv von einem Kind nicht so viele, komplexe und entwickelte Fähigkeiten wie von einem Erwachsenen. Entsprechend verzeihen wir einem kindlichen Roboter eher die Fehler, die jeder Roboter heutzutage nun einmal noch zuhauf und ständig begeht: Sie verstehen uns nicht, erkennen Objekte in ihrer Umgebung nicht und greifen daneben, wenn sie diese greifen sollen.

Zum anderen bietet die kindliche Gestalt große Vorteile für den Roboter, wenn es darum geht, Fähigkeiten vom Menschen zu lernen. Unbewusst ändern Menschen ihre Sprache, Gestik und Mimik gegenüber Kleinkindern. Sprechen wir mit Kindern, sprechen wir sehr deutlich und sehr betont. Wir achten darauf, Bewegungen langsam und deutlich auszuführen und synchron mit der Stimme auszuführen die gerade die Bewegung oder deren Zweck beschreibt. Und wir zeigen mit unserem Blick ganz deutlich, wo auch das Kind gerade hinsehen sollte, um die Aufgabe zu verstehen. Diesen Effekt, mit dem normalerweise Eltern und Erwachsene Kleinkindern beim Lernen und Verstehen der Welt helfen, macht man sich so zunutze. Ein Vorteil bei der Kommunikation zwischen Roboter und Mensch, den man zumindest heute mit besserer Sensorik und besserer Technik des Roboters noch nicht ausgleichen kann.

Ursprünglich war der iCub nach der Vorlage eines noch kleineren Kindes geplant, herausgekommen ist ein Roboter, der in der Einschätzung zwischen zwei- und dreijährig rangiert. Der Grund ist, dass es Motoren und Getriebe in der Größe und gleichzeitig Leistungsfähigkeit, um den iCub zu tragen, damals noch nicht gab, weswegen man die Größenvorstellung anpassen musste.

Doch auch mit diesem Kompromiss ist der iCub ein wunderbarer Roboter geworden, der im besten Sinne ein langfristiges, europäisches Projekt ist. Die Robotik-Welt beneidet Europa um die langfristige, klare Strategie in der Robotik und der iCub zeigt, warum. Das Projekt lief fünf Jahre und ist seit nunmehr einem Jahr vorüber, aber der iCub macht munter weiter. Überall auf der Welt ist er im Einsatz, wie stetig neue Videos auf Youtube beweisen. Neben den einzelnen Experimenten der (hauptsächlich europäischen) Forschungsinstitute, laufen über die nächsten Jahre weitere große Projekte, die den iCub nutzen und weiterentwickeln: iTALK, Robotdoc, AMARSi, … um nur drei der großen aktuellen Projekte zu nennen.

Bericht über den iCub

Bericht von der Automatica 2010

Arne am 13.06.2010 um 16:24 Uhr - zum Artikel

Die Automatica, internationale Fachmesse für Automation und Mechatronik in München war auch in diesem Jahr wieder eine spannende Technologie-Schau. Wenngleich etwas kleiner als vor zwei Jahren, zeigten sich wieder dichtgedrängt in vier Hallen Hersteller und Forschungseinrichtungen der Automation, Mechatronik und Robotik.

Einzelne Teile der Messe waren für mich weniger interessant, das sind vor allem die Bereiche zur Förderungstechnik und klassischen Industrieautomatisierung: Förderbänder, Rollen, Räder, Notausschalter und Warnleuchten. Die Hallen zur klassischen Industrierobotik habe ich mir wiederum gerne angesehen. Hier zeigen die großen Industrierobotik-Hersteller auf beeindruckenden Standflächen ihre Roboter. Von kleinen, schnellen Robotern bis hin zu den großen Kolossen. In den letzten Jahren, beginnend mit den KUKA Titan (dem ersten mit einer Tonne Traglast), werden dazu gerne Roboter ausgestellt, die ganze Fahrzeuge oder Fahrzeugkarossen live durch die Halle stemmen.

Hier war in diesem Jahr der Hersteller Fanuc in besonderem Maße präsent. Nicht nur durch die zahllosen Hostessen, die stets in großer Zahl in leuchtend gelben Kleidern um den Stand und durch die Hallen schwirrten. Sondern auch durch einen Giganten, der von einem Fanuc-Partner ausgestellt wurde. Die Traglast des Roboters war am Stand nicht direkt zu erkennen und ich konnte beim Vorbeigehen leider auch keinen Ansprechpartner antreffen. Die Tatsache, dass jedoch allein der Greifer, den der Roboter durch seinen Arbeitsbereich wirbelte, ungefähr so groß war, wie sonst manch ein Industrieroboter der Konkurrenz, sprach Bände. Eine wahrlich imposante und furchteinflößende Maschine.

Das CoR-Lab, und damit auch ich, war als Aussteller in der Halle A2 untergebracht. Halle A2 war hauptsächlich der Robotik verschrieben, weswegen wir dort umgeben von der Konkurrenz [1] aufgestellt waren. Mit in der Halle und in Sichtweite fanden sich so zum Beispiel das KIT (Karlsruhe Institute of Technology), das DLR (Deutsches Zentrum für Luft- und Raumfahrt) und viele weitere Prominenz der deutschen Robotik-Forschungslandschaft.

Wir hatten einen gemeinsamen Stand mit dem Excellenzcluster CITEC, ebenfalls von der Universität Bielefeld, und damit sozusagen einen gemeinsamen Stand zur Forschung in der Mensch-Maschine-Interaktion. Zu unserem Stand fanden einige interessierte Besucher, unsere Demo lief alle Tage stabil und kam dem Eindruck nach gut an. Die Qualität der Kontakte, die wir auf der Messe geknüpft haben, war für uns alle auf jeden Fall in höchstem Maße erfreulich. Einige Vertreter aus der Industrie, die an unseren gezeigten Fähigkeiten interessiert sind und in nächster Zeit konkrete Anwendungsszenarien mit uns besprechen wollen.

Natürlich kamen nicht nur Industrievertreter, sondern auch die Konkurrenz [1] sondierte sich. Bisweilen beliebt auf solchen Messen ist es seitens der Institutsleiter und Professoren, das Namensschild abzunehmen in der Hoffnung, unerkannt einen Doktoranden auflaufen zu lassen. Nicht um zu spionieren, sondern um mit dem eigenen Fachwissen die Geschichte zu hören, die auch der gemeine Besucher hört. Als Doktorand muss man in solchen Fällen auf der Hut sein. Das Gespräch beginnt entspannt wie mit jedem anderen Messebesucher, bis sich im Laufe des Gesprächs herausstellt, dass der Gegenüber von dem, was man dort erzählt, im ungünstigsten Fall mehr Ahnung hat.

Ähnlich ist es mir in diesem Jahr passiert. Nicht die Konkurrenz, sondern Günther Schreiber persönlich, am Deutsches Zentrum für Luft- und Raumfahrt sozusagen Vater des Leichtbauarms, kam an den Stand. Eine kompetentere Person bezüglich des Roboters, den wir für unser Szenario als Forschungsplattform einsetzen, gibt es wohl nicht. Zu dem Zeitpunkt war ich allein am Stand und bemerkte erst zur Mitte des Gesprächs, mit wem ich es zu tun hatte. Es lief aber alles erfreulich und in dem Gespräch mit ihm habe ich sogar einige Neuigkeiten zur weiteren Entwicklung des Leichtbauarms erfahren können.

Im Folgenden kamen noch Personen vom KIT, weitere Interessierte vom DLR, Wissenschaftler vom Münchner Exzellenzcluster CoTeSys und viele mehr zum Stand. Allesamt angenehmerweise ein interessierter Austausch und Plaudern unter Kollegen. Und als dann die DLR-Prominenz Patrick van der Smagt an unseren Stand kam, war zum Glück unser Institutsleiter ebenfalls anwesend, so dass auch Fragen zum übergreifenden Forschungsplan beantwortet werden konnten.

Dass auch meine ehemaligen Kollegen aus der Robotertechnologie-Gruppe der Siemens-Forschungsabteilung aus München mal vorbeischauten, hat mich zudem gefreut. Abends habe wir dann natürlich auch das schöne Wetter genutzt, um in gemeinsamer Bielefelder, Münchner und Dortmunder Gruppe bei Leberkäs und Bier Kontakte zu pflegen und Robotik-Neuigkeiten auszutauschen. Ein toller Abend.

Insgesamt war es eine schöne Woche, die allerdings auch viel Energie gekostet hat. Die vielen Gespräche, das konstante Präsentsein in Kombination mit den vielen durchgearbeiteten Nächten im Vorfeld kosten viel Kraft. Aber es hat sich gelohnt.

Und in einem der nächsten Beiträge werde ich schreiben, was fachlich zu erfahren war und welche Hinweise auf die deutsche Robotik-Zukunft auf der Messe zu finden waren. Sowohl aus dem Gespräch mit Günther Schreiber als auch das, was das DLR als Blick in die nahe Zukunft zugelassen hat. Der könnte nämlich – so er denn zutrifft – einen Major Impact bedeuten und atemberaubende Resultate hervorbringen. Und wer in Deutschland sollte dazu bessere Möglichkeiten haben, dies auch wahr zu machen, als das DLR?!

Mehr dazu folgt.

Jetzt, da die Kommentarfunktion im Blog endlich wieder funktionstüchtig ist, freue ich mich auch wieder über Kommentare. Kann vielleicht einer der Blogleser die Automatica aus Besuchersicht zusammenfassen?

1
„Konkurrenz“ ist nicht wirklich das passende Wort; gemeint sind andere Forschungsinstitute mit ähnlicher Ausrichtung.

Roboterbegriff – Teil 2: Einige Definitionen

Jörn und Arne am 15.01.2010 um 00:02 Uhr - zum Artikel

Der Begriff „Roboter“ ist nicht deutlich definiert, war es noch nie und wird es vermutlich auch nie sein. Dazu werden bereits jetzt zuviele Maschinen unterschiedlicher Ausprägung, Mobilität und Autonomie als Roboter bezeichnet.

Ursprünglich entstammt der Begriff dem slawischen Wort „robota“, das Arbeit oder Fronarbeit bezeichnet … ein Roboter ist demnach also ganz allgemein ein Diener für den Menschen.

Bereits in unserem ersten Teil wurde die Schwierigkeit der Abgrenzung von Robotern gegenüber herkömmlichen Maschinen angeschnitten. In diesem Beitrag versuchen wir uns dem Roboterbegriff darüber weiter anzunähern, dass wir einige bekannte Roboter-Definitionen zusammentragen.

Es haben sich bereits etliche Wissenschaftler und Institutionen daran versucht, den Roboterbegriff in konkretere, präzisere und zeitgemäße Formen zu gießen. Längst haben Roboter eine unzählige Vielfalt an Gestalten angenommen und werden zu unterschiedlichsten Zwecken eingesetzt.

Hier also einige Definitionen, auf die man stößt:

Roboter allgemein

  1. Das Robot Institute of America sagt: „Ein Roboter ist ein programmierbares Mehrzweck-Handhabungsgerät für das Bewegen von Material, Werkstücken, Werkzeugen oder Spezialgeräten. Der frei programmierbare Bewegungsablauf macht ihn für verschiedenste Aufgaben einsetzbar.“

  2. Die deutschsprachige Wikipedia sagt: „Ro­bo­ter sind sta­tio­nä­re oder mo­bi­le Ma­schi­nen, die nach ei­nem be­stim­mten Pro­gramm fest­ge­leg­te Auf­ga­ben er­fül­len.“

  3. Die englischsprachige Wikipedia sagt deutlich ausführlicher: „A robot is a virtual or mechanical artificial agent. In practice, it is usually an electro-mechanical system which, by its appearance or movements, conveys a sense that it has intent or agency of its own. The word robot can refer to both physical robots and virtual software agents [...]. There is no consensus on which machines qualify as robots, but there is general agreement among experts and the public that robots tend to do some or all of the following: move around, operate a mechanical limb, sense and manipulate their environment, and exhibit intelligent behavior, especially behavior which mimics humans or other animals.“

  4. Auf der Website itwissen.info steht zu lesen: „Ro­bo­ter sind pro­gramm­ge­steu­er­te Ma­schi­nen für Hand­ha­bun­gen ohne mensch­li­chen Ein­griff. Die Ro­bo­ter-Steu­e­rung er­folgt durch Com­pu­ter, die mit Sen­so­ren und an­de­ren er­ken­nungs­tech­ni­schen Ele­men­ten, Be­we­gungs-, Greif-, Hal­te- und Be­ar­bei­tungs­or­ga­nen zu­sam­men­wir­ken.“

  5. Neogrid, das innovative EDV Lexikon, sagt: „Unter dem Begriff Roboter ist eine mit Sensoren ausgestattete Maschine, die selbständig, umfassende Aufgaben erfüllen kann, zu verstehen.“

Industrieroboter

Der Begriff des Industrieroboters ist etwas einfacher handhabbar, da er zum Einen nur einen Teilbegriff definiert und von zahlreichen industrienahen Organisationen und Verbänden klar definiert wurde. Zwei populäre deutsche Beispiele dafür sind:

  1. Die Deutsche Industrienorm, naturgemäß recht penibel bei Definitionen: „Ein Industrieroboter ist ein automatisch gesteuerter, frei programmierbarer […] Mehrzweck- […] Manipulator […], der in drei oder mehr Achsen […] programmierbar ist und zur Verwendung in der Automatisierungstechnik entweder an einem festen Ort oder beweglich angeordnet sein kann“ [1] (DIN EN ISO 8373)

  2. Die VDI-Richtlinie 2860 sagt: „Industrieroboter sind universell einsetzbare Bewegungsautomaten mit mehreren Achsen, deren Bewegungen hinsichtlich Bewegungsfolge und Wegen bzw. Winkeln frei (d. h. ohne mechanischen Eingriff) programmierbar und gegebenenfalls sensorgeführt sind. Sie sind mit Greifern, Werkzeugen oder anderen Fertigungsmitteln ausrüstbar und können Handhabungs- und/oder Fertigungsaufgaben ausführen.“

Spezielle Roboter und Roboterteile

Die JARA, Japan Robot Association, hat konkretere Definitionen für mehrere, verschiedene Roboterbegriffe und -teile:

  1. Manual Manipulator: Handhabungsgerät, das kein Programm hat, sondern direkt vom Bediener geführt wird.

  2. Fixed Sequence Robot: Handhabungsgerät, das wiederholt nach einem konstanten Bewegungsmuster arbeitet. Das Ändern des Bewegungsmusters ist relativ aufwendig.

  3. Variable Sequence Robot: Handhabungsgerät, wie Fixed Sequence Robot, jedoch mit der Möglichkeit, den Bewegungsablauf schnell und problemlos zu ändern.

  4. Playback Robot: Der Bewegungsablauf wird diesem Gerät einmal durch den Bediener vorgeführt und dabei im Programmspeicher gespeichert. Mit der im Speicher enthaltenen Information kann der Bewegungsablauf beliebig wiederholt werden.

  5. Numerical Control Robot: Dieses Handhabungsgerät arbeitet ähnlich wie eine NC-gesteuerte Maschine. Die Information über den Bewegungsablauf wird dem Gerät über Taster, Schalter oder Datenträger zahlenmäßig eingegeben.

  6. Intelligent Robot: Diese höchste Roboterklasse ist für Geräte gedacht, die über verschiedene Sensoren verfügen und damit in der Lage sind, den Programmablauf selbsttätig den Veränderungen des Werkstücks und der Umwelt anzupassen.

Die International Federation of Robotics weist im Vorfeld ihrer Definition von Servicerobotern erst einmal darauf hin, dass eine Definition weder leicht noch weit akzeptiert ist:

Service robots have no strict internationally accepted definition, which, among other things, delimits them from other types of equipment, in particular the manipulating industrial robot.

Versucht sich dann aber trotzdem an einer Definition:

IFR, however, have adopted a preliminary definition: A service robot is a robot which operates semi- or fully autonomously to perform services useful to the well-being of humans and equipment, excluding manufacturing operations. With this definition, manipulating industrial robots could also be regarded as service robots, provided they are installed in non-manufacturing operations. Service robots may or may not be equipped with an arm structure as is the industrial robot. Often, but not always, the service robots are mobile. In some cases, service robots consist of a mobile platform on which one or several arms are attached and controlled in the same mode as the arms of the industrial robot. Because of their multitude of forms and structures as well as application areas, service robots are not easy to define. Since 2007 a working group of ISO is revising the ISO 8373 which finally will include an official definition of service robots.

Die Definition enthält nicht umsonst vage Konstruktionen wie maybe, may or may not und not always. Wer weiß, ob die zum Ende angekündigte ISO 8373 zumindest für Serviceroboter eine konkrete Definition bieten kann.

Was tun?

Allein die genannten Definitionen zeigen eine Breite verschiedener Aspekte des Begriffs, obwohl hier aufgeführte Definitionen lediglich eine Auswahl der existierenden Definitionen darstellt. Interessant und schwierig ist dabei auch, was die englischsprachige Wikipedia als Einzige in der aufgeführten Riege zu berücksichtigen scheint: Der Begriff „Roboter“ wird mehr und mehr für reine Software-Roboter verwendet. Jegliche Definitionen, die von Maschinen oder Mechanismen reden, laufen dort ins Leere. Es scheint sich zwar herauszustellen, dass Roboter eher für die Maschine und Bot eher für reine Software verwendet wird, aber auch hier liegen noch weitere Schwierigkeiten für eine saubere Definition. Gerade weil die Fortentwicklung zukünftiger Robotergenerationen - auch der physisch präsenten - in Zukunft zunehmend durch Softwaretechnologien geprägt sein wird.

Zusammenfassend ist festzuhalten, dass primär zwei erfolgreich Ansätze unter den aufgeführten erkennbar sind:

  1. wie es die englischsprachige Wikipedia macht: Eine Reihe von Eigenschaften aufzählen, von denen ein Roboter eine, mehrere oder alle besitzen kann. Hierbei ist schwierig, nicht zu viele Eigenschaften zu nennen, so dass nicht im Endeffekt jeder Toaster und jede Lampe ein Roboter ist.

  2. sich darauf zu einigen, dass all die Dinge, die wir als Roboter bezeichnen, zu verschieden sind und man daher lieber einzelne Roboterklassen separat definiert.

Vielleicht bietet sich in Analogie zur Biosystematik bei Lebewesen eine Taxonomie oder zumindest eine Ontologie auch für Roboter an. Auf diese Weise ließen sich beide Ansätze vereinen. Auf oberster Ebene trohnt ein allgemeiner Roboterbegriff. Er ist knapp und nennt diejenigen Eigenschaften, die allen Robotern gemein ist. Dieser wird anschließend über eine hierarchische Struktur innerhalb der Systematik in feinere und präzisere mit Unterbegriffen benannte Familien und Klassen unterteilt.

Aber bis das geschehen ist, verlassen wir uns vielleicht besser auf unser ganz wunderbar arbeitendes Gehirn und halten es mit den Worten des US-amerikanischen Ingenieurs Joseph Engelberger (Entwickler des ersten Industrieroboters Unimate), der sagte:

Ich kann nicht genau sagen, was ein Roboter ist, aber ich weiß, dass es einer ist, wenn ich einen sehe.

Joseph Engelberger
1
Die Auslassungen innerhalb des Zitats nennen lediglich die Normen der jeweiligen Begriffe.

Roboterbegriff – Teil 1: Schon ein Roboter oder doch nur ein ferngesteuertes Auto?

Arne am 15.12.2009 um 20:08 Uhr - zum Artikel

Was macht eigentlich einen Roboter aus? Aus welchen Komponenten muss er bestehen? Was muss er können, damit sich ein Roboter auch Roboter nennen darf? Welche Arten von Robotern gibt es und woran sind sie zu unterscheiden?

Einen Roboter haben wir alle schonmal gesehen. Die meisten Roboter würden wir auch als solche erkennen, wenn wir sie zum ersten Mal in Aktion erleben oder auch nur ein erstes Bild von ihnen sehen. Wir haben ein wages Bild von einem Roboter in unseren Köpfen. Aber wer von uns könnte eine präzise Definition des Begriffs „Roboter“ formulieren? Für die meisten Robotik-Enthusiasten mag diese Fragestellung wie eine belanglose Spitzfindigkeit erscheinen. Wer allerdings beruflich mit Robotern zu tun hat, wie beispielsweise Wissenschaftler oder Journalisten, der wird seine Worte mit Bedacht wählen. Es besteht die Gefahr, dass womöglich einer Maschine Fähigkeiten oder Eigenschaften zugesprochen werden, über die sie garnicht verfügt. Im Extremfall stellt sich die Frage, wer die Verantwortung für das „Handeln" eines Roboters trägt.

Ein paar gelagerte Achsen, ein Elektromotor, ein Akku und ein paar knackende So­nar­sen­sor­en machen noch lange keinen Serviceroboter. Ein Kette von Elektromotoren und Metallkörpern ist nicht immer gleich ein Manipulator oder ein Industrieroboter.

In der Vergangenheit ist „Ethik in der Robotik" bereits mehrfach ein Thema auf Botzeit gewesen. Gerade in diesem Themenfeld wird der Bedarf eines bewussten Umgangs mit dem Roboterbegriff besonders deutlich. Überspitzt formuliert geht es darum, ob eine Drohne, die dazu benutzt wird im Kampfeinsatz entfernte Ziele anzugreifen, bereits ein an der Front kämpfender Roboter ist. Oder handelt es sich vielmehr um den kriegerischen Gebrauch extrem teurer ferngesteuerter Modellflugzeuge?

Es wird interessant sein, zu beobachten, wie die Medien in Zukunft mit dieser Begrifflichkeit umgehen werden. In welchen Zusammenhängen sie von Robotern oder von ferngesteuerten Maschinen berichten werden und wie dies unser persönliches aber auch gesellschaftliches Bild von Robotern prägen wird.

Sicherlich kann dieser Blogeintrag nicht all die genannten Fragen beantworten. Er soll den interessierten Leser zum Nachdenken anregen und als Ankündigung dienen, dass in Zukunft weitere Einträge in diesem Kontext folgen werden. Soviel sei verraten: Es wird in jedem Fall eine Sammlung häufig angewendeter Roboterdefinitionen geben.