Mensch und Roboter Hand in Hand

Wer hat sich nicht schon einmal einen Roboter gewünscht, der im Haus­halt hilft? Der zum Beispiel schon einmal den Kuchen­teig anrührt, knetet und ausrollt, während man selbst die Glasur vorbereitet, bzw. einem das lästige Gemüse­schnib­beln beim Kochen abnimmt. Oder einen kleinen Roboter­assisten­ten, der einem bei heimischen Bastel­arbei­ten die richtigen Werk­zeuge anreicht, wie man es aus OP-Sälen in Kranken­häusern kennt: „Roboter, Schrauben­zieher!“„Schraubenzieher, und weiter?“„Schraubenzieher, bitte!“

/images/blog/flexirob-hand-in-hand.jpg
Die Vision: Roboter und Mensch arbeiten zusammen [johanneswienke.de]

Zumindest in Industrie­szenarien ist das keine allzu weit entfernte Zukunfts­vision mehr. Flexibel anpassbare Roboter, die autonom oder Hand in Hand mit dem Menschen in einer Werkstatt oder Produktions­strasse arbeiten und diesen bei Fertigungs­auf­gaben unterstützen, sind schon seit geraumer Zeit ein strate­gisches Anliegen europäischer Wissenschaftler und der Robotik­industrie. So führt bereits die im Jahr 2009 ausgerufene europäische Strategic Research Agenda diese beiden Szenarien, den „Robotic Worker“ und den „Robotic Co-Worker“, als Kern­an­wen­dungs­sze­na­rien zukünf­tiger Industrie­robotik mit auf. Dabei geht es nicht um Groß­serien-Voll­auto­matisie­rung wie man sie z. B. aus der Auto­mobil­industrie kennt, in der Roboter an Roboter aufgereiht in Käfigen und – aus Sicher­heits­gründen – abge­schot­tet vom Menschen monatelang exakt die gleiche Aufgabe ausführen:

Vollautmatisierte Montage von Automobilen bei KIA

Es geht vielmehr um die Unter­stützung von Mitarbei­tern in kleinen und mittel­stän­dischen Unter­nehmen, deren Auftrags­lage sich relativ schnell ändern kann. Denkbar ist die Fertigung von Proto­typen, von denen häufig nur geringe, einstel­lige Stück­zahlen gefertigt werden. In diesem Kontext sind zur Zeit Hand­arbeits­plätze immer noch die Regel, d. h. Fachkräfte montieren und bearbeiten Bauteile bzw. bestücken und entladen Maschinen manuell. Häufig sind diese Arbeiten verbunden mit anstren­gender körper­licher Arbeit.

Eine Voll­automatisie­rung im klas­si­schen Sinne, also mit Robotern, die genau auf diesen einen Zweck ausgelegt sind und in aller Regel nicht oder nur sehr aufwendig an neue Fer­ti­gungs­auf­ga­ben angepasst werden können, macht hier allein schon aus ökonomischen Gründen keinen Sinn. Der durch die Einsparung einer Fachkraft gewonnene finan­zielle Vorteil wird sofort wieder zu­nichte gemacht durch den not­wen­digen, häufigen und kosten­inten­siven Einsatz von Experten, die den Roboter bei jeder Änderung im Pro­duk­tions­ablauf wieder an seine neue Aufgabe anpassen und um­program­mieren müssen. Zusätzlich sind viele Teil­aufgaben in solchen Fertigungs­prozessen sehr komplex und wenn überhaupt nur mit enorm hohem technischen Aufwand automatisch zu bewerk­stel­ligen, wie z. B. der berühmte Griff in die Kiste.

Die Idee ist vielmehr, den Menschen zu unterstützen, indem man ihm diejenigen Arbeiten überlässt, die er z. B. auf Grund besserer visueller Wahrnehmung und guten Finger­fertig­keiten kompetenter und schneller durchführen kann als jede Maschine, ihn aber durch den Roboter­assisten­ten von körperlich belas­ten­den Arbeiten zu befreien … der Roboter als dritte Hand. Damit jedoch beide, Roboter und Mensch, an einem Arbeits­platz gemeinsam sinnvoll zusam­men­arbeiten können, sind einige Heraus­forderun­gen zu bewältigen. Ein bisschen Buzzword-Bingo:

Flexibilität: Um sich den ständig wechselnden Aufgaben anpassen zu können und in beliebigen (engen, eingeschränkten) Arbeits­räumen mit dem Menschen zusammen zu arbeiten, ist im Vergleich zu her­kömmlichen Industrie­robotern zusätzliche Flexi­bi­li­tät nötig. Diese erhält man z. B. durch zusätzliche Bewegungs­achsen: übliche Industrie­roboter verfügen über bis zu sechs Achsen, ab sieben Achsen erhält man durch Redundanz zusätzliche Flexi­bi­lität.

Interaktion: Um teures und zeit­auf­wen­diges Um­program­mieren der Roboter durch Experten zu umgehen, muss der Mit­arbeiter vor Ort in der Lage sein, durch einfache, direkte Interaktion den Roboter an seine neuen Aufgaben und Arbeits­bedin­gun­gen anzupassen und ihn den eigenen Bedürf­nissen entsprechend zu programmieren.

Sicherheit: Die direkte physische Ko­operation zwischen Mensch und Maschine erfordert andere Sicher­heits­mecha­nis­men als Zäune und strikte Arbeits­raum­tren­nung, um die Sicherheit für den Menschen dennoch zu gewähr­leisten.

Technisch gesehen scheinen obige Herausforderungen so gut wie gelöst. Der vom Deutschen Luft- und Raumfahrtszentrum und KUKA gemeinsam entwickelten Leicht­bau­roboter IV (LBR IV), dessen serien­reifer Nachfolger KUKA LBR iiwa auf der diesjährigen Hannover Messe erstmals vorgestellt wurde, ist ein Beispiel. Das geringe Gewicht, Kraft­sensoren zur Kollisions­erkennung und eine sehr schnelle Regelung sind gute Voraus­setzun­gen für eine sichere Interaktion mit dem Menschen. Außerdem ist der LBR mit seinen sieben Bewegungs­achsen redundant, bietet also genügend Flexi­bi­li­tät, um um Hinder­nisse herum­zu­greifen oder Aufgaben auf mehr als nur eine Art zu erledigen.

Dass trotzdem nun nicht jeder sofort einem solchen Roboter Aufgaben bei­bringen kann, sieht man im folgenden Video, welches im Verlaufe einer umfang­reichen Feld­studie 1 mit Mit­arbei­tern der Firma Harting entstand:

Auch moderne Roboter sind nicht leicht zu bedienen.

Die Aufgabe für die Probanden bestand im Prinzip aus einer Art Heißer-Draht-Spiel:
Der vorn am Roboter montierte Greifer sollte möglichst genau an dem Styropor-Parcours entlang geführt werden, während­dessen natürlich jede Kollision sowohl vorne am Greifer als auch am Rest des Roboter­körpers mit den Umgebungs­objekten vermieden werden sollte. Der Hintergrund: Genau durch diese Art des Führens (englisch: Kinesthetic Teaching) können dem Roboter Aufgaben beigebracht werden. Die in der Inter­aktion ent­stan­denen Bewe­gun­gen werden auf­gezeich­net und können auf Befehl schneller, langsamer oder leicht verändert wieder abgespielt werden. Der Fachbegriff hierfür lautet Teach-In und bezeichnet das aktuell übliche Verfahren, um Roboter „anzulernen“.

Wie man in dem Video sieht, geht das zum Teil gehörig schief! Die Versuchs­personen scheinen (trotz einer vorherigen Eingewöhungs­phase mit dem Roboter) überfordert von der Aufgabe, dem LBR den Parcours kollisions­frei bei­zu­bringen. Das liegt nicht an der Komplexität der Aufgabe: Eine einfache vorgegebene drei­dimensionale Bewegung wie die des Parcours aus der Studie nachzufahren, ist für uns Menschen typischer­weise zu bewältigen und wie wir später sehen werden auch in Verbindung mit einem Roboter leicht möglich. Der Grund ist die durch jahrelange Ingenieurs­kunst geschaffene, komplizierte Technik des LBR, die technische Vorteile, aber auch erhöhte Komplexität mit sich bringt. Denn hinter dem einen „I“ des Wortes „Interaktion“ verstecken sich noch zwei weitere: intuitiv und intelligent. Einem Roboterarm mit sieben Gelenken eine bestimmte drei­dimensio­nale Bewegung beizubringen und dabei gleichzeitig darauf achten zu müssen, dass er mit seinen sieben Achsen nicht mit Hinder­nissen im Arbeits­raum kollidiert, ist nicht intuitiv. Und eine vorgemachte Bewegung abspeichern und wieder abspielen zu können, ist nicht sonderlich intelligent.

Dieses Beispiel zeigt, dass in der Praxis mehr notwendig ist als nur die tech­nischen Möglichkeiten zu schaffen. Der Schlüssel, davon sind wir überzeugt, liegt in einer syste­ma­tischen Inte­gration von Hoch­techno­logie, maschi­nel­lem Lernen und einfacher Inter­aktion. Um ein solches Robotik­system für den Arbeiter vor Ort bedienbar zu machen, muss die eigent­liche techno­lo­gische Komplexi­tät im besten Fall hinter intuitiven Benutzer­schnitt­stellen und schritt­weiser Inter­aktion versteckt werden. Am Forschungsinstitut für Kognition und Robotik (CoR-Lab) der Univer­sität Biele­feld beschäftigen wir uns seit Jahren genau damit. Das Roboter­system, das oben im Video zu sehen war und auf einem KUKA LBR IV aufbaut, ist unsere Forschungs­plattform FlexIRob: ein Beispiel­szenario, bei dem wir diese Art von Integration untersuchen. Um die obige Aufgabe zu erleichtern, haben wir einen Ansatz entwickelt, mit dem jeder einen solchen Roboter an neue Umgebungen und Aufgaben anpassen kann. Die Idee ist im Prinzip einfach und beruht darauf, die komplexe Aufgabe in zwei Teil­schritte zu unter­teilen. Dass das funktioniert, ist im folgenden Video zu sehen:

Erleichterung der Interaktion durch Aufteilung in explizite Konfigurations- und assistierte Programmierphase (ab ca 1:15)

Der erste Teil­schritt der Aufgabe heißt Konfigurations­phase und ist unabhängig von der Aufgabe, die der Roboter­arm später ausführen soll. In dieser Phase bringt der Nutzer bzw. der Mit­arbeiter dem Roboter seine neue Umgebung bei, d. h. eventuelle dauerhafte Hindernisse, welche in seinem Arbeits­bereich platziert sind, wie z. B. herum­liegende Objekte, Säulen oder Regale. Als Mensch hat er dabei ein intuitives Verständnis der Szenerie: Er sieht die Hinder­nisse, er weiß, dass und wie man um sie herumgreifen muss und ist deswegen instinktiv in der Lage, den LBR dabei in aus­gesuchte Regionen zu führen und dort mit ihm zusammen einige Beispiel­bewegungen durch­zu­führen, ohne mit den Hinder­nissen zu kollidieren. Von diesen Beispiel­bewegungen kann nun der Roboterarm lernen, wie er sich in seinem Arbeits­bereich zu bewegen und wie er die Hinder­nisse im Zweifel zu umgreifen hat. Die Methoden zum Lernen, die dabei verwendet werden, gehen über simples Aufnehmen und Re­pro­du­zieren hinaus. Mit Hilfe von künst­lichen neuro­nalen Netzen ist das System nämlich nicht nur in der Lage sich innerhalb der trainier­ten Bereiche zu bewegen, sondern auch zwischen diesen hin- und her zu manö­vrieren und kollisions­freie Bewegungen für den Arm zu wählen. Diese Eigenschaft von Lern­verfahren nennt man Genera­lisierungs­fähigkeit und beschreibt die Fähigkeit, von wenigen Beispiel­daten ein generel­les Verhalten zu erlernen und dieses auf unbekannte Daten zu übertragen. In unserem Fall sind die Beispiel­daten die Trainings­daten, welche vom Nutzer zur Verfügung gestellt werden und im Video als grüne Punkte dargestell sind. Von diesen lernt der Roboter innerhalb weniger Minuten, beliebige Ziel­positionen anzufahren, ohne dabei mit den Hinder­nissen zu kollidieren. Und das nicht nur in den Trainings­berei­chen, sondern auch darüber hinaus 2.

Im nächsten Schritt, geht es nun darum, ihm die eigentliche Aufgabe beizubringen. Das kann z. B. eine Schweiß- oder Klebenaht sein und auf verschie­denen Wegen passieren, z. B. erneut mit Hilfe von Kinesthetic Teaching, also dem direkten Führen des Roboters. Da dieser sich aber in seiner Umgebung nun schon zu bewegen weiß, braucht der Nutzer nicht mehr alle Gelenke gleichzeitig zu kontrollieren. Es reicht, dass er ihn vorn am Greifer entlang der spezifischen Aufgabe führt und der Roboter assistiert ihm dabei sozusagen bei der Hindernis­vermei­dung, wie in dem Video ab Minute 2:10 zu sehen ist. Diese Phase nennen wir deshalb Assisted Program­ming.

Der Knackpunkt zur Verein­fachung dieser Inter­aktion liegt also in der Auf­teilung der Gesamt­aufgabe in zwei oder mehr aufeinander aufbauende Teil­schritte, um den Nutzer bzw. Mitarbeiter des Roboters nicht zu überfordern. Im letzten Jahr haben wir mit Unter­stützung der Firma Harting oben genannte Pilot­studie zum Thema Kinesthetic Teaching durchgeführt und die beschriebene Idee evaluiert. Dabei haben 48 Mitarbeiter, unterteilt in zwei Versuchs­grup­pen, mit dem System inter­agiert und versucht, dem Roboter obigen Parcours beizubringen. Die Ergeb­nisse der einen Gruppe waren bereits im ersten Video zu sehen. Von 24 Versuchs­teil­nehmern, haben es gerade einmal zwei Probanden geschafft, den Parcours kollisions­frei abzufahren; eine Probandin brach ihren Versuch nach einiger Zeit frustriert ab. Die zweite Versuchs­gruppe hingegen benutzte den assistier­ten Modus und zeigte signi­fi­kant bessere Ergebnisse. Diese Teilnehmer benötigten im Schnitt weniger als die Hälfte der Zeit, um den Roboter anzulernen, die bei­gebrach­ten Bewegungen waren signifikant näher an der Vorgabe und wesent­lich ruckel­freier.

Unsere Experimente und Studien legen nahe, dass moderne Robotik­systeme durchaus über die Flexi­bi­li­tät verfügen, regelmäßig und vor Ort an wechselnde Aufgaben angepasst zu werden, wie es zum Beispiel für Klein­serien­ferti­gung oder Pro­to­typen­bau notwendig ist. Dazu reicht die rein technische Flexi­bi­li­tät allerdings nicht aus, denn sie erfordert immer noch lange Einarbei­tung und Robotik­exper­ten. Erst in der Kombi­nation mit lernenden Systemen und einfachen Inter­aktions­schnitt­stel­len spielen solche Systeme ihr volles Potential aus.

Christian Emmerich und Arne Nordmann sind Doktoranden am Forschungs­institut für Kognition und Robotik der Universität Bielefeld und beschäftigen sich mit lernenden, interaktiven Robotik­systemen.

Compliance

Traditionell ist die Interaktion mit Robotern darauf beschränkt, dass dem Roboter Kommandos zugesandt werden (in der Regel als textuelle Kommandos, seltener per Sprache) und der Roboter über geeignete Sensorik (Kameras, Mikrofone, Laserscanner, …) seine Umgebung wahrzunehmen versucht. Was dabei in der Interaktion mit Menschen entsteht, ist allerdings häufig eine holprige, wenig natürliche und dadurch für Menschen oft anstrengende Interaktion. Dass man auf diese Art und Weise auch Menschen mit Robotern interagieren lässt, die nicht an der Entwicklung beteiligt waren und dadurch nicht Verständnis für diese Schwierigkeiten aufbringen, passiert daher eher selten.

Eine Form der Interaktion, die sehr viel natürlicher ist, weil sie durch die physische Rückkopplung sehr viel direkter ist, ist die direkte Berührung und damit das Führen des Roboters. Der Mensch fasst den Roboter an der Hand (sofern er eine solche besitzt) und leitet den Roboter an. In der Robotik ist dies ein relativ aktueller Zweig der sogenannten Mensch-Maschine-Interaktion (MMI, Human Machine Interaction – HMI). Im Umfeld der industriellen Robotik sind ähnliche Techniken unter den Begriffen Teach-In und Kinestethic Teaching zu finden.

Es gibt mehrere Möglichkeiten, einen Roboter für diese Form der Interaktion auszustatten. Eine Möglichkeit ist es, die Hardware des Roboters bewusst so zu konstruieren, etwa durch die Integration von mechanischen Federn in Struktur des Roboters, dass dieser nachgiebig ist. Diese Art der Nachgiebigkeit wird in der Robotik bzw. Regelungstechnik als Passive Nachgiebigkeit (engl.: Passive Compliance) bezeichnet, da sie – einmal verbaut – das System ohne weiteres Zutun dauerhaft nachgiebig gestaltet.

Eine aufwendigere, aber dafür auch flexiblere Möglichkeit ist die Aktive Nachgiebigkeit (engl.: Active Compliance). Hierbei kann die Roboterhardware mechanisch völlig steif sein; die Nachgiebigkeit des Systems wird durch eine entsprechende Ansteuerung der Motoren simuliert. Dafür ist der Roboter mit Kraftsensorik ausgerüstet, die dem System konstant die auf den Roboter einwirkenden externen Kräfte meldet. Eine geschickte Regelung (Wikipedia) lässt den Roboter dann auf diese Kräfte auf die gleiche Art und Weise reagieren, wie es eine reale Feder tun würde: Bei kleiner Krafteinwirkung gibt der Roboter mit einer kleinen Bewegung nach, bei größerer Krafteinwirkung reagiert der Roboter mit einer deutlicheren Ausweichbewegung. Nicht, weil die Motoren nicht kräftig genug wären, den Kräften entgegenzuhalten, sondern weil dieses Verhalten den Eindruck eines weichen, nachgiebigen Systems erweckt und erwecken soll. Wie so eine Interaktion aussehen kann, zeigt das folgende Video:

Der iCub wird geführt und kann Objekte ertasten

Nachgiebigkeit ist dabei allerdings nicht allein für Interaktion eingesetzt; es ist auch ein enormer Sicherheitsaspekt. Ein Roboter, der mit seiner Umgebung (im schlimmsten Fall dem Menschen) kollidiert, weil er sie nicht richtig erkannt hat, richtet potentiell deutlich weniger Schaden an, wenn er nachgiebig ist;
Schaden an sich und der Umwelt. Dies gilt für passive Nachgiebigkeit, genauso wie für aktive Nachgiebigkeit, wie das Deutsche Luft- und Raumfahrtzentrum im folgenden Video eindrücklich und mit offenbar ausreichend Vertrauen in die Technik beweist; am Ende des Videos mit Messer und einem menschlichen Probanden:

KUKA Lightweight Robot IV mit Kollisionserkennung

[Linkdump] Militär, Ethik und Kooperation mit Robotern

Da ich es in den letzten Wochen wegen akuter Überarbeitung nicht zu enormer Aktivität geschafft habe und sich das vermutlich in den nächsten Tagen erst einmal nicht ändern wird, hier schon einmal ein paar Links der letzten Wochen. Über Roboter, die sich entschuldigen, selbständige Mondfähren und die Zusammenarbeit von Mensch und Roboter. Und nun geht’s ab nach Oslo

Soziale Roboter„Ich weiß, es ist schwierig mit mir zu arbeiten“, sagt der Roboter. Welche Fähigkeiten und Verhalten benötigen Roboter, damit Menschen sie als angenehme Gesellschaft empfinden und sich in Anwesenheit von Robotern wohlfühlen? Das
„Exzellenzcluster Cognitive Interaction Technology“ (Citec) in Bielefeld geht dieser Frage nach.
Ich weiß, es ist schwierig mit mir zu arbeiten(Süddeutsche, Katrin Blawat, 18. August 2010)
LaufmaschineArtikel über die Laufmaschine BioBiPed, die im Rahmen eines Forschungsprojekts des Lauflabors Jena und der TU Darmstadt wntwickelt wird. Das Außergewöhnliche: Der Roboter soll zuerst rennen und dann erst gehen lernen.Eine Laufmaschine lernt gehen(Heise Online, Hans-Arthur Marsiske, 20. August 2010)Weltraum-RobotikBis 2018 will Weltraumorganisation ESA ein unbemanntes Raumschiff zum Mond fliegen lassen. „Die Mondfähre muss Hindernisse, steile Hänge und Krater beim Anflug erkennen, ihnen ausweichen und selbstständig einen geeigneten Landeplatz suchen können“, ein typischer Anwendungsfall der explorativen Robotik.Europäische Roboter sollen 2018 auf Mond landen(Spiegel Online, Cinthia Briseño, 16. September 2010)Servicerobotik„Milliardenmarkt Maschinenmensch“ – Das Handelsblatt beobachtet, dass Roboter aus den Werkshalle, also dem industriellen Umfeld, mehr und mehr in den Alltag wandern. Ob in der Medizintechnik, zur Pflege oder als Staubsauger- und Spielroboter.Roboter laufen aus den Werkshallen(Handelsblatt, Martin Murphy und Hans Schürmann, 29. September 2010)Roboter-Ethik„Roboter sollen nicht töten dürfen“ – Tina Klopp schreibt über die Fiktion eines bloodless war, eines Krieges ohne Verluste, und von der Forderungen des Ethikers Rob Sparrow nach einem Menschenrecht, nicht von Robotern getötet zu werden.Roboter sollen nicht töten dürfen(ZEIT Online, Tina Klopp, 27. September 2010)Roboter als MitarbeiterDer Industrieroboterbauer Reis Robotics will zusammen mit fünf Partnern aus Industrie und Forschung in den nächsten drei Jahren daran arbeiten, Roboter ohne räumliche Trennung mit Menschen zusammenarbeiten zu lassen. Eine Aufgabe, die wegen der Kraft und des Gewichts von Robotern dringend Sicherheitsfragen aufwirft.Roboter sollen Hand in Hand mit Menschen arbeiten(Main-Netz, Nina-Anna Beckmann, 29. September 2010)

Über Hinweise zu lesenswerten Artikeln freue ich mich jederzeit. Entweder per Kommentar oder per E-Mail an botzeit@ohmpage.org

Fußballroboter trainiert im Weltall

Der Nao, französischer Fußballroboter und aktuelle Standardplattform in der RoboCup-Fußballliga, soll in Zukunft im Weltall trainieren. Allerdings nicht sich selbst, sondern die dortigen Langzeitastronauten.

/images/blog/nao.jpg
Nao

Der Nao soll als Personal Trainer die Langzeitastronauten bei Laune halten und zum täglichen Kampf gegen den Mus­kel­rück­gang motivieren. Das zu­min­dest plant das CoR-Lab, For­schungs­in­sti­tu­tes für Kog­ni­tion und Ro­bo­tik, in Zu­sam­men­ar­beit mit dem DLR, dem deut­schen Zen­trum für Luft- und Raum­fahrt.

Das Projekt umfasst sowohl die Analyse von Techniken menschlicher Mo­ti­va­tions­trai­ner als auch die Über­tra­gung der Er­geb­nis­se auf den Ro­bo­ter. Die Uni­ver­si­tät Bie­le­feld hat mit dem CoR-Lab und dem CITEC, dem Exzellenzcluster für kognitive Interaktionstechnologie, die notwendige Expertise, sowohl die Interaktion zwischen Motivationstrainer und -schüler zu verstehen, als auch dies in Technik umzusetzen. Zumindest in dem Rahmen, in dem man dies heutzutage schon mit Roboter machen kann. Zum Einsatz kommen werden dabei wahrscheinlich sowohl der Nao als auch FloBi, ein emotionaler Roboterkopf aus Bielefeld.

Flobi, Roboterkopf mit ausdrucksstarker Mimik

Das Projekt läuft über drei jahre und endet in einem Live-Versuch, in dem mehrere Personen unter medizinischer Aufsicht isoliert werden und über mehrere Wochen unter den Augen der Wissenschaftler vom Nao bespaßt werden und dabei auf ihre Stimmungslage und Trainingserfolge untersucht werden.

Disclaimer: Das CoR-Lab ist mein aktueller Arbeitgeber.

Auf nach Berlin zum Final PiSA Project Workshop

Heute geht’s nach Berlin zur Abschlussveranstaltung des EU-Projekts PiSA. PiSA ist ein IP-Projekt (Integrated Project) der EU, also eines der größeren Projekte mit vielen internationalen Partnern. Das Projekt beschäftigt(e) sich mit flexiblen Fertigungssystemen mit Mensch-Maschine-Interaktion. Dieses Projekt ist thematisch so nah an dem Szenario FlexIRob, an dem ich in den letzten Wochen mitgearbeitet habe, dass sich hier ein Blick über den Tellerrand sicher lohnt.

Beim PiSA-Projekt geht es darum, Fertigung so zu gestalten, dass der Mensch weiterhin Teil dieses Prozesses bleibt, aber durch Maschinen und Robotik leistungsfähige Werkzeuge und Hilfen zur Verfügung hat. Die direkte Zusammenarbeit von Mensch und Maschine, von der man zu recht großes erwartet, steckt im Moment allerdings noch in den Kinderschuhen. Allein sicherheitstechnisch und rechtlich sind noch unheimlich viele Fragen offen. Einen Menschen in der direkten Umgebung eines tonnenschweren Industrieroboters arbeiten zu lassen, geschweige denn ihn mit dem Roboter in direkten physischen Kontakt kommen zu lassen, ist ein schwieriges Feld wenn nicht nur vorgegebene Aufgaben abgespult werden sollen, sondern eine flexible Zusammenarbeit gewollt ist.

Ich bin gespannt, welche Lösungen und Ideen im Rahmen des Projekts entwickelt wurden und morgen vorgestellt werden. Die Liste der Projektpartner mit unter Anderem Volkswagen, den Fraunhofer-Instituten für Pro­duk­tions­an­la­gen und Kon­struk­tions­tech­nik (IPK) sowie für Pro­duk­tions­tech­nik und Au­to­ma­ti­sie­rung (IPA), EADS, COMAU und weiteren ist auf jeden Fall mit großen Namen besetzt.

Ich hoffe, zu sehen, ob innerhalb des Projekts ähnliche Fragestellungen aufgekommen sind wie bei uns und welche Ideen und Lösungen von den Partnern gezeigt werden. Ich freue mich schon auf die Gespräche und Kontakte, die sich hoffentlich ergeben. Zumindest das Social Event, die abendliche Fahrt über die Spree, sollte dazu eigentlich ausreichend Gelegenheit bieten.

Bericht von der Automatica 2010

Die Automatica, internationale Fachmesse für Automation und Mechatronik in München war auch in diesem Jahr wieder eine spannende Technologie-Schau. Wenngleich etwas kleiner als vor zwei Jahren, zeigten sich wieder dichtgedrängt in vier Hallen Hersteller und Forschungseinrichtungen der Automation, Mechatronik und Robotik.

Einzelne Teile der Messe waren für mich weniger interessant, das sind vor allem die Bereiche zur Förderungstechnik und klassischen Industrieautomatisierung:
Förderbänder, Rollen, Räder, Notausschalter und Warnleuchten. Die Hallen zur klassischen Industrierobotik habe ich mir wiederum gerne angesehen. Hier zeigen die großen Industrierobotik-Hersteller auf beeindruckenden Standflächen ihre Roboter. Von kleinen, schnellen Robotern bis hin zu den großen Kolossen. In den letzten Jahren, beginnend mit den KUKA Titan (dem ersten mit einer Tonne Traglast), werden dazu gerne Roboter ausgestellt, die ganze Fahrzeuge oder Fahrzeugkarossen live durch die Halle stemmen.

Hier war in diesem Jahr der Hersteller Fanuc in besonderem Maße präsent. Nicht nur durch die zahllosen Hostessen, die stets in großer Zahl in leuchtend gelben Kleidern um den Stand und durch die Hallen schwirrten. Sondern auch durch einen Giganten, der von einem Fanuc-Partner ausgestellt wurde. Die Traglast des Roboters war am Stand nicht direkt zu erkennen und ich konnte beim Vorbeigehen leider auch keinen Ansprechpartner antreffen. Die Tatsache, dass jedoch allein der Greifer, den der Roboter durch seinen Arbeitsbereich wirbelte, ungefähr so groß war, wie sonst manch ein Industrieroboter der Konkurrenz, sprach Bände. Eine wahrlich imposante und furchteinflößende Maschine.

Das CoR-Lab, und damit auch ich, war als Aussteller in der Halle A2 untergebracht. Halle A2 war hauptsächlich der Robotik verschrieben, weswegen wir dort umgeben von der Konkurrenz 1 aufgestellt waren. Mit in der Halle und in Sichtweite fanden sich so zum Beispiel das KIT (Karlsruhe Institute of Technology), das DLR (Deutsches Zentrum für Luft- und Raumfahrt) und viele weitere Prominenz der deutschen Robotik-Forschungslandschaft.

Wir hatten einen gemeinsamen Stand mit dem Excellenzcluster CITEC, ebenfalls von der Universität Bielefeld, und damit sozusagen einen gemeinsamen Stand zur Forschung in der Mensch-Maschine-Interaktion. Zu unserem Stand fanden einige interessierte Besucher, unsere Demo lief alle Tage stabil und kam dem Eindruck nach gut an. Die Qualität der Kontakte, die wir auf der Messe geknüpft haben, war für uns alle auf jeden Fall in höchstem Maße erfreulich. Einige Vertreter aus der Industrie, die an unseren gezeigten Fähigkeiten interessiert sind und in nächster Zeit konkrete Anwendungsszenarien mit uns besprechen wollen.

Natürlich kamen nicht nur Industrievertreter, sondern auch die Konkurrenz 2 sondierte sich. Bisweilen beliebt auf solchen Messen ist es seitens der Institutsleiter und Professoren, das Namensschild abzunehmen in der Hoffnung, unerkannt einen Doktoranden auflaufen zu lassen. Nicht um zu spionieren, sondern um mit dem eigenen Fachwissen die Geschichte zu hören, die auch der gemeine Besucher hört. Als Doktorand muss man in solchen Fällen auf der Hut sein. Das Gespräch beginnt entspannt wie mit jedem anderen Messebesucher, bis sich im Laufe des Gesprächs herausstellt, dass der Gegenüber von dem, was man dort erzählt, im ungünstigsten Fall mehr Ahnung hat.

Ähnlich ist es mir in diesem Jahr passiert. Nicht die Konkurrenz, sondern Günther Schreiber persönlich, am Deutsches Zentrum für Luft- und Raumfahrt sozusagen Vater des Leichtbauarms, kam an den Stand. Eine kompetentere Person bezüglich des Roboters, den wir für unser Szenario als Forschungsplattform einsetzen, gibt es wohl nicht. Zu dem Zeitpunkt war ich allein am Stand und bemerkte erst zur Mitte des Gesprächs, mit wem ich es zu tun hatte. Es lief aber alles erfreulich und in dem Gespräch mit ihm habe ich sogar einige Neuigkeiten zur weiteren Entwicklung des Leichtbauarms erfahren können.

Im Folgenden kamen noch Personen vom KIT, weitere Interessierte vom DLR, Wissenschaftler vom Münchner Exzellenzcluster CoTeSys und viele mehr zum Stand. Allesamt angenehmerweise ein interessierter Austausch und Plaudern unter Kollegen. Und als dann die DLR-Prominenz Patrick van der Smagt an unseren Stand kam, war zum Glück unser Institutsleiter ebenfalls anwesend, so dass auch Fragen zum übergreifenden Forschungsplan beantwortet werden konnten.

Dass auch meine ehemaligen Kollegen aus der Robotertechnologie-Gruppe der Siemens-Forschungsabteilung aus München mal vorbeischauten, hat mich zudem gefreut. Abends habe wir dann natürlich auch das schöne Wetter genutzt, um in gemeinsamer Bielefelder, Münchner und Dortmunder Gruppe bei Leberkäs und Bier Kontakte zu pflegen und Robotik-Neuigkeiten auszutauschen. Ein toller Abend.

Insgesamt war es eine schöne Woche, die allerdings auch viel Energie gekostet hat. Die vielen Gespräche, das konstante Präsentsein in Kombination mit den vielen durchgearbeiteten Nächten im Vorfeld kosten viel Kraft. Aber es hat sich gelohnt.

Und in einem der nächsten Beiträge werde ich schreiben, was fachlich zu erfahren war und welche Hinweise auf die deutsche Robotik-Zukunft auf der Messe zu finden waren. Sowohl aus dem Gespräch mit Günther Schreiber als auch das, was das DLR als Blick in die nahe Zukunft zugelassen hat. Der könnte nämlich – so er denn zutrifft – einen Major Impact bedeuten und atemberaubende Resultate hervorbringen. Und wer in Deutschland sollte dazu bessere Möglichkeiten haben, dies auch wahr zu machen, als das DLR?!

Mehr dazu folgt.

Jetzt, da die Kommentarfunktion im Blog endlich wieder funktionstüchtig ist, freue ich mich auch wieder über Kommentare. Kann vielleicht einer der Blogleser die Automatica aus Besuchersicht zusammenfassen?

Auf nach München!

So, heute geht`s auf nach München zur diesjährigen Automatica, wo wir eine Demo zur Mensch-Maschine-Interaktion mit dem KUKA Leichtbauarm zeigen werden, wie wir es in ähnlicher Form auf der Hannover Messe gemacht haben.

/images/blog/automatica_2010.jpg
Automatica 2010

Die letzten Tage waren wieder hinreichend stressig, da wir die Demo weiter ausgebaut haben und neue Dinge zeigen wollen und werden. Aber die Arbeit hat sich gelohnt und wir sind wieder einen deutlichen Schritt weiter, was die Beherrschung des Roboters und die Einbindung in natürliche und intuitive Interaktion zwischen Mensch und Maschine angeht.

Wenn ich Zeit habe, werde ich an dieser Stelle noch etwas detaillierter beschreiben, was wir im Moment mit dem Roboter machen.

So, aber nun auf nach München. Ich freu mich schon auf interessante Gespräche mit anderen Automatisierungstechnikern und auf den Biergarten heut abend. Und auf das gemeinsame Essen mit der Robotikgruppe von Siemens CT, bei denen ich eine zeitlang gearbeitet habe, freue ich mich ganz besonders.