Kommentar zu: „Roboter im echten Leben“

Nebenan bei Robonews schrieb man vorgestern über Roboter im “echten Leben” – Roboter in Fukushima und versucht, Beispiele für Roboter im „echten Leben“, also für den Einsatz in realer Umgebung, zu geben. Die Idee ist gut, aber die genannten Beispiele können die Überschrift gerade nicht stützen. Ich hatte begonnen, einen Kommentar zu dem Blogartikel zu schreiben. Der Kommentar wurde aber immer länger und ausführlicher, weswegen ich ihn jetzt hier aufschreibe.

Industrieroboter, die dort als Beispiel genannt werden, funktionieren nämlich in der Regel für eine einzelne Aufgabe, in streng strukturierter, abgesperrter und unveränderlicher Umgebung. Und die Bilder des Roboters, der womöglich in Fukushima zum Einsatz kommen soll, sind wohl nicht umsonst alle in einer Halle mit künstlich gebauten und vorher bekannten Hindernissen entstanden.

Wie wenig das mit der echten, harten Realität zu tun hat, deutet sich bei Betrachtung der Reaktionen auf Fukushima an: über Wochen ist dort nämlich zum Erstaunen der breiten Öffentlichkeit kein Roboter zum Einsatz gekommen. Bis die Japaner einen Monat nach dem Unglück mit dem geliehenen amerikanischen Militärroboter PackBot immerhin ein paar Messungen von innerhalb der Reaktorgebäude bekommen konnten. (Ein Umstand, der einen gehörigen Einfluss auf die öffentliche Wahrnehmung der japanischen Robotik in der eigenen Bevölkerung hatte)

Bilder von PackBot aus dem Innern von Fukushima

Roboter im echten Leben müssen nämlich nicht nur mit ein paar Holztreppen in gut ausgeleuchteter Umgebung zurechtkommen, wie es die Bilder im oben genannten Artikel zeigen, sondern die Realität ist viel brutaler:
Plötzlich ist überall Schutt und Wasser, die Temperaturen liegen weit jenseits üblicher Werte, so dass jegliche Standardelektronik versagt. Sensoren versagen, da alles dunkel, nass und dreckig ist. Der Funkkontakt zum Roboter bricht aufgrund der radioaktiven Strahlung ab, usw. …

Dass Roboter außerhalb ihrer Laborumgebung zurechtkommen, müssen sie auch an echten Problemen zeigen, wenn diese auftreten. Hübsche Bilder von Robotern auf Holztreppen Monate nach einer Katastrophe zu zeigen, oder zwei Jahre nach dem Auftreten des Problems einen Roboter dafür konstruiert zu haben, ist kein guter Hinweis für die Einsatzfähigkeit und Robustheit, die für den Einsatz in der Realität außerhalb von Laboren notwendig ist.

Das Problem ist auf ungefähr allen Ebenen unglaublich schwierig. Und gerade deshalb muss man mit Aussagen vorsichtig umgehen, dieses Problem habe man im Griff.

Roboter im Dortmunder Tatort

Am morgigen Sonntagabend läuft die Premiere des Dortmunder Tatort Alter Ego (ARD, Sonntag, 20.15 Uhr), der schon vor Wochen an den Bielefelder Robotik-Instituten CoR-Lab und CITEC seine Schatten voraus warf.

Der Grund: Die Spurensuche führt die Kommissare im Tatort in ein Technologiezentrum spielt, in dem an menschenähnlichen Robotern geforscht wird. Für den Spielfilm wurde das Technologiezentrum mit den zwei Bielefelder Robotern iCub und Flobi ausgestattet wurde. Die Ermittlerin befragt darin eine Tat-Zeugin, während ihr Kollege mit unserem iCub spielt.

Der Roboter wurde dazu so programmiert, dass er von einem Schauspieler gesteuert werden konnte, dessen Bewegungen mit Infrarotsensorik erfasst und gleichzeitig vom iCub nachgespielt werden.

/images/blog/tatort-icub.jpg
Vorbereitung einer Filmszene mit dem Bielefelder iCub

Das Humanoids Lab am CoR-Lab, in dem der iCub normalerweise steht, ist nur wenige Türen von meinem Büro entfernt und auch wenn ich nicht selbst an den Vorbereitungen beteiligt war, erinnere ich mich an so manchen langen Abend, an dem im Lab die Vorbereitungen liefen. Schon Tage vor dem Dreh wurden die Roboter für den Auftritt vorbereitet und programmiert, denn die Anforderungen für einen Filmdreh sind andere als die der täglichen Forschungsarbeit am Institut, insbesondere die neue Umgebung mit vielen Menschen, viel Hektik, neuen Anforderungen und komplett anderen Lichtverhältnissen als im gewohnten Labor. Die Kollegen Florian Lier, Simon Schulz, Lars Schillingmann und Frank Hegel haben dann auch den Roboter nicht nur selbst zum Drehort gebracht, sondern auch den ganzen Drehtag vor Ort betreut.

Leider ist das zahlreiche Filmmaterial mit dem Roboter letztendlich stark gekürzt worden, auf etwa 5 Sekunden. Spaß hat es allen Beteiligten aber wohl trotzdem gemacht und war für die Bielefelder Robotik auf jeden Fall eine spannende Erfahrung.

Neue Westfälische: Ein Roboter als Fernsehstar

Uni Bielefeld: Neuer Dortmund-Tatort mit Bielefelder Robotern

Linktipp: ‚Robotergesetze‘ über den Film ‚Mensch 2.0‘

Ein Linktipp: Boris Hänßler schreibt in seinem Blog Robotergesetze über den Film „Mensch 2.0“, der Ende des Monats in die deutschen Kinos kommt:

Ich kann den Film sehr empfehlen. Es kommen zwar die üblichen Verdächtigen zu Wort, Hiroshi Ishiguro, Kevin Warwick, Ray Kurzweil, Bruce Duncan usw. Aber der Film verbindet die Robotik-Forschung mit der Frage, was Menschsein heutzutage bedeutet – und was es heißt, künstliche Intelligenz zu schaffen.

Boris Hänßler

Die Beschreibung des Films klingt hochinteressant und könnte in Teilen thematisch an den Film Plug&Pray anknüpfen. Spennend ist sicher auch das Interview mit dem Macher des Films, Alexander Kluge, das Boris Hänßler gemacht hat und das laut eigener Aussage in zwei Wochen erscheint.

Positiv ist mir auch aufgefallen, dass künstliche Intelligenz nicht als Bedrohung erscheint. Alexander Kluge ist weder Optimist noch Pessimist. Das finde ich sehr angenehm.

Boris Hänßler

Der ganze Artikel bei Robotergesetze: Kinofilm: Gedanken zum Mensch 2.0

DGR-Tage 2012

Heute sind die DGR-Tage 2012, das zweite Jahrestreffen der Deutschen Gesellschaft für Robotik, zu Ende gegangen. Dieses Mal wurden sie gemeinsam von Olliver Brock, Marc Toussaint und Ivo Boblan an der TU Berlin ausgerichtet. Das Jahrestreffen teilt sein hehres Ziel mit dem von botzeit propagierten Robotik-Stammtisch, allerdings deutschlandweit: Nämlich den Austausch der deutschen Ro­bo­tik-Forschungslandschaft, insbesondere der Doktoranden, zu fördern.

Dementsprechend waren am ersten der beiden Veranstaltungstage zwanzig Dokto­ran­den, dieses Mal auch ich, eingeladen, ihre Projekte und ihre Forschung vorzustellen. Viele interessante Projekte, aufgeteilt nach den For­schungs­fel­dern Perception (Umgebungs­wahr­nehmung), Representations and Learning (Umgebungs­repre­sen­tation und maschi­nel­les Lernen), Manipulation and Motion Planning (Greifen und Be­we­gungs­pla­nung), Robot Programming und Flying, Swimming, Rolling.

Der Vorträge des zweiten Veranstaltungs­tags wurde mit Vor­trägen verwandter Diszi­pli­nen und den deutschen Big Players der Robotik­szene gefüllt: u.A. Michael Beetz, Helge Ritter und Wolfram Burgard (dem sich der erste Beitrag von botzeit widmete).

Die Teilnahme an dieser Veran­staltung (die es auch im nächsten Jahr wieder geben soll), kann ich jedem nur empfehlen, der sich für die deutsche Robotik-Forschungs­land­schaft interessiert. Hier zeigen sich die deutsche Unis und Robotik­institute und zeigen Aus­schnitte aus ihren aktuellen Forschungs­pro­jekten. Dem ab­schlie­ßenden Aufruf der Veran­stalter, die Mailingliste der DGR zur Anmeldung zu empfehlen, die über diese und ähnliche zukünf­tige Veran­stal­tungen infor­miert, kann ich mich deswegen nur anschließen.

Cheetah rennt … schnell

/images/blog/boston-dynamics-cheetah-rennt.jpg
Cheetah von Bostom Dynamics rennt

Der neue flinke Vierbeiner Cheetah von Boston Dynamics zeigt in den letzten Tagen, dass selbst die schnellsten Menschen nicht mehr vor Robotern sicher sind. Cheetah rennt in dem folgenden Video für einen kurzen Moment über 45 Stundenkilometer (28,3 mph) schnell, und überholt damit selbst Usain Bolt, der bei seinem Weltrekord-Lauf 2009 auf 100 Metern im Schnitt knapp 38 km/h schnell lief.

Von Doping ist bei Cheetah übrigens nichts bekannt, wohl aber ist der Roboter die ganze Zeit seitlich geführt und der Druck für die Hydraulik kommt auch noch über Schläuche von außerhalb.

Cheetah in Aktion - zwischenzeitlich 45 km/h schnell (28,3 mph)

Dass der Roboter so schnell laufen kann und den alten Rekord von 21 km/h (13.1 mph) aus dem Jahr 1988 so beeindruckend brechen konnte, liegt übrigens weniger an stärkeren Motoren und besserer Hardware, sondern hauptsächlich an einer cleveren Koordination der Körperteile, die man sich vom biologischen Vorbild abgeschaut hat. Zum Beispiel, dass die Vorderbeine beim Laufen innen an den Hinterbeinen vorbei geführt werden können, was wie beim echten Geparden große, raumgreifende Schritte erlaubt.

Und Boston Dynamics will noch mehr: Der Nachfolger soll im nächsten Jahr im freien Terrain laufen können und dabei auch Richtungswechsel beherrschen. Dass Boston Dynamics für die Zukunft auch anpeilt, den Geschwindigkeitsrekord des echten Gepards (110 km/h) zu brechen, steht außer Frage.

Die FAZ zu Besuch bei Sebastian Thrun

Der deutsche Robotiker Sebastian Thrun ist mittlerweile Professor für künstliche Intelligenz an der Stanford University. Er gewann 2005 mit seinem Team und dem autonom fahrenden VW Touareg „Stanley“ die hochdotierte DARPA Grand Challenge und gilt spätestens seitdem als großer, wenn nicht größter, Vertreter der Probabilistischen Robotik: Also der Robotik, die, vereinfacht gesagt, nicht mehr versucht, ein exaktes Modell der Welt zu finden, sondern lediglich das wahrscheinlichste. Das mag nicht besonders vertrauenserweckend klingen, funktioniert aber ganz hervorragend und fährt mittlerweile erfolgreich Googles autonome Fahrzeuge durch den regulären Straßenverkehr der USA.

Die FAZ hat nun Sebastian Thrun im Silicon Valley besucht und fasst in einem Artikel die Eindrücke zusammen:

Der Deutsche Sebastian Thrun gründete Googles geheimes Forschungslabor „X“, entwickelte Autos ohne Fahrer und brachte die Computerbrille „Glass“ auf den Weg. Nun hat er sich vorgenommen, die Bildung zu revolutionieren.

Robotik-Spezialist Sebastian Thrun – Verändert er die Welt? (FAZ)

Neuer wissbegieriger Bewohner für den Mars – Curiosity

Morgen ist es soweit, der Mars bekommt einen neuen wissbegierigen Bewohner: NASA’s neuen Mars-Rover Curiosity.

/images/blog/curiosity.jpg
Mars-Rover Curiosity

Die aktuelle Mars-Mission Mars Science Laboratory (MSL) und ihr Curiosity-Rover treten ein großes Erbe an, die Vorgänger-Mission um die Rover Opportunity und Spirit hat sämtliche Erwartungen übertroffen und ihre geplante Missionszeit pulverisiert.

Das ist besonders aufgrund der widrigen Umstände von Marsmissionen imposant. Eine der großen Schwierigkeit der Mars-Missionen ist die große Entfernung zwischen Kontrollzentrum und den Robotern, die eine Verzögerung der Kommunikation von mehreren Minuten bedingt. Die Roboter müssen daher über einen hohen Grad an Autonomie verfügen, um über eine gewisse Zeitspanne den grob vorgegebenen Zielen selbstständig folgen zu können; und das in einer in großen Teilen noch unbekannten und unwirtlichen Umgebung. Die Leistung der Rover ist also kaum hoch genug einzuschätzen.

Eines der spannendsten und anforderndsten Teile der jetzt (an)laufenden Mission dürften allerdings bereits die ersten Minuten nach Eintritt sein:

Curiosity's Seven Minutes of Terror

Wie Ingenieur Adam Stelzner zu Anfang des Videos zurecht sagt: Die Pläne zur Landung des Rovers sehen absolut verrückt aus. Curiosity’s Seven Minutes of Terror (Curiosity’s schreckliche sieben Minuten) nennen die Ingenieure die Tatsache, dass die Landung sieben Minuten dauert, die Information darüber allerdings erst vierzehn Minuten auf der Erde eintrifft. Wenn das Kontrollzentrum das Signal über Eintritt in die Atmosphäre erhält, ist der Rover also entweder bereits heile auf dem Mars gelandet, oder schon seit sieben Minuten auf dem Mars zerschellt. Die komplizierte Landung wird notwendig aufgrund der Größe des neuen Rovers (siehe Größenvergleich rechts).

/images/blog/curiosity-size.jpg
Größenvergleich der Mars-Rover

Es wird also spannend, morgen früh ab ca. 7 Uhr mittel­euro­pä­ischer Zeit. Nicht nur wegen der be­son­ders kom­pli­zier­ten Lan­dung, die Erfolgs­bilanz der bis­herigen Mars­mis­sio­nen ist mit nur 15 ge­glück­ten von 39 Mars­missio­nen ohnehin nicht so gut. 1

Gut verfolgen lässt sich der Missions­verlauf einer­seits über die of­fiziel­len Seiten wie zum Bei­spiel die zur Mission Mars Science Laboratory der NASA. Aber auch die deutsch­spra­chi­ge Wiki­pedia hat einen tollen Artikel mit fan­tasti­schen Bil­dern und Illustra­tionen und das Jet Propulsion Laboratory der NASA teilt schon seit Tagen faszinierende Informationen, Bilder und Videos bei Facebook in Vorbereitung des Finals.

Veröffentlichung: Learning Motor Control by Dancing YMCA

Fundstück bei der Literaturrecherche: „Learning Motor Control by Dancing YMCA“. Veröffentlicht 2010 von Rikke Amilde LÄvlid auf der Konferenz Advances in Information and Communication Technology:

To be able to generate desired movements a robot needs to learn which motor commands move the limb from one position to another. We argue that learning by imitation might be an efficient way to acquire such a function, and investigate favorable properties of the movement used during training in order to maximize the control system’s generalization capabilities. Our control system was trained to imitate one particular movement and then tested to see if it can imitate other movements without further training.

Abstract

Leider habe ich kein Video dazu finden können.

Der Norweger Rikke Amilde LÄvlid von der Norwegian University of Science and Technology ist allerdings nicht der einzige, der den YMCA-Tanz für wissenschaftliche Publikationen nutzt. Auch zwei seiner Kollegen publizieren dazu, wie Google Scholar verrät.

Sachen gibt’s.

ICRA 2012

/images/blog/icra-robot.jpg
Anhänger für ICRA-Besucher

Die International Conference on Robotics and Automation (ICRA) 2012 hat begonnen. Wie jedes Jahr trifft sich hier eine vierstellige Anzahl Robotik-Wissenschaftler der ganzen Welt, um aktuelle Forschung vorzustellen und zu diskutieren.

Und den kleinen Kumpel oben im Bild bekommen haben ich sowie alle Gäste der ICRA in diesem Jahr zur Begrüßung geschenkt bekommen. Wie geschaffen für ein Robotik-Blog mit dem Namen „botzeit“

Um der Konferenz zu folgen, empfehle ich wie immer Planet Robotics, sowie für den Livestream die Twitter-Hashtags #ICRA und #ICRA12.

Simulation des Bionischen Handling-Assistenten

(this article is also available in English)

Im April 2010 wurde der Bionische Handling-Assistent (BHA) von Festo auf der Hannover Messe der Öffent­lich­keit vorgestellt. In den fol­gen­den Mona­ten sah dieser bio­lo­gisch inspirierte Roboter­arm zu recht eine große Medien­präsenz und wurde mit zahl­reichen Prei­sen, unter anderem dem Deutschen Forschungspreis 2010, aus­ge­zeich­net. Im Februar 2011 bekamen wir dann unseren eigenen BHA, voller Vor­freude, denn wir wussten, dass niemand bislang mit dem BHA tun konnte, was wir mit ihm vor­hat­ten: ihn zu kon­trol­lieren. 1

Die Struktur und Funk­tions­weise des BHA ist inspi­riert von einem Elefan­ten­rüs­sel, wie in fol­gen­der Ab­bildung un­schwer zu erken­nen ist. Der Arm wird im Sinne des Rapid Proto­typings im 3D-Drucker gedruckt. Als Material wird Polyamid ver­wen­det, wodurch der gesamte Arm leicht-gewich­tig und durch­gängig ver­form­bar wird: Im Wesent­lichen besteht der BHA also aus Plastik und einer Menge Luft. Bewegt wird der Arm von drei­zehn pneu­ma­ti­schen Ven­tilen, die die drei­zehn Kammern des Robo­ters mit Luft füllen oder ent­leeren. Dies wiederum verbiegt, beugt und streckt die kom­plet­te Struktur.

/images/blog/bha.jpg
Von einem Elefantenrüssel inspiriert

Festo hat mit dem BHA die Vision eines leichten, frei­beweg­lichen Dritte-Hand-Systems, das den Men­schen bei seiner Arbeit unter­stützen kann. Dank seiner struk­tu­rel­len Nach­giebig­keit (Compliance) ist der Arm im Kontakt mit Menschen und seiner Umgebung natur­gemäß sicher, was die Mög­lich­keiten von direkter Zu­sam­men­arbeit von Mensch und Roboter eröffnet. In in­dustriel­lem Kontext kann der BHA in Fertigungs­pro­zes­sen ein­ge­setzt werden, z.B. um mit empfind­lichen Gütern wie z.B. Lebens­mit­teln zu arbeiten.

Als wir uns ent­schlos­sen haben, Festos Bio­nischen Handling-Assisten­ten zu erwer­ben, wussten wir, dass wenige der klas­si­schen und bekannten Ver­fahren mit diesem Roboter funktio­nie­ren würden. Trotz­dem war über­raschend, dass der Roboter ohne jeg­liche Software aus­ge­lie­fert wurde.

Keine Software.

Nichts.

Noch bis vor einem Jahr konnten wir mit dem BHA nicht viel mehr tun, als von Hand die pneu­ma­ti­schen Ven­tile zu öffnen und zu schließen, um damit entweder vol­len Druck oder gar keinen Druck in die Kam­mern zu geben. Auch damit waren die Be­we­gun­gen des Robo­ters absolut fas­zi­nie­rend und wir hatten großen Spaß, aber ernst­hafte An­wen­dungen waren damit natür­lich noch nicht möglich. Wie von Festo zugesagt, bekamen wir dann vor fast genau einem Jahr elektro­nische Ventile, mit denen wir (mehr oder weniger präzise) den Druck in den Kammern auto­ma­tisch vor­geben konnten. Nicht mehr und nicht weniger: den Druck kon­trol­lie­ren.

Um es einmal vorsichtig zu sagen: Der Schritt von dieser Druck­re­ge­lung zu einer ernst­haften An­wendung mit dem BHA ist groß!

Das tat­säch­liche Werkzeug, dass man mit dem BHA kon­trol­lieren will, ist der so­ge­nan­nte Fin Gripper am Ende des Arms. Diesen Greifer zu al­ler­dings genau zu po­si­tio­nie­ren setzt zu­al­ler­erst voraus, die Postur des Arms prä­zise bestimmen zu können. Den Druck in den ein­zel­nen Kam­mern zu kennen, reicht dafür bei weitem nicht aus; dass dies zum Scheitern ver­ur­teilt sein würde, diese Er­fah­rung hatten wir bereits mir anderen Robo­tik­platt­for­men gemacht: Zehn Mal den gleichen Druck auf einen pneu­ma­ti­schen Roboter zu geben, ergibt im Regel­fall zehn ver­schie­dene Posturen des Robo­ters. Reibung, Reibung, Hyste­rese-Effekte und Nicht-Stationaritäten ver­ändern das Ergeb­nis von Mal zu Mal.

/images/blog/bha-marked.jpeg
Die kinematische Struktur des BHA

Um diesen Problemen zu begegnen, besitzt der BHA Längen­sen­soren (Kabel-Poten­tio­meter), um an der Außen­seite des Arms die Streckung der einzel­nen Kam­mern zu messen (siehe obige Abbildung). Natür­lich wollten wir diese Länge nicht nur kennen, sondern auch kontrol­lieren können. Das ist theore­tisch mit klas­si­scher (PID-)Regel­technik möglich, aber funktio­niert auf diese Weise nur sehr schlecht. Um dieses Ver­hal­ten zu verbes­sern, könnte man nun ver­suchen, all das Wissen über den BHA in eine aus­ge­feil­tere Regelungs­technik zu stecken. Wenn man dieses Wissen bloß hätte …

Eine kurze Liste von Dingen, die man über den BHA nicht weiß:

 

Das präzise Verhältnis zwischen Druck in den Kammern und der geo­me­trischen Postur im Ruhe­punkt (im Equi­li­brium)

Jegliche Art von Dynamik (nicht nur der Pneu­ma­tik selbst, sondern auch des sehr viel lang­sa­me­ren Zusam­men­spiels zwischen der Pneu­matik und Geo­me­trie)

 

Welche Länge des Arms bzw. der einzelnen Kam­mern ist über­haupt mög­lich? Wo liegen die Gren­zen?

 

Und nicht zuletzt: Wie genau ist das Zusam­men­spiel der obigen Aspekte zwi­schen den einzel­nen Kam­mern. Denn: Es be­steht ein starker Zusam­men­hang!

 

Alles zusammen eine große Heraus­for­de­rung … aber nicht un­mög­lich. An­ge­nom­men also, die Länge des Aktu­a­tors lässt sich mes­sen und kontrol­lieren. Um nun die End­ef­fektor-Posi­tion (die Posi­tion des Greifers) zu kon­trol­lieren … muss man die aktu­el­le End­ef­fek­tor-Posi­tion kennen!

Die Endeffektor-Position anhand der Geo­metrie des Robo­ters und der Stel­lung der Aktua­toren zu er­rech­nen, nennt sich Vor­wärts-Kine­ma­tik und ist für handels­übliche Robo­ter kein großes Pro­blem, son­dern ein­fache Tri­go­no­metrie. Der BHA gehört allerdings zu einer anderen Klasse von Morpho­lo­gien, genannt Conti­nuum Kine­ma­tics (also in etwa: konti­nu­ier­liche Kine­ma­tik). Dank seiner mecha­ni­schen Flexi­bi­li­tät besitzt dieser Robo­ter­arm unend­lich viele Frei­heits­grade, da jeder Bereich des Robo­ters unter­schied­lich gebo­gen und ge­streckt sein kann. Unend­lich viele Frei­heits­grade kön­nen weder mit Sen­so­ren ge­mes­sen noch berech­net werden.

Als wir unsere Arbeit mit dem BHA be­gon­nen haben, planten wir nicht, die kom­pli­zier­te Kine­ma­tik des BHA zu simu­lie­ren. Da wir uns im Kontext des BHA haupt­säch­lich mit Maschi­nel­lem Ler­nen be­schäfti­gen, wollten wir die End­ef­fek­tor-Posi­tion schlicht messen, um sie be­nut­zen zu können (tun wir auch). Dass wir trotzdem eine Simu­la­tion benö­ti­gen würden, stellte sich heraus, als wir Schwierig­kei­ten in der Vi­suali­sie­rung bekamen. Wir wollten nämlich dar­stel­len, wie die räum­lichen Koor­di­na­ten mit den Be­we­gun­gen des BHA zu­sam­men­hän­gen.

Da Visualisierung Kenntnis der Kinematik voraus­setzt, began­nen wir, sie an­zu­nähern. Selbst wenn sich die Beugung und Streckung von unend­lich vielen Frei­heits­graden nicht berech­nen lässt, so lassen sich doch durch die Längen­senso­ren einige An­nah­men zur Beugung des Arms tref­fen. Die einfach­ste Art der Beugung ist eine kreis­förmige; im drei-dimen­sio­nalen Fall ent­spricht dies einem Torus:

/images/blog/torus-model.jpg
Torus-Modell zur Annäherung der Beugung des BHA

Das Bild zeigt, wie sich ein Segment mit drei Aktua­toren (in der Ab­bil­dung als graue Röhren dar­ge­stellt) entlang eines Torus verbiegt. Diese Geometrie kann mit drei Parametern beschrieben werden: zwei Winkel (in der Abbildung blau dargestellt) und der Radius des Torus (in der Abbildung rot). Diese drei Parameter können anhand der gemessenen Längen an der Außenseite der BHA-Segmente rekonstruiert werden. Sobald diese Parameter bestimmt sind, ist das Berechnen der Vorwärtskinematik und damit die Bestimmung der Endeffektor-Position (also der Position des Greifers) einfach. Ein Problem tritt lediglich im Grenzfall auf, wenn alle Längen gleich sind, wenn also alle Kammern gleich gestreckt sind. Diese Verformung kann durch einen Torus nicht dargestellt werden, obwohl der BHA zu solch einer Bewegung in der Lage ist. Auch für dieses Problem ließ sich allerdings eine einfache, numerisch stabile Lösung finden. Der BHA lässt sich somit durch Aufeinandersetzen dreier solcher Segmente darstellen und simulieren.

Die gezeigten Torusdeformationen sind sehr einfache Annäherungen des Arms im Vergleich zu kom­plexen Physik des Ver­for­mungs-Pro­blems. Üblicherweise ist diese Art von Annäherung daher nicht hinreichend für diese Art von Robotern (siehe z.B. Trivedi 2008 2 ). Nicht jedoch für den BHA: Hier funktioniert die beschriebene Lösung sehr gut, in unseren Tests sehen wir einen durchschnittlichen Fehler von 1cm auf einer Länge von 1m. Nicht perfekt, aber absolut ausreichend für unsere Zwecke und außerdem durchaus konkurrenzfähig zu Lösungen in der Literatur.

Das folgende Video zeigt das simulierte Modell und unseren BHA:

BHA-Simulation

Der große Vorteil des benutzten einfachen Torus-Modells ist seine Geschwindigkeit in der Berechnung. Unsere Software-Bibliothek ist auf Basis dieses Modells in der Lage, die Vorwärtskinematik des BHA auf einem einzelnen CPU-Kern mehrere zehntausend Mal in der Sekunde zu berechnen. Auch wenn wir diese Simulation ursprünglich nicht geplant hatten, ist sie damit mittlerweile eine essentielles Werkzeug bei unserer Arbeit mit dem BHA geworden. Die interessanten Dinge machen wir weiterhin auch auf der echten Hardware, aber parallel lassen sich nun viele Dinge bequem vorberechnen und darstellen.

Die Kinematik-Simulation ist in C++ implementiert und als Open-Source-Bibliothek verfügbar. Über die folgende Seite kann sie heruntergeladen werden und enthält sowohl die Vorwärtskinematik als auch die gezeigte OpenGL-basierte 3D-Visualisierung: http://www.cor-lab.de/software-continuum-kinematics-simulation Wir freuen uns über Benutzer und Erfahrungsberichte.

Der folgende einfache Code-Schnipsel berechnet zum Beispiel die Vorwärtskinematik des BHA:

// create robot morphology with segment radii 0.1, 0.09 and 0.08 meters ContinuumRobotKinematics kinematics(RealVector(0.1, 0.09, 0.08));
// specify an end effector offset kinematics.setEndEffectorOffset(RealVector(0.0, 0.0, 0.14));
// this is the forward kinematics function:
Mapping<RealVector,RealVector> fwdKin = kinematics.getForwardPositionKinematics();
// try out some posture (a combination of actuator lengths) RealVector posture = {0.2,0.24,0.24,0.2,0.24,0.24,0.2,0.24,0.24};
// this is the resulting end-effector position RealVector position = fwdKin(posture); // [-0.3808, 0, 0.686287]Neben der in diesem Artikel beschriebenen Kinematik-Berechnung und Simulation des BHA, haben wir in den letzten Monaten noch viele weitere spannende Dinge mit dem BHA gemacht, die wir auf der Automatica-Messe im Mai in München zeigen werden:
Um zu sehen wie wir trotz der zahlreichen obigen Probleme mithilfe maschineller Lernmethoden den Greifer auf dem echten BHA im Arbeitsraum zu kontrollieren gelernt haben, lohnt sich also ein Besuch unseres Standes auf der Automatica in München:
Stand 427 und 429 in Halle B3, vom 22. bis 25. Mai.

 

Kontakt:

 

Dipl.-Inform. Matthias Rolf, CoR-Lab – Bielefeld University, mrolf@cor-lab.uni-bielefeld.de

Prof. Jochen Steil, CoR-Lab – Bielefeld University, jsteil@cor-lab.uni-bielefeld.de