Sum of all Thrills

/images/blog/sumofallthrills.jpg
Sum of all Thrills

Disney hat seit diesem Monat eine neue Attraktion, sowas ähnliches wie ein Fahrgeschäft. Aber mit Robotern. Es nennt sich Sum of all Thrills (Die Summe aller Nervenkitzel) und steht im Walt Disney World Resort in Florida.

Das Prinzip ist bekannt, ein kräftiger Industrieroboter wirbelt zwei Personen auf Sitzen durch die Gegend. Die Bewegungen sind im Prinzip ähnlich der auf einer Achterbahn, durch die Bewegungsfreiheit der Roboter lassen sich allerdings weitaus wildere Bewegungen machen. Ein Beispiel:

Fahrt auf einem Industrieroboter

Auch Legoland hat soetwas seit einiger Zeit. Disney bettet dieses Prinzip jetzt aber in ein etwas größeres Ereignis ein und macht es besonders auf:

/images/blog/sumofallthrills2.jpg
Sum of all Thrills

Die vergnügungswilligen Passagiere haben während der Fahrt ein Display vor den Augen, das zu den Bewegungen des Roboters optisch eine Fahrt simuliert.

Toll und neu ist dabei auch das Bedienkonzept der Anlage, denn man darf sich selbst die Strecke zusammenbauen, die man mit dem Roboter fahren will. So kann man Schrauben, Loopings, Abfahrten, usw. … hintereinanderschalten und sogar pro Ab­schnitt Geschwindigkeit, Länge und Höhe der Bahn festlegen.

Aber nicht nur die Bahn kann konfiguriert werden, sondern es lässt sich außerdem entscheiden, mit welchem Gefährt man unterwegs sein will: Achterbahn, Bob oder Dü­sen­jet.

Wie die Auswahl aussieht und sogar für Kinder bedienbar sein soll, zeigt das folgende Video:

https://youtube.com/watch?v=nKt-LKqTwKs
Freie Konfiguration der Strecke

Wichtiger Bestandteil des Systems ist natürlich ein Top-Simulator, der im Vorfeld der tatsächlichen Fahrt die frei wählbare Strecke am Industrieroboter simuliert und auf ihre Machbarkeit überprüft. Denn schließlich können bei jeder konfigurierten Strecke neue Bewegungen entstehen und bevor Menschen auf den Roboter gelassen werden, muss sichergestellt sein, dass der Roboter keine falschen Bewegungen ausführt. Denn diese Roboter sind unfassbar kräftig und dadurch mit Sicherheit zu Bewegungen fähig, die das Wohlbefinden der Passagiere weit überschreiten.

Technisch ist Sum of all Thrills übrigens ein KUKA RoboCoaster mit einem Hand­ha­bungs­ge­wicht von 430 Kilogramm.

Eine tolle Idee, wie ich finde. Hier macht man sich sämtliche Freiheitsgrade des Industrieroboters in Kombination mit Display und der Bedienführung zunutze, um dem Besucher seine eigene Achterbahnfahrt ganz nach seinem Wunsch zu ermöglichen. Ich muss zugeben, dass ich das auch gerne machen würde.

Via Planet Robotics.

Zweibeiner PetMan von Boston Dynamics

Boston Dynamics hat bereits vor einiger Zeit mit BigDog beeindruckt, einem vierbeinigem Roboter, der sich beinahe furchterregend echt bewegt und vierbeinig durch die verschiedensten Gelände trabt.

Boston Dynamics stellt jetzt die nächste Laufmaschine vor: PetMan. Nicht minder realistisches Laufen und, da diesmal zweibeinig, dem Menschen ähnlicher und dadurch dem Uncanny Valley sehr nahe:

PetMan auf einem LaufbandPetMan läuft 3,2 Meilen pro Stunde (etwa 5,1 Stundenkilometer). Er ist damit nicht der schnellste unter den Zweibeinern (er wird in dieser Disziplin noch von Asimo geschlagen), sein Gang ist jedoch trotzdem bemerkenswert. PetMan rollt wie der Mensch über Ferse und Fußballen ab und hat eine sehr dynamische Gangart. Wie BigDog bringt ihn auch ein Schubser nicht aus dem Gleichgewicht, er fängt sich selbstständig durch einen entsprechenden Ausfallschritt ab und läuft weiter.

Wie BigDog hat auch PetMan einen Einsatz im Militär vor sich. Anders jedoch als BigDog ist PetMan nicht als Gefährte für Soldaten gedacht, sondern soll Schutzkleidung für Soldaten testen. So soll er Schutzkleidung gegen chemische Kampfstoffe und Gifte testen. Wie realistisch er dabei die menschliche Beanspruchung der Kleidung simulieren kann, lässt sich im Video sehen. Gerade die Seitenansicht irritiert, da sich die scheinbare Lebendigkeit nicht leicht einer Maschine zuordnen lässt.

13 Monate hat Boston Dynamics an PetMan entwickelt, weitere 17 Monate folgten für Konstruktion, Inbetriebnahme und Tests. PetMan soll für seinen späteren, geplanten Einsatz natürlich noch einen Oberkörper bekommen, um den kompletten Anzug testen zu können. Damit soll er dann auch all die anderen Bewegungen machen können, die Soldaten machen: Bücken, Krabbeln, Robben, … auch Schwitzen soll PetMan können.

In dieser Anwendung, Kleidung möglichst der gleichen Belastung auszusetzen, wie sie Soldaten verursachen, ist auch die beunruhigend menschenähnliche Bewegung des Roboters begründet. Zweck ist hier eben nicht nur – wie etwa beim Asimo – das zweibeinige Laufen, sondern explizit zweibeiniges menschenähnliches Laufen. Und das ist ihnen gelungen!

Mehr zum PetMan.

Via Planet Robotics.

[Linkdump] 22. Oktober 2009

Robotische Links der vergangenen Tage:

Bis Roberta endlich blinkt(Frankfurter Rundschau, Julia Artner und Meital Lior, 21. Oktober 2009)„Wie kann ich programmieren, dass Roberta einen Stift halten kann und beim Fahren malt?“ Mädchen in der Kinderwerkstatt des Museums für Kom­mu­ni­ka­tion sollen sich für Dinge begeistern, die sonst eher Jungen mögen: Technik und Informatik. Sie arbeiten dazu mit dem Lego-Roboter Roberta.Japan: Robot Nation(current_, Video, englisch)25-minütiges Video (englisch) über Roboter im Kontext des demografischen Wandels der japanischen Gesellschaft. Roboter könnten eines Tages in Japan helfen, das Fehlen von Nachwuchs und Immigranten auszugleichen.Schwimmende Korkenzieher(Deutschlandradio, Radiobeitrag)Winzige, korkenzieherförmige Metallstrukturen schrauben sich wie Bakterien vorwärts. Radiobeitrag zu nanometer-großen Robotern der Eidgenössischen Technischen Hochschule in Zürich.Roboter sind riskante Hausfreunde(Heise c’t, Hans-Arthur Marsiske, 17. Oktober 2009)Eine Studie der University of Washington zu vernachlässigten Sicherheits- und Datenschutzfragen bei aktuellen Robotern. Beispielhaft wurden die via Internet steuerbaren Roboter Rovio, Spykee RoboSapien V2 untersucht. (englische Originalstudie, PDF, 500 kB)Bewaffnete Kampfmaschinen(Heise c’t, Hans-Arthur Marsiske, 5. Ausgabe 2009)„Langfristig wird am Ziel Autonomie festgehalten. Doch der Schutz der Soldaten hat Priorität.“ Vertreter der Bundeswehr sprechen beim Forum
„Unmanned Vehicles“ über die Bewaffnung von ferngelenkten Plattformen.
Roboter simuliert Schweinegrippe-Symptome(FAZ.net, Video)Japan zeigt auf der Sicherheitsmesse einen humanoiden Roboter, der die Symptome des H1N1-Virus beim Menschen simuliert und damit zur Ausbildung von Helfern im Ernstfall beitragen soll.

Hexbug Nano und BristleBot

Die Firma Hexbug, die schon einige kleine einfache Spielzeugroboter herausgebracht hat, die an Krabben oder Ameisen erinnern, hat nun den Hexbug Nano vorgestellt. Der Hexbug Nano ist ein kleiner wuseliger Roboter, der nicht viel mehr macht, als zufällig herumzudüsen und dabei lustig auszusehen. Im folgenden ein Video und ein Bild der Einzelteile:

https://youtube.com/watch?v=h6jlwo3OxAQ
Ein Haufen Hexbug Nanos in Aktion
/images/blog/hexbugnano.jpg
Hexbug Nano

Die Hexbug Nanos sind schon niedlich und ganz einfach aus wenigen Einzelteilen zusammengebaut, dennoch gibt es die kleinen Roboter noch in viel cooler und sogar günstiger: als BristleBot.

Die Idee zu den Robotern wurde von Evil Mad Scientist vorgestellt, eine Seite, auf der allerhand lustige Dinge gebastelt und experimentiert werden. Dort sieht man, wie man den Roboter ganz einfach und für einen Materialpreis von ca. 2 Euro selbst bauen kann. Aus einer Zahnbürste, einem Vibrationsmotor und einer Batterie (Knopfzelle). Diese Idee gab es schon weit vor den Hexbug Nanos.

Meinen ersten Versuch eines BristleBots (und damit auch meinen ersten selbstgebauten Roboter) sieht man hier:

/images/blog/bristlebotschmidt.jpg
Mein erster BristleBot „Frau Schmidt 17.6“

Die Zahnbürste muss eine mit X-Borsten (also schräg gestellten Borsten) sein, den Vibrationsmotor kann man aus einem alten Handy ausbauen, ansonsten kann man ihn auch für ca. 1 Euro bestellen (ich habe meinen damals bei Pollin für 1 Euro bestellt). Die Knopfzellen sind in jedem Elektronikladen oder im Baumarkt zu bekommen. Ich habe meinem BristleBot noch eine kleine Batteriehalterung spendiert, die ist aber nicht unbedingt notwendig.

Das Prinzip ist ganz einfach und wurde von Hexbug für die Nanos übernommen: Die schräg gestellten Borsten der Zahnbürste bewirken, dass sich der Zahnbürstenkopf mit jedem kleinen Druck von oben auf der Unterlage einen Bruchteil eines Millimeters fortbewegt. Ist der Vibrationsmotor auf dem Zahnbürstenkopf montiert und dreht sich, passiert diese Auf-und-Ab-Bewegung mehrfach in der Sekunde und sorgt dafür, dass der BristleBot nach vorne flitzt. Da die Bewegung nicht ganz gleichmäßig ist, ändert der BristleBot dabei wahllos die Richtung und täuscht dabei dem belustigten Betrachter ein Eigenleben vor.

Ein Video dazu mitsamt der Bauanleitung gibt’s im Evil Mad Scientist Laboratory:

Original-BristleBot

Die Hexbugs sind sicherlich qualitativ hochwertiger gefertigt und stabiler. Im Video zum Beispiel ist zu sehen, dass sie sich sogar von allein wieder aufrichten, während mein selbstgebastelter BrisleBot eher umfällt, als sich aufzurichten. Nichtsdestotrotz hat der BristleBot einen ganz anderen Charme als die Hexbugs und man kann mit stolz geschwellter Brust auf seinen eigenen, selbstgebauten Roboter sehen.

Drahtlos ferngesteuerter Nashornkäfer

/images/blog/nashornperfunk2.jpg
Cyborg-Käfer

Anfang des Jahres hatte ich bereits darüber berichtet, dass die University of California, Berkeley eine Methode entwickelt hat, die Ner­ven von Nas­horn­kä­fern mit Elek­tro­nik zu ver­drah­ten und die Kä­fer da­rü­ber fern­zu­steu­ern: UC Ber­ke­ley zeigt fern­ge­steu­er­ten Nas­horn­kä­fer.

Ein neues Video zeigt die Fortschritte, mit denen ein Nashornkäfer drahtlos durch die Räume der Universität gesteuert wird, was damals schon angekündigt, aber noch nicht zu sehen war. Vorsicht, die Bilder sind verstörend und für empfindliche Tierfreunde nicht zu empfehlen:

https://youtube.com/watch?v=PAeV96bTRiI
Cyborg-Nashornkäfer wird ferngesteuert

Die schnellen Fortschritte auf diesem Gebiet bedeuten wohl, dass − zumindest beim Militär − erste Anwendungen der Technik nicht mehr allzu lange auf sich warten lassen. Mit Kameras oder anderen Sensoren ausgerüstet, sind diese Cyborg-Insekten perfekt für Spionageeinsätze.

Hier deutet sich eine neue Ethikdiskussion an, denn was heute mit Nashornkäfern möglich ist, wird in Kürze auch mit größeren Tieren mit komplexeren Nervensystemen möglich sein. Solche Diskussionen sollten möglichst schnell in die breite Öffentlichkeit, denn die Fortschritte sind gewaltig und die damit verbundenen Fragen werden sich zwangsläufig stellen.

Dürfen wir Tiere derart manipulieren? Inwieweit bekommen Tiere davon etwas mit? Bei welcher Größe von Tieren ziehen wir die Grenze?

Vergessen darf man dabei schließlich auch nicht, dass Erkenntnisse aus diesen Forschungsfeldern enorme Potentiale für fühlende, lebensechte Prothesen für den Menschen bergen. Arm-, Hand- und Beinprothesen zum Beispiel, die wir nicht nur wie unsere eigenen Gliedmaßen bewegen können, sondern die auch fähig sind, Gefühl und Reaktionen an das Gehirn zurückzusenden.

Via BotJunkie.

Roboter-Rikscha-Tandem-Dingens

Die wohl coolste Art, sich fortzubewegen: Ein Tandem, auf dessen hinterem Sattel ein humanoider Roboter sitzt, der einem das mühsame Treten abnimmt. Gerade bei YouTube gefunden:

Roboter-Tandem

Wenn man jetzt dem Roboter noch Gyroskope zur Lageregelung einbaut, so dass das Fahrrad nicht mehr umfällt und man selbst an der Ampel nicht mehr den Fuß auf den Boden setzen muss (wie das aussehen kann, sieht man hier am Anfang und Ende des Videos), ist das echt das lässigste Gefährt der Welt.

Das Fahrrad will ich auch haben. Supercool!

[Linkdump] 13. Oktober 2009

Robotische Links der vergangenen Tage:

Deutsches Ärzteblatt: Roboter behandelt Herzrhythmusstörungen − Die Medizinische Universitätsklinik Heidelberg behandelt seit Kurzem Herz­rhyth­mus­stö­rung­en mit einem robotergestützten System

FH Köln: Gefühlvolle Roboter zielen am Markt vorbei − Studie der Fach­hoch­schu­le Köln

ATZ online: Überholassistent Proreta − Continental und TU Darmstadt zeigen Prototyp eines kamera- und radar-basierten Überholassistenten

ZDF heute: Panda-Roboter und Madonna-Automaten − Labor in Taiwan arbeitet am Nachbau von Tieren und Prominenten

CHIP: Roboter sind ein Sicherheits-Risiko − Studie warnt vor unsicher pro­gram­mier­ten Robotern

derWesten: Roboter tastet sich durch Plantage − Autonome Hebe- und Arbeitsbühne für die Apfelpflücker

VDI nachrichten: Fliegende Augen, hüpfende Nasen, krabbelnde Ohren − Über Militärrobotik: Insektenähnliche Roboter und Visionen der Militärs

ABB FANTA Can Challenge Volume 2

Vor einem guten halben Jahr habe ich hier im Blog Fanta Can Challenge (etwa Fantadosen-Herausforderung) des Industrieroboter-Herstellers ABB gezeigt. Damals mit zwei Robotern, die mit beeindruckender Geschwindigkeit kooperierten.

Jetzt legt ABB noch einen drauf: Wieder ist es ein Video, um ABB TrueMove und QuickMove zu bewerben, diesmal allerdings mit drei Robotern, immernoch unglaublich schnell und präzise, und sogar vor einem anständigen Hintergrund. Aus sechs Fantadosen wurden zwölf, aus zwei Robotern drei und aus der lustigen Schlangenbahn eine deutlich kompliziertere Bewegung für den obersten Roboter.

ABB FANTA Can Challenge Volume 2

Pancakes per minute

ABB hat kürzlich einen Pancake Picker gezeigt, der eine erstaunliche Ppm-Rate (Pancakes per minute 1) besitzt. Zumindest scheint dieses Maß ein vernünftiges zu sein, um die Leistung des Pancake Pickers zu bewerten.

ABB Pancake Picker

Mit seinen 400 Ppm (Pancakes per minute) stellt er die vormals eingesetzten menschlichen Pancake Picker in den Schatten.

Wer nun auch dem Charme des Videos mit seiner dramatischen Musik, der Missionsankündigung zu Beginn, den Pancakes per minute und dem Pancake Buffer erlegen ist, der kennt den Grund für diesen Blogeintrag. Ganz davon ab, dass ich den Robotern über Minuten dabei zusehen könnte, wie sie die kleinen Pfannkuchen in verschiedenen Konfigurationen stapeln und die Geschwindigkeit und Präzision der Roboter wirklich erstaunlich ist.

Noch ein wenig technischer Hintergrund: Bei den vier Robotern handelt es sich um ABBs FlexPicker, die über eine Steuerung angesprochen werden, die den großartigen Namen Pickmaster 3.2 trägt. Jeder der Roboter ist durch eine 4Gb-Ethernet-Kamera unterstützt, die vor ihm über dem Förderband angebracht ist und die Position der Pancakes erkennt.

Weitere Robotik-Videos gibt es wie immer nebenan in der Video-Abteilung, die sich genau wie dieser Blog abonnieren lässt.

Ich will jetzt auch einen Pancake Buffer für meinen Schreibtisch!

Via Planet Robotics.

Auto lernt vom Fahrer

/images/blog/drivsco.png
EU-Projekt „DRIVSCO“

Vorausschauend Fahren ist sowohl aus sicherheitstechnischen als auch aus öko­lo­gisch­en Grün­den im Stra­ßen­ver­kehr ge­bo­ten. Das können Menschen aktuell noch sehr viel besser als Fah­rer­as­sis­tenz­sys­teme. Fah­rer­as­sis­tenz­sys­teme setzen, um den Fahrer während der Fahrt zu unterstützen, in der Regel auf eine Kom­bi­na­tion aus mehreren Sen­so­ren. Sie können allerdings nicht so viele In­for­ma­tio­nen wie der Fahrer selbst in die Be­wert­ung der Situation einfließen lassen und dem­ent­spre­chend nicht so vo­raus­schau­end fahren. Der Fahrer weiß, wie eilig er es hat, wohin er will und greift auf einen reichen Er­fah­rungs­schatz vergangener Au­to­fahr­ten zurück.

Das EU-Projekt DRIVSCO hat ein System entwickelt, um diesen Erfahrungsschatz und die Fähigkeit, vorausschauend zu fahren, Fahrerassistenzsystemen anzueignen. Das System soll dafür tagsüber vom Fahrer lernen und das Gelernte nachts anwenden können. Nachts nämlich sind Fahrerassistenzsysteme dem menschlichen Fahrer in einer Hinsicht überlegen: sie können Infrarotkameras nutzen und damit sehr viel weiter sehen, als der Mensch es nachts kann. Das multi-nationale Projekt DRIVSCO unter Leitung des Bernstein Zentrum für Computational Neuroscience und der Universität Göttingen ist bereits abgeschlossen und hat die Ergebnisss in einen Prototypen gegossen, den Hella in ein Testfahrzeug eingebaut wurde.

Das Assistenzsystem lernt, indem es tagsüber in jeder Situation versucht, die Verkehrssituation anhand von Kameras zu erkennen und die dazugehörigen Fahrmanöver speichert. Die Verkehrssituation ergibt sich zum Beispiel aus der Straßensituation, dem Radius der folgenden Kurve, Hindernissen und Autos in der Umgebung. Das dazugehörige Fahrmanöver ist die Lenkbewegung und die Beschleunigung oder das Abbremsen des Autos. So erhält das System eine Datenbasis, die das Verhalten des Fahrer repräsentiert und kann nun versuchen, dieses Verhalten nachzuahmen. Lernen (Lehren) durch Demonstration.

Nachts vergleicht das System die aktuelle Fahrweise des Fahrers mit der bei Tag aufgezeichneten Datenbasis, da das System die Fahrsituation auch nachts aufgrund der Infrarotbilder gut erkennen kann. Weicht die Fahrweise des Fahrers deutlich von der Fahrweise tagsüber ab, interpretiert das System, dass die Situation für den Fahrer nicht gut erkennbar oder falsch eingeschätzt ist und warnt den Fahrer.

Wie sich ein solches Fahrerassistenzsystem in der Praxis anfühlt, wäre interessant zu erfahren. Vielleicht wird ein solches System ja von Autofahrern eher akzeptiert, wenn sie wissen, dass die aktuellen Vorschläge nicht aufgrund von Verkehrsregeln und externen Vorgaben erzeugt werden, sondern quasi die eigenen Vorschläge sind, da sie auf der eigenen Datenbasis berühren.

Man wird sozusagen nachts von sich selbst assistiert. Eine schöne Vorstellung.

Autoversicherer dürften sich dabei auch die Hände reiben, da eine solche Datenbasis eine herrlich detaillierte Aussage über die Fahrweise des Fahrers zulässt und damit eine neue Berechnungsgrundlage für den personalisierten Versicherungstarif.