Robotik-Blog

[Linkdump] 22. Oktober 2009

Arne am 22.10.2009 um 16:57 Uhr - zum Artikel

Robotische Links der vergangenen Tage:

  1. Bis Roberta endlich blinkt
    (Frankfurter Rundschau, Julia Artner und Meital Lior, 21. Oktober 2009)
    „Wie kann ich programmieren, dass Roberta einen Stift halten kann und beim Fahren malt?“ Mädchen in der Kinderwerkstatt des Museums für Kom­mu­ni­ka­tion sollen sich für Dinge begeistern, die sonst eher Jungen mögen: Technik und Informatik. Sie arbeiten dazu mit dem Lego-Roboter Roberta.

  2. Japan: Robot Nation
    (current_, Video, englisch)
    25-minütiges Video (englisch) über Roboter im Kontext des demografischen Wandels der japanischen Gesellschaft. Roboter könnten eines Tages in Japan helfen, das Fehlen von Nachwuchs und Immigranten auszugleichen.

  3. Schwimmende Korkenzieher
    (Deutschlandradio, Radiobeitrag)
    Winzige, korkenzieherförmige Metallstrukturen schrauben sich wie Bakterien vorwärts. Radiobeitrag zu nanometer-großen Robotern der Eidgenössischen Technischen Hochschule in Zürich.

  4. Roboter sind riskante Hausfreunde
    (Heise c't, Hans-Arthur Marsiske, 17. Oktober 2009)
    Eine Studie der University of Washington zu vernachlässigten Sicherheits- und Datenschutzfragen bei aktuellen Robotern. Beispielhaft wurden die via Internet steuerbaren Roboter Rovio, Spykee RoboSapien V2 untersucht. (englische Originalstudie, PDF, 500 kB)

  5. Bewaffnete Kampfmaschinen
    (Heise c't, Hans-Arthur Marsiske, 5. Ausgabe 2009)
    „Langfristig wird am Ziel Autonomie festgehalten. Doch der Schutz der Soldaten hat Priorität.“ Vertreter der Bundeswehr sprechen beim Forum „Unmanned Vehicles“ über die Bewaffnung von ferngelenkten Plattformen.

  6. Roboter simuliert Schweinegrippe-Symptome
    (FAZ.net, Video)
    Japan zeigt auf der Sicherheitsmesse einen humanoiden Roboter, der die Symptome des H1N1-Virus beim Menschen simuliert und damit zur Ausbildung von Helfern im Ernstfall beitragen soll.

Hexbug Nano und BristleBot

Arne am 21.10.2009 um 13:24 Uhr - zum Artikel

Die Firma Hexbug, die schon einige kleine einfache Spielzeugroboter herausgebracht hat, die an Krabben oder Ameisen erinnern, hat nun den Hexbug Nano vorgestellt. Der Hexbug Nano ist ein kleiner wuseliger Roboter, der nicht viel mehr macht, als zufällig herumzudüsen und dabei lustig auszusehen. Im folgenden ein Video und ein Bild der Einzelteile:

Your browser needs to support Flash contents to display this image. Ein Haufen Hexbug Nanos in Aktion
Hexbug NanoHexbug Nano

Die Hexbug Nanos sind schon niedlich und ganz einfach aus wenigen Einzelteilen zusammengebaut, dennoch gibt es die kleinen Roboter noch in viel cooler und sogar günstiger: als BristleBot.

Die Idee zu den Robotern wurde von Evil Mad Scientist vorgestellt, eine Seite, auf der allerhand lustige Dinge gebastelt und experimentiert werden. Dort sieht man, wie man den Roboter ganz einfach und für einen Materialpreis von ca. 2 Euro selbst bauen kann. Aus einer Zahnbürste, einem Vibrationsmotor und einer Batterie (Knopfzelle). Diese Idee gab es schon weit vor den Hexbug Nanos.

Meinen ersten Versuch eines BristleBots (und damit auch meinen ersten selbstgebauten Roboter) sieht man hier:

Mein erster BristleBot „Frau Schmidt 17.6“Mein erster BristleBot „Frau Schmidt 17.6“

Die Zahnbürste muss eine mit X-Borsten (also schräg gestellten Borsten) sein, den Vibrationsmotor kann man aus einem alten Handy ausbauen, ansonsten kann man ihn auch für ca. 1 Euro bestellen (ich habe meinen damals bei Pollin für 1 Euro bestellt). Die Knopfzellen sind in jedem Elektronikladen oder im Baumarkt zu bekommen. Ich habe meinem BristleBot noch eine kleine Batteriehalterung spendiert, die ist aber nicht unbedingt notwendig.

Das Prinzip ist ganz einfach und wurde von Hexbug für die Nanos übernommen: Die schräg gestellten Borsten der Zahnbürste bewirken, dass sich der Zahnbürstenkopf mit jedem kleinen Druck von oben auf der Unterlage einen Bruchteil eines Millimeters fortbewegt. Ist der Vibrationsmotor auf dem Zahnbürstenkopf montiert und dreht sich, passiert diese Auf-und-Ab-Bewegung mehrfach in der Sekunde und sorgt dafür, dass der BristleBot nach vorne flitzt. Da die Bewegung nicht ganz gleichmäßig ist, ändert der BristleBot dabei wahllos die Richtung und täuscht dabei dem belustigten Betrachter ein Eigenleben vor.

Ein Video dazu mitsamt der Bauanleitung gibt's im Evil Mad Scientist Laboratory:

Your browser needs to support Flash contents to display this image. Original-BristleBot

Die Hexbugs sind sicherlich qualitativ hochwertiger gefertigt und stabiler. Im Video zum Beispiel ist zu sehen, dass sie sich sogar von allein wieder aufrichten, während mein selbstgebastelter BrisleBot eher umfällt, als sich aufzurichten. Nichtsdestotrotz hat der BristleBot einen ganz anderen Charme als die Hexbugs und man kann mit stolz geschwellter Brust auf seinen eigenen, selbstgebauten Roboter sehen.

Drahtlos ferngesteuerter Nashornkäfer

Arne am 19.10.2009 um 17:43 Uhr - zum Artikel

Cyborg-KäferCyborg-Käfer

Anfang des Jahres hatte ich bereits darüber berichtet, dass die University of California, Berkeley eine Methode entwickelt hat, die Ner­ven von Nas­horn­kä­fern mit Elek­tro­nik zu ver­drah­ten und die Kä­fer da­rü­ber fern­zu­steu­ern: UC Ber­ke­ley zeigt fern­ge­steu­er­ten Nas­horn­kä­fer.

Ein neues Video zeigt die Fortschritte, mit denen ein Nashornkäfer drahtlos durch die Räume der Universität gesteuert wird, was damals schon angekündigt, aber noch nicht zu sehen war. Vorsicht, die Bilder sind verstörend und für empfindliche Tierfreunde nicht zu empfehlen:

Your browser needs to support Flash contents to display this image. Cyborg-Nashornkäfer wird ferngesteuert

Die schnellen Fortschritte auf diesem Gebiet bedeuten wohl, dass − zumindest beim Militär − erste Anwendungen der Technik nicht mehr allzu lange auf sich warten lassen. Mit Kameras oder anderen Sensoren ausgerüstet, sind diese Cyborg-Insekten perfekt für Spionageeinsätze.

Hier deutet sich eine neue Ethikdiskussion an, denn was heute mit Nashornkäfern möglich ist, wird in Kürze auch mit größeren Tieren mit komplexeren Nervensystemen möglich sein. Solche Diskussionen sollten möglichst schnell in die breite Öffentlichkeit, denn die Fortschritte sind gewaltig und die damit verbundenen Fragen werden sich zwangsläufig stellen.

Dürfen wir Tiere derart manipulieren? Inwieweit bekommen Tiere davon etwas mit? Bei welcher Größe von Tieren ziehen wir die Grenze?

Vergessen darf man dabei schließlich auch nicht, dass Erkenntnisse aus diesen Forschungsfeldern enorme Potentiale für fühlende, lebensechte Prothesen für den Menschen bergen. Arm-, Hand- und Beinprothesen zum Beispiel, die wir nicht nur wie unsere eigenen Gliedmaßen bewegen können, sondern die auch fähig sind, Gefühl und Reaktionen an das Gehirn zurückzusenden.

Via BotJunkie.

Roboter-Rikscha-Tandem-Dingens

Arne am 18.10.2009 um 20:03 Uhr - zum Artikel

Die wohl coolste Art, sich fortzubewegen: Ein Tandem, auf dessen hinterem Sattel ein humanoider Roboter sitzt, der einem das mühsame Treten abnimmt. Gerade bei YouTube gefunden:

Your browser needs to support Flash contents to display this image. Roboter-Tandem

Wenn man jetzt dem Roboter noch Gyroskope zur Lageregelung einbaut, so dass das Fahrrad nicht mehr umfällt und man selbst an der Ampel nicht mehr den Fuß auf den Boden setzen muss (wie das aussehen kann, sieht man hier am Anfang und Ende des Videos), ist das echt das lässigste Gefährt der Welt.

Das Fahrrad will ich auch haben. Supercool!

[Linkdump] 13. Oktober 2009

Arne am 12.10.2009 um 17:58 Uhr - zum Artikel

Robotische Links der vergangenen Tage:

ABB FANTA Can Challenge Volume 2

Arne am 12.10.2009 um 17:10 Uhr - zum Artikel

Vor einem guten halben Jahr habe ich hier im Blog Fanta Can Challenge (etwa Fantadosen-Herausforderung) des Industrieroboter-Herstellers ABB gezeigt. Damals mit zwei Robotern, die mit beeindruckender Geschwindigkeit kooperierten.

Jetzt legt ABB noch einen drauf: Wieder ist es ein Video, um ABB TrueMove und QuickMove zu bewerben, diesmal allerdings mit drei Robotern, immernoch unglaublich schnell und präzise, und sogar vor einem anständigen Hintergrund. Aus sechs Fantadosen wurden zwölf, aus zwei Robotern drei und aus der lustigen Schlangenbahn eine deutlich kompliziertere Bewegung für den obersten Roboter.

Your browser needs to support Flash contents to display this image. ABB FANTA Can Challenge Volume 2

Pancakes per minute

Arne am 06.10.2009 um 14:45 Uhr - zum Artikel

ABB hat kürzlich einen Pancake Picker gezeigt, der eine erstaunliche Ppm-Rate (Pancakes per minute [1] ) besitzt. Zumindest scheint dieses Maß ein vernünftiges zu sein, um die Leistung des Pancake Pickers zu bewerten.

Your browser needs to support Flash contents to display this image. ABB Pancake Picker

Mit seinen 400 Ppm (Pancakes per minute) stellt er die vormals eingesetzten menschlichen Pancake Picker in den Schatten.

Wer nun auch dem Charme des Videos mit seiner dramatischen Musik, der Missionsankündigung zu Beginn, den Pancakes per minute und dem Pancake Buffer erlegen ist, der kennt den Grund für diesen Blogeintrag. Ganz davon ab, dass ich den Robotern über Minuten dabei zusehen könnte, wie sie die kleinen Pfannkuchen in verschiedenen Konfigurationen stapeln und die Geschwindigkeit und Präzision der Roboter wirklich erstaunlich ist.

Noch ein wenig technischer Hintergrund: Bei den vier Robotern handelt es sich um ABBs FlexPicker, die über eine Steuerung angesprochen werden, die den großartigen Namen Pickmaster 3.2 trägt. Jeder der Roboter ist durch eine 4Gb-Ethernet-Kamera unterstützt, die vor ihm über dem Förderband angebracht ist und die Position der Pancakes erkennt.

Weitere Robotik-Videos gibt es wie immer nebenan in der Video-Abteilung, die sich genau wie dieser Blog abonnieren lässt.

Ich will jetzt auch einen Pancake Buffer für meinen Schreibtisch!

Via Planet Robotics.

1
Maßeinheit frei erfunden aber von mir zur Weiterverwendung empfohlen.

Auto lernt vom Fahrer

Arne am 06.10.2009 um 00:48 Uhr - zum Artikel

EU-Projekt „DRIVSCO“EU-Projekt „DRIVSCO“

Vorausschauend Fahren ist sowohl aus sicherheitstechnischen als auch aus öko­lo­gisch­en Grün­den im Stra­ßen­ver­kehr ge­bo­ten. Das können Menschen aktuell noch sehr viel besser als Fah­rer­as­sis­tenz­sys­teme. Fah­rer­as­sis­tenz­sys­teme setzen, um den Fahrer während der Fahrt zu unterstützen, in der Regel auf eine Kom­bi­na­tion aus mehreren Sen­so­ren. Sie können allerdings nicht so viele In­for­ma­tio­nen wie der Fahrer selbst in die Be­wert­ung der Situation einfließen lassen und dem­ent­spre­chend nicht so vo­raus­schau­end fahren. Der Fahrer weiß, wie eilig er es hat, wohin er will und greift auf einen reichen Er­fah­rungs­schatz vergangener Au­to­fahr­ten zurück.

Das EU-Projekt DRIVSCO hat ein System entwickelt, um diesen Erfahrungsschatz und die Fähigkeit, vorausschauend zu fahren, Fahrerassistenzsystemen anzueignen. Das System soll dafür tagsüber vom Fahrer lernen und das Gelernte nachts anwenden können. Nachts nämlich sind Fahrerassistenzsysteme dem menschlichen Fahrer in einer Hinsicht überlegen: sie können Infrarotkameras nutzen und damit sehr viel weiter sehen, als der Mensch es nachts kann. Das multi-nationale Projekt DRIVSCO unter Leitung des Bernstein Zentrum für Computational Neuroscience und der Universität Göttingen ist bereits abgeschlossen und hat die Ergebnisss in einen Prototypen gegossen, den Hella in ein Testfahrzeug eingebaut wurde.

Das Assistenzsystem lernt, indem es tagsüber in jeder Situation versucht, die Verkehrssituation anhand von Kameras zu erkennen und die dazugehörigen Fahrmanöver speichert. Die Verkehrssituation ergibt sich zum Beispiel aus der Straßensituation, dem Radius der folgenden Kurve, Hindernissen und Autos in der Umgebung. Das dazugehörige Fahrmanöver ist die Lenkbewegung und die Beschleunigung oder das Abbremsen des Autos. So erhält das System eine Datenbasis, die das Verhalten des Fahrer repräsentiert und kann nun versuchen, dieses Verhalten nachzuahmen. Lernen (Lehren) durch Demonstration.

Nachts vergleicht das System die aktuelle Fahrweise des Fahrers mit der bei Tag aufgezeichneten Datenbasis, da das System die Fahrsituation auch nachts aufgrund der Infrarotbilder gut erkennen kann. Weicht die Fahrweise des Fahrers deutlich von der Fahrweise tagsüber ab, interpretiert das System, dass die Situation für den Fahrer nicht gut erkennbar oder falsch eingeschätzt ist und warnt den Fahrer.

Wie sich ein solches Fahrerassistenzsystem in der Praxis anfühlt, wäre interessant zu erfahren. Vielleicht wird ein solches System ja von Autofahrern eher akzeptiert, wenn sie wissen, dass die aktuellen Vorschläge nicht aufgrund von Verkehrsregeln und externen Vorgaben erzeugt werden, sondern quasi die eigenen Vorschläge sind, da sie auf der eigenen Datenbasis berühren.

Man wird sozusagen nachts von sich selbst assistiert. Eine schöne Vorstellung.

Autoversicherer dürften sich dabei auch die Hände reiben, da eine solche Datenbasis eine herrlich detaillierte Aussage über die Fahrweise des Fahrers zulässt und damit eine neue Berechnungsgrundlage für den personalisierten Versicherungstarif.