Schwebender microbot

/images/blog/microbot_waterloo_small.jpg
microbot, University of Waterloo

Mit dem Ziel, möglichst kleine, mobile Systeme zu erschaffen, die auf mikroskopischer Ebene Gegenstände manipulieren können, wurde an der University of Waterloo in Ontario, Kanada, ein microbot entwickelt.

Der Roboter ist nur wenige Millimeter groß, wie der nebenstehende Größenvergleich mit einem kanadischen Penny zeigt. Der Roboter kann außerdem fliegen (schweben), angetrieben von einem äußeren, magnetischen Feld.

Der microbot besteht aus einem Permanentmagneten und einem Miniatur-Greifer (der Ausleger, im Bild und im Video links). Der Greifer kann geöffnet werden, indem der Roboter durch einen externen Laser beschossen und damit erhitzt wird.

Der microbot in der Schwebe

Der Trick ist, dass der Roboter damit keine Energiequelle mit sich führen muss, da sowohl für die Fortbewegung als auch für die Aktorik die Energie von außen kommt. Da der Roboter außerdem keine Sensorik direkt mit sich trägt, konnte er kleiner als bisherige microbots gebaut werden.

Da keine Kabel nötig sind und der Roboter frei schwebt, kann er in einer abgeschlossenen Umgebung operieren, während der ganze Aufbau außerhalb ist. Er kann damit auch in gefährlichen und toxischen Umgebungen operieren. Da er außerdem über keine mechanischen Kupplungen verfügt, operiert er staubfrei und ist damit auch für den Einsatz in Reinräumen geeignet.

Professor Mir Behrad Khamesee, University of Waterloo

News der University of Waterloo.

Bundesregierung denkt über unbemannte Flugsysteme nach

Die Grünen-Fraktion des Bundestags hat eine Anfrage zu unbemannten Flugsystemen an die Bundesregierung gestellt. Insbesondere, ob die Bundesregierung die Entwicklung „aktiv mitgestalten, begleiten oder fördern“ will.

Die Antwort ist, dass die Bundesregierung aufgrund des zunehmenden Einsatzes von unbemannten Luftsystemen durch Militär, Polizei und Privatleute eine Anpassung der Regeln zur Nutzung des Luftraums für notwendig hält. Eine zentrale Stelle, die sich darum kümmert gibt es zwar bislang nicht, nach Angaben der Bundesregierung werden allerdings bereits „seit mehr als 15 Jahren“ Untersuchungen zum ferngesteuerten und autonomen Fahren betrieben. Dafür werden jährlich drei Millionen Euro zur Verfügung gestellt. Mittlerweile würde auch die Forschung rund um unbemannte Flugobjekte vorangetrieben.

Genehmigt sind zur Zeit unbemannte Fahrzeugen allerdings nur „als Aufklärungs- und Entschärferoboter“.

Validierung von Unmanned Air Systems zur Integration in den Luftraum

Via heise.

Prototyp eines Segway-Cyborgs

Wir sehen real werdende Fiktion oder die Zukunft … in Form des Chariot (zu deutsch in etwa „Streitwagen“) von Exmovere. Der Streitwagen erinnert an einen Segway und ersetzt funktional den Fortbewegungsapparat des Menschen. Im wesentlichen ein Hybrid aus einer Tonne und einem Segway, steigt man in ihn ein und kann sich fortan mit freien Händen allein durch Gewichtsverlagerung fortbewegen.

Das Prinzip ist vom Segway bekannt, wirkt in dieser Form allerdings ungleich futuristischer:

Exmovere Chariot

Abermals eine Maschine, die sich als für den Lebensabend vorstellen lässt, wenn es die eigenen Beine nicht mehr tun.

Dass damit ein merkwürdig schneller Schritt in Richtung Cyborg 1 gemacht wird, steht auf einem anderen Blatt.

Via Planet Robotics.

Kleiner Roboter nutzt Human Computation

So große Schritte die Robotik in den letzten Jahren auch macht, immernoch sind viele Probleme und ganze Problembereiche nicht gelöst. Einen anderen Ansatz, als die weitere Anbringung aufwendiger Sensorik und Rechenpower verfolgt die US-amerikanische Kunststudentin Kacie Kinzer. Statt technisch aufzurüsten, baut sie ihre Tweenbots klein und freundlich, so dass Menschen automatisch beginnen, dem Roboter zu helfen.

Der Roboter ist klein und scheitert aufgrund seiner Größe bereits an kleinen Hindernissen wie Asphaltkanten und Gullis. Trotzdem schafft er es innerhalb von 42 Minuten durch den Washington Square Park; mit Hilfe der dortigen Passanten …

http://blip.tv/play/AejAL5OoUw&.swf
Tweenbot auf seiner Reise

Die menschliche Intelligenz statt weiterer technischer Aufrüstung zu nutzen ist, gerade für die Robotik, ein interessantes Feld. Mitunter als Human Computation oder Human-based Computation bezeichnet:

Human-based computation is a computer science technique in which a computational process performs its function by outsourcing certain steps to humans.

Kosorukoff, 2001

Ein spannender Vortrag dazu findet sich bei Google Video, wo Luis von Ahn unterhaltsam über Human Computation referiert, das unter anderem auch für Googles Image Labeler 1 genutzt wird: Human Computation (1:31 Stunden).

Via smart-machines.

Exoskelett für den Massenmarkt

Die japanische Firma Cyberdyne bereitet ihr künstliches Exoskelett HAL (Human Assistive Limb, übersetzt in etwa „menschliche Prothese“) für den Massenmarkt vor. Das Exoskelett verschafft dem Träger laut Aussage der Unternehmens bis zu zehnfache Kraft beim Heben, soll aber auch bei alltäglichen Aufgaben (Sitzen, Laufen, Treppen steigen) helfen.

HAL weiß, was sein Träger gerade machen will, indem es über auf dem Körper angebrachte Pads die Nervensignale mithört, die der Körper den Muskeln sendet. So tut das Exoskelett im Idealfall genau das, was auch die menschlichen Muskeln machen, aber um ein vielfaches kräftiger.

https://youtube.com/watch?v=sE9MLbLgC7M
Das künstliche Exoskelett HAL

Cyberdyne will jährlich 400 HALs produzieren und plant auch einen Vetrieb in der EU. Mit 4200 US-Dollar übersteigt es leider etwas die Preisgrenze für cooles Technik-Spielzeug. HAL ist ungefähr 1,60 Meter hoch und wiegt 23 Kilogramm schwer. Der Akku soll 4-5 Stunden halten. Weitere technische Details bei Cyberdyne.

Inwiefern das Exoskelett sich in der aktuellen Form schon für den Alltag eignet, ist schwer zu sagen. Auf handelsüblichen Bürostühlen dürfte man damit jedenfalls kaum bequem Platz nehmen können. Die Vorstellung, dass sich in wenigen Jahren mit Hilfe solcher Maschinen körperlich behinderte oder ältere, schwache Personen beinahe ungehindert fortbewegen können, ist aber großartig.

/images/blog/cyberdyne_hal_full.png
Die Komponenten von HAL (Quelle: Cyberdyne)

Nachtrag: Das ZDF hat sich des Themas angenommen, deshalb hier noch ein Video in deutscher Sprache:

https://youtube.com/watch?v=hQnww5PDuFs
ZDF zum HAL

Der 7er von BMW ist abermals führend in der Technik

Zum vierten Mal in Folge wurde der 7er von BMW von dem Marktforschungsinstituts iSupply als weltweit führend in der Technik ausgewiesen. Der 7er wird als Oberklassewagen des Herstellers, wie auch bei den anderen Marken üblich, als erster mit neuen Technologien ausgerüstet.

Neben allerhand Komfort verfügt der 7er auch über aktuelle Fahrerassistenz-Ausstattung. Dazu gehört Umfeldsensorik wie eine Wärmebildkamera zur Erkennung von Fußgängern bei Nacht, Verkehrsschild-Erkennung zum Ermitteln der aktuellen Geschwindigkeitsbegrenzung, Radar zur Erkennung anderer Verkehrsteilnehmer, sowie Kameras im toten Winkel und zur Hilfe beim Ein- und Ausparken.

Dazu gehören aber auch diverse Assistenzsysteme, wie die Spurwechselwarnung, die die Zielspur per Radar überwacht und durch Vibration und eine Warnleuchte warnt, wenn sich ein Fahrzeug im toten Winkel befindet oder schnell heranrauscht. Ein ähnliches System warnt beim versehentlichen Verlassen der Spur, wenn der Fahrer nicht durch das Setzen des Blinkers mitteilt, dass der Spurwechsel gewollt ist. Dazu kommt ACC 1 als sehr komfortabel bei Stau und im Stadtverkehr.

Außerdem adaptives Kurvenlicht und Leuchtweitenregelung sowie ein sexy Head-up-Display. 2

BMW dominiert übrigens mit dem 5er (zweiter Platz) und 6er (dritter Platz) das Technologie-Ranking deutlich.

Quelle: heise online. Mehr zum BMW 7er gibt´s hier.

Gehirn-Maschine-Schnittstelle von Honda

/images/blog/honda_bmi.jpg
Gehirn-Maschine-Schnittstelle von Honda

Honda hat eine Gehirn-Maschine-Schnittstelle vorgestellt, die in der gezeigten Demonstration erlaubt, vier Basiskommandos mit einer − nach eigener Aussage −
Erkennungswahrscheinlichkeit von 90 Prozent zu unterscheiden. Das ist aktuelle Weltspitze. Die Erkennungswahrscheinlichkeit hängt dabei laut Honda aber von der Person und ihrer Fähigkeit ab, sich zu konzentrieren.

Honda hat das System in einer Demonstration gezeigt, in der natürlich auch ASIMO mitspielt. Hier das Video:

http://www.dailymotion.com/swf/k4TJNKTmcDnNcl10eUr&related=1&foo=.swf
Demo: Gehirn-Maschine-Schnittstelle von Honda
#038;related=1&foo=.swf“ width=“480″>

Zugegebenermaßen nicht übermäßig spektakulär, aber wenn man diese Techniken wenige Jahre weiterdenkt, ist damit imposantes möglich. Gerade für die Service-Robotik, in der intuitive Interaktion mit dem Menschen notwendig ist, ist das eine große Chance. Von Vereinfachungen für Menschen mit Behinderungen ganz zu schweigen …

[Linkdump] 27. März 2009

Robotische Links der letzten Tage.

Bienen und Roboter überwachen die Umwelt

Roboter bekommen Emotionschips eingepflanzt

Japan lässt Sicherheitsstandards für Pflege-Roboter erstellen

Roboter-Frau tritt an Modeschau auf

Roboter-Gärtner überwachen Pflanzen vollautomatisch

In den letzten Tagen war hier im Blog aus Zeitmangel nicht viel los. Ich gelobe Besserung und verweise für Durststrecken auf Planet Robotics, wo ständig und kontinuierlich aktuelle Robotik-Meldungen einlaufen und auf die hiesigen Robotik-Videos, die ich regelmäßig neu befülle.

Keepon

Ein Roboter, zu dem ich schon länger etwas schreiben wollte ist Keepon. Keepon ist auf den ersten Blick ein unglaublich simpler Roboter. Er sieht aus, wie zwei ineinander gestreckte Tennisbälle mit Augen und Ohren. Er ist nicht sehr groß und kann scheinbar nicht viel mehr als Rumhüpfen:

Keepon

Was dieser kleine Roboter allerdings mit seiner schlichten Gestalt und Bewegung erreicht ist erstaunlich. In dem obigen Video fällt es schwer, einen programmierten Roboter und nicht ein vom Aussetzen der Musik überraschtes Wesen zu sehen.

Keepon hat nämlich einen ernsthaften Hintergrund: Er wurde entwickelt zur Therapie von Autisten. Autisten haben Schwierigkeiten mit sozialer Interaktion und der Wahrnehmung von Emotionen. Keepon bricht soziale, emotionale Kommunikation auf ein Mindestmaß herab und erlaubt so Kindern, diese Basis mit Keepon zu erlernen.

Bei Kindern ist Autismus häufig vor allem daran zu erkennn, dass sie keinen Augenkontakt zum Gegenüber aufnehmen. Keepon erkennt über die beiden Kameras in seinen Augen und dem Mikrofon in seiner Nase Stimmen und Gesichter und nimmt damit Personen wahr und gezielt (Augen-) Kontakt auf. Er überfordert durch seine schlichte Gestalt dabei allerdings nicht, da er nicht wie wir Menschen unbewusst auf dutzenden (Meta-) Ebenen gleichzeitig kommuniziert, sondern sich auf einfache Gebärden reduziert.

Hier ein anschauliches, englischsprachiges Video von The History Channel, das auch das Innenleben des Roboters mit seiner Sensorik und Aktorik zeigt:

The History Channel: Keepon

Emotionale, soziale Interaktion zwischen Mensch und Maschine ist seit einigen Jahren Gegenstand der Forschung, insbesondere im Bereich der humanoiden Robotik. Ein gutes Beispiel dafür ist der MDS Robot. Hierbei jedoch nicht zu versuchen, die komplexe Mimik und Gestik des Menschen nachzuahmen, sondern auf einer viel niedrigeren Ebene erste, einfache Kommunikationsebenen zu erschließen, ist ein vielversprechender Ansatz. Der Erfolg von Keepon zeigt es.

Wer sich jetzt in Keepon verliebt hat und selbst einen besitzen will, der wird etwas enttäuscht sein zu hören, dass Keepon aktuell noch 30.000 US-Dollar kostet. Er wird zur Zeit noch handgefertigt, eine Fertigung in größeren Stückzahlen und damit ein niedrigerer Preis, ist aber zu erwarten.

Mehr Getanze von Keepon gibt´s bei den Robotik-Videos. Mehr zum Keepon gibt´s bei beatbots.org.