Autonome Robotik

Bundesregierung denkt über unbemannte Flugsysteme nach

Arne am 16.04.2009 um 20:46 Uhr - zum Artikel

Die Grünen-Fraktion des Bundestags hat eine Anfrage zu unbemannten Flugsystemen an die Bundesregierung gestellt. Insbesondere, ob die Bundesregierung die Entwicklung „aktiv mitgestalten, begleiten oder fördern“ will.

Die Antwort ist, dass die Bundesregierung aufgrund des zunehmenden Einsatzes von unbemannten Luftsystemen durch Militär, Polizei und Privatleute eine Anpassung der Regeln zur Nutzung des Luftraums für notwendig hält. Eine zentrale Stelle, die sich darum kümmert gibt es zwar bislang nicht, nach Angaben der Bundesregierung werden allerdings bereits „seit mehr als 15 Jahren“ Untersuchungen zum ferngesteuerten und autonomen Fahren betrieben. Dafür werden jährlich drei Millionen Euro zur Verfügung gestellt. Mittlerweile würde auch die Forschung rund um unbemannte Flugobjekte vorangetrieben.

Genehmigt sind zur Zeit unbemannte Fahrzeugen allerdings nur „als Aufklärungs- und Entschärferoboter“.

Via heise.

Kleiner Roboter nutzt Human Computation

Arne am 11.04.2009 um 18:00 Uhr - zum Artikel

So große Schritte die Robotik in den letzten Jahren auch macht, immernoch sind viele Probleme und ganze Problembereiche nicht gelöst. Einen anderen Ansatz, als die weitere Anbringung aufwendiger Sensorik und Rechenpower verfolgt die US-amerikanische Kunststudentin Kacie Kinzer. Statt technisch aufzurüsten, baut sie ihre Tweenbots klein und freundlich, so dass Menschen automatisch beginnen, dem Roboter zu helfen.

Der Roboter ist klein und scheitert aufgrund seiner Größe bereits an kleinen Hindernissen wie Asphaltkanten und Gullis. Trotzdem schafft er es innerhalb von 42 Minuten durch den Washington Square Park; mit Hilfe der dortigen Passanten …

Your browser needs to support Flash contents to display this image. Tweenbot auf seiner Reise

Die menschliche Intelligenz statt weiterer technischer Aufrüstung zu nutzen ist, gerade für die Robotik, ein interessantes Feld. Mitunter als Human Computation oder Human-based Computation bezeichnet:

Human-based computation is a computer science technique in which a computational process performs its function by outsourcing certain steps to humans.

Kosorukoff, 2001

Ein spannender Vortrag dazu findet sich bei Google Video, wo Luis von Ahn unterhaltsam über Human Computation referiert, das unter anderem auch für Googles Image Labeler [1] genutzt wird: Human Computation (1:31 Stunden).

Via smart-machines.

1
Google Image Labeler bindet Nutzer über ein Spiel in das Taggen/Labeln von Bildern ein, da Maschinen dies heutzutage noch immer nicht verlässlich leisten können.

Keepon

Arne am 14.03.2009 um 13:45 Uhr - zum Artikel

Ein Roboter, zu dem ich schon länger etwas schreiben wollte ist Keepon. Keepon ist auf den ersten Blick ein unglaublich simpler Roboter. Er sieht aus, wie zwei ineinander gestreckte Tennisbälle mit Augen und Ohren. Er ist nicht sehr groß und kann scheinbar nicht viel mehr als Rumhüpfen:

Keepon

Was dieser kleine Roboter allerdings mit seiner schlichten Gestalt und Bewegung erreicht ist erstaunlich. In dem obigen Video fällt es schwer, einen programmierten Roboter und nicht ein vom Aussetzen der Musik überraschtes Wesen zu sehen.

Keepon hat nämlich einen ernsthaften Hintergrund: Er wurde entwickelt zur Therapie von Autisten. Autisten haben Schwierigkeiten mit sozialer Interaktion und der Wahrnehmung von Emotionen. Keepon bricht soziale, emotionale Kommunikation auf ein Mindestmaß herab und erlaubt so Kindern, diese Basis mit Keepon zu erlernen.

Bei Kindern ist Autismus häufig vor allem daran zu erkennn, dass sie keinen Augenkontakt zum Gegenüber aufnehmen. Keepon erkennt über die beiden Kameras in seinen Augen und dem Mikrofon in seiner Nase Stimmen und Gesichter und nimmt damit Personen wahr und gezielt (Augen-) Kontakt auf. Er überfordert durch seine schlichte Gestalt dabei allerdings nicht, da er nicht wie wir Menschen unbewusst auf dutzenden (Meta-) Ebenen gleichzeitig kommuniziert, sondern sich auf einfache Gebärden reduziert.

Hier ein anschauliches, englischsprachiges Video von The History Channel, das auch das Innenleben des Roboters mit seiner Sensorik und Aktorik zeigt:

The History Channel: Keepon

Emotionale, soziale Interaktion zwischen Mensch und Maschine ist seit einigen Jahren Gegenstand der Forschung, insbesondere im Bereich der humanoiden Robotik. Ein gutes Beispiel dafür ist der MDS Robot. Hierbei jedoch nicht zu versuchen, die komplexe Mimik und Gestik des Menschen nachzuahmen, sondern auf einer viel niedrigeren Ebene erste, einfache Kommunikationsebenen zu erschließen, ist ein vielversprechender Ansatz. Der Erfolg von Keepon zeigt es.

Wer sich jetzt in Keepon verliebt hat und selbst einen besitzen will, der wird etwas enttäuscht sein zu hören, dass Keepon aktuell noch 30.000 US-Dollar kostet. Er wird zur Zeit noch handgefertigt, eine Fertigung in größeren Stückzahlen und damit ein niedrigerer Preis, ist aber zu erwarten.

Mehr Getanze von Keepon gibt´s bei den Robotik-Videos. Mehr zum Keepon gibt´s bei beatbots.org.

We neutralized both targets

Arne am 06.03.2009 um 20:00 Uhr - zum Artikel

Warrior-AlphaWarrior-Alpha

Nun ist es also soweit … Warrior-Alpha, eine unbemannte Drohne der Alpha Troop, 10th Combat Aviation Brigade des US-Militärs hat am 23. Februar 2009 als erster Militärroboter Geschosse in einem Krieg abgefeuert und Menschen getötet.

„We neutralized both targets“, the drone's operator said.

Sgt. Jerry Rhoades, Cpl. Phillip Cheng und Spc. James Pegg sorgten als Verantwortliche damit für die erste Tötung durch unbemanntes Kriegsgerät, als sie bei einer Erkundungsmission auf eine Gruppe Aufständischer stießen.

Der nächste Schritt ist getan. Ein trauriges Kapitel der Robotik beginnt …

Pegg said he hopes Task Force ODIN operators will be called upon to use Warrior Alpha weapons more frequently now that the system has proven effectiveness in combat. “I hope we do, and believe we probably will,” he said. Rhoades agreed, saying, “We were happy to be able to be a part of it, and show the ground forces what we are capable of.”

Spc. James Pegg und Sgt. Jerry Rhoades

Via botropolis.

SICK LMS-100

Arne am 04.03.2009 um 22:32 Uhr - zum Artikel

Foto: SICKFoto: SICK

Der deutsche Sensorik-Hersteller SICK hat Anfang des Jahres seinen neuen Laserscanner LMS-100 vorgestellt. Wie gewohnt in Kaffeemaschinen-Optik, aber kleiner und kompakter als vorige Modelle. Der LMS-100 tritt preislich und durch seinen Anwendungs-Fokus in das low-budget-Segment ein, das bisher weitestgehend der japanischen Firma Hokuyo mit ihrem URG-04LX und UTM-30LX überlassen war.

Der SICK LMS-100 ist vom Fokus auf Robotik-Anwendungen zugeschnitten. Er kostet ca. 5000 US-Dollar, hat eine Abtastfrequenz von 50 Hertz und eine Auflösung von 0.25° bei einem Öffnungswinkel von 270°. Die Reichtweite beträgt ca. 18 Meter, als Fehler sind bei dieser Reichweite 20 mm angegeben. Die Leistungsaufnahme ist ca. 12 Watt.

Der LMS-100 wiegt knapp über 1 Kilogramm und ist 10.6 x 10.2 x 15.2 cm groß.

Mehr technische Details zum LMS-100 gibt´s hier.

Via hizook.

Robotertisch rät zu Wein, wenn´s gut läuft

Arne am 23.02.2009 um 22:22 Uhr - zum Artikel

Studenten der Universität Carnegie Mellon University in Pittsburgh haben einen Tisch entwickelt, der anhand von Gesten und der Sprache der Sitzenden zu erkennen versucht, wie sich das Gespräch entwickelt. Mit einbezogen werden auch Gesprächspausen oder der Körperabstand der am Tisch sitzenden.

Als mögliche Anwendung wird präsentiert, dass der Tisch merken und signalisieren kann, ob ein romantisches Dinner gut läuft oder nicht. Erkennt er, dass es gut läuft, kann er Vorschläge machen, um dies zu ändern. So schlägt er zum Beispiel vor, in dem Fall zu einer weiteren Flasche Wein zu greifen:

But the EyeTable is […] also a wingman. If it senses a date is going well, it might suggest an index of post-dinner activities, or tip off the waiter that the table might enjoy another bottle of wine.

Man kann nur ahnen, welche post-dinner activities sich der künstlich denkende Tisch ausdenkt, wenn der Griff zu weiterem Alkohol die erste Idee ist. Ein weiterer Schritt in Richtung bestandenem Turing-Test.

Merkt der Tisch, EyeTable, dass das Date hoffnungslos ist, listet er vorausschauend geeignete Taxi-Unternehmen der Umgebung auf. Wie praktisch.

Zu erkennen versucht der Tisch dies anhand von Informationen, die er über Headsets der am Tisch sitzenden aufnimmt. Darüber lässt sich die Sprache und Stimme überwachen, die Kopfposition und die Blickrichtung feststellen. Zugegebenermaßen eine Ausrüstung für Dates, die die Wahrscheinlichkeit für die Notwendigkeit der praktischen Taxi-Liste erhöht.

Mehr zu dem Tisch (auf englisch) gibt´s bei The Wired Campus: Ask the Artificially Intelligent Table. Link via robots.net.

Robot American Football

Arne am 17.02.2009 um 20:10 Uhr - zum Artikel

Roboter-Fußball ist mittlerweile bei zahlreichen nationalen und internationalen Wettbewerben vertreten und ein Publikumsmagnet. Weniger bekannt ist Robot American Football, das nicht Fußball, sondern American Football als Sportart zum Vorbild hat.

Wer den gemütliche Roboter-Fußball kennt, bei dem Aibos aufeinander zu kriechen, sich regelmäßig gemächlich umsehen und neu aufstellen, wird – ähnlich wie bei den menschlichen Vorbildern – die Gemeinsamkeiten mit Robot American Football suchen müssen.

Körperkontakt ist bei dem Spiel (vor)programmiert. Hier stürzen sich die Roboter in hoher Geschwindigkeit aufeinander zu, Roboter werden umgestürzt, es fliegen Bauteile durch die Gegend … kurzum: es ist wild!

Das folgende Video zeigt aktuelle Aufnahmen eines japanischen Wettbewerbs diesen Monats:

Robot Football 2009

Robot Football wird seit 1995 ausgetragen, 2005 wurde in Singapur der Robot Football World Cup ausgetragen. Gespielt wird es (noch) nahezu ausschließlich in Japan.

Mehr Videos bei robots dreams.

Und hier die offizielle Website zu Robot American Football. (Japanisch)

Charles Darwin und die Robotik

Arne am 12.02.2009 um 16:05 Uhr - zum Artikel

Quelle: Golem ProjectQuelle: Golem Project

Heute vor 200 Jahren kam Charles Darwin zur Welt. Vor 150 Jahren veröffentlichte er „Ursprung der Arten“ und begründete damit die Evolutionstheorie.

Herzlichen Glückwunsch, Charles Darwin.

Und aus gegebenem Anlass das beeindruckende Video des Golem Project, das – ähnlich wie SETI@home – viele tausend Privatrechner nutzte, [1] um Kreaturen evolutionär zu entwickeln.

Einige der Kreaturen wurden in einem 3D-Drucker ausgedruckt und sind zum Ende des folgenden Videos zu sehen:

Golem Evolutionary Robotics
1
Das Projekt Golem@Home wurde eingestellt, als man erkannte, dass eine weitere Steigerung der CPU-Power nicht unbedingt geeignet ist, komplexere Systeme hervorzubringen.