Interview mit Noel Sharkey

Noel Sharkey hat silicon.com ein Interview zum Thema Robotik gegeben. In dem Interview kommen unterschiedliche Aspekte der Robotik zur Sprache. Natürlich die Ethik, für die sich Noel Sharkey schon länger besonders stark macht, aber auch Allgemeines zum Stand der Forschung und zur Verbeitung von Robotern. Außerdem zu ASIMO, Asimov und Science-Fiction.

Eine gute Gelegenheit jemanden locker über Robotik plaudern zu hören, der sich intensiv damit beschäftigt. Das Interview ist auf englisch und dauert gute zehn Minuten.

Interview mit Noel Sharkey

Gefunden via BotJunkie.

Asimovs Roboter-Gesetze überarbeitet

Isaac Asimov ist bekannt für seine drei Roboter-Gesetze, die er 1942 in seiner Geschichte Runaround erstmals erwähnte:

  1. Ein Roboter darf kein menschliches Wesen wissentlich verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel 1 kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel 1 oder 2 kollidiert.

Noch sind Roboter (ist die künstlich Intelligenz) noch nicht weit genug, dass sie eigene Entscheidungen treffen. Diese Gesetze sind also nach wie vor rein fiktional. Mit den Fortschritten in der Robotik und der künstlichen Intelligenz der letzten Jahre … nein … mit den absehbaren Fortschritten in den nächsten Jahren … nein … mit den möglichen, zukünftigen Fortschritten in dem Bereich der künstlichen Intelligenz kann es Sinn machen, diese Regeln für ihren realen Einsatz vorzubereiten, meint David Woods, Robotiker an der Ohio State University. Er sagt, die zunehmende Faszination für immer eigenständigere Roboter führt mitunter dazu, dass ihnen mehr und mehr Entscheidungen überlassen werden – was böse Folgen haben kann.

Woods und seine Kollegen schlagen daher eine Abwandlung der drei Asimov-Regeln vor, die den Schaffer mehr in die Verantwortung nimmt. Frei übersetzt:

  1. Menschen dürfen keine Roboter einsetzen, die nicht die höchsten rechtlichen und fachlichen Standards bzgl. Sicherheit und Ethik mitbringen. („[…] says that humans may not deploy robots without a work system that meets the highest legal and professional standards of safety and ethics.“)
  2. Roboter müssen Menschen gemäß ihrer Stellung gehorchen. Es gibt eine Gruppe von Menschen von denen Roboter Befehle entgegennehmen. („[…] requires robots to respond to humans as appropriate for their roles, and assumes that robots are designed to respond to certain orders from a limited number of humans.“)
  3. Roboter sind selbstständig genug, um ihre eigene Existenz zu schützen, solange dies nicht mit Regel 1 oder 2 kollidiert. („[…] proposes that robots have enough autonomy to protect their own existence, as long as such protection does not conflict with the first two laws and allows for smooth transfer of control between human and robot.“)

Woods empfiehlt außerdem, dass sich Robotiker in dieser Hinsicht an der NASA orientieren sollten, die z. B. Regel 3 schon erfolgreich einsetzt. Die Marsrover sind nur begrenzt selbstständig, in dem Sinne, dass sie jeden Tag erneut die Anweisungen entgegennehmen, was sie als nächstes zu tun haben. Sie sind aber selbstständig genug, über keine Klippe zu fahren, solange die NASA-Ingenieure ihnen nicht die explizite Anweisung dazu geben. Dies dürfte unter Anderem daran liegen, dass sich die NASA nicht leisten kann, mit ihren Robotern unvorsichtig umzugehen. Sei es, ihnen zu viel Kontrolle zu überlassen und diese gegebenenfalls zu verlieren, oder sei es, ihnen zu wenig Kontrolle zu überlassen und damit zu riskieren, dass sie versehentlich von den NASA-Ingenieuren ins Verderben manövriert werden. Man wird eben vorsichtiger im Umgang mit Robotern, wenn Reparatur oder Ersatz mehrere Millionen Kilometer und Milliarden Dollar entfernt sind.

Via MSNBC.