IDEAS + INNOVATIONS

WIRED VOL.11

WIRED VOL.11

WIRED VOL 11
 
NEWS

「ロボット倫理学」の現在:ロボットの責任や精神病もテーマに

自律的に判断を行なう機械が出来たとき、その機械には「責任」が生じるのか。間違いを犯したことに後悔の念を抱かない人工知能は「精神病」なのか──ロボットの倫理システムを論じる研究者が増えてきている。

 
 
このエントリーをはてなブックマークに追加

TEXT BY PRIYA GANAPATI
TRANSLATION BY MAYUMI HIRAI, HIROKO GOHARA/GALILEO

WIRED NEWS (USA)

ロボット

Photo: wa.pean/Flickr

2年前、南アフリカの軍隊で使われていた1台の軍用ロボット[自動制御の対空砲]が不具合を起こし、9人の兵士を殺害した(日本語版記事)。今年に入り、ロボット機械によって作業員の1人が重傷を負ったとして、スウェーデンの工場に罰金が科された(ただし責任の一部は作業員にもあるとされた)。そして、これらの事故より目立たない小規模な事故においても、ロボットが要求に対して不正確に反応するなど、ロボットが「有罪」になるケースが生まれてきている。

このような問題が起きないようにするにはどうすればよいのだろうか? ロボットの専門家によれば、「精神病のロボット」を作るのをやめることだという。

『Beyond AI: Creating the Conscience of a Machine』[人工知能を超えて:機械の意識を作る]の著者である科学者のJosh Hall氏は、次のように述べる。「人工知能を作る場合、その道徳感覚を考慮しなかったり、何か間違いを犯したことに後悔の念を抱くような意識感覚を作らないのであれば、技術的に言って、その人工知能は精神病だ」

SF作家アイザック・アシモフが提唱した「ロボット3原則」は、長い間、ロボットの開発において十分な枠組みだと考えられて来た。「人間に危害をあたえてはならない」「人間から与えられた命令に服従しなければならない」「前2条に抵触しない限り、自己を守らなければならない」というものだ(3つの原則は、1>2>3の優先度がある)。

しかし、ロボットが複雑で高度なものになり、人間の生活に組み込まれていくにつれて、この3原則は単純すぎる考えとなった、とChien Hsun Chen氏は指摘する。Chen氏は先月『International Journal of Social Robotics』誌に発表された論文の執筆者の1人だ。この論文は、人間がこういった倫理的なジレンマに対処すべき時が来たとするロボット専門家たちの議論に火を点けた。

※この翻訳は抄訳です
 
 
このエントリーをはてなブックマークに追加
 
LATEST NEWS

ARCHIVE

 
SHARE A COMMENT

コメントをシェアしよう

 

BACK TO TOP

WIRED Vol.10 JOBS Interviewbanner