TOP PAGE
PREVIOUS NEWS
2014.10.18 SAT
TEXT BY SANDRO IANNACCONE
TRANSLATION BY TAKESHI OTOSHI
WIRED NEWS (ITALIA)
人類史上、実際に起きた「ロボットによる殺人事件」は、1979年のアメリカでの出来事だった。image from Shutterstock
「ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない」。これは、70年以上前に──つまり、まだそうした懸念のなかった時代に──有名なSF作家アイザック・アシモフが宣言したロボット工学三原則の第1条だ。
明解かつ説得力があり、誤解の余地はないように思える。しかし、罠はすぐ近くに潜んでいる。例えば、ロボットが、危険にさらされている2人の人間を前にしていると考えてみよう。そのうち1人しか助けられないとしたら、ロボットはどのように行動するべきか選択できるだろうか?
アシモフの創作のなかでは、ロボットのポジトロン脳(アシモフが創作した電子頭脳の中枢)が停止することで結末を迎えるが、翻って今日では、現実の世界でも起こりうる話として議論できる。そこで、初めてロボットの倫理のテストを行ったのが、ブリストル・ロボット工学研究所(Bristol Robotics Laboratory)の研究者、アラン・ウィンフィールドだ。
彼は同僚たちとともにロボットにプログラミングを行い、他のロボット──人間の役割を果たす──が穴の中に落ちないようにした。実験の結果は、雑誌『Advances in Autonomous Robotics Systems』で発表された。
まず、最も単純なシナリオにおいて、ロボットは「成功」した。すなわち、そのロボットにとっては人間にあたる別のロボットが穴に向かって行くと、期待通りに急いでその軌道を変え、危機から救い出した。
しかし、ウィンフィールド氏が「倫理トラップ」と定義した状況においては、成り行きは違う結果を見せた。内容はと言えば、もう1台の人間役のロボットを加え、2台が同時にそれぞれ別の穴へと向かって進んでいく。救助するロボットは、選択を強いられることになったわけだ。
いくつかの場合において、ロボットは穴に向かう2台のうちの1台を救うことに決めて、もう1台を死なせた。両方を救うことに成功したこともあったが、33回のテストのうち14回は、ロボットは決定を下すまで時間をかけすぎて、「人間」を2人とも穴の中に落とすことになった。
ウィンフィールド氏は実験に先立ち、『New Scientist』に対してロボットが自律的に選択をすることは不可能だろうと確信していたと言葉少なに語っていたが、「いまはただ、考えが思い浮かびません」と語る。
ARCHIVE
SPECIAL
TOP PAGE
PREVIOUS NEWS
コメントをシェアしよう