次のような未来のシナリオを想像してほしい。米国主導の連合軍が過激派組織「イスラム国」(IS)を全滅させることを決意し、シリアの都市ラッカを包囲する。敵を追跡して市内を飛び回る自律型飛行ロボットの群れを国際部隊が解き放つ。
ロボットは顔認識技術を使い、IS最高司令官らを特定・殺害し、組織を壊滅させる。ぼうぜんとし、士気をくじかれたISの部隊は崩壊し、連合軍の兵士と民間人の人命喪失はごく少数で済む――。
これを技術の有効利用だと思わない人がいるだろうか。
実を言えば、かなり大勢いる。そうした兵器の開発に必要な技術について最もよく知る人工知能(AI)分野の多くの専門家もそうだ。
■大量生産できる「未来のカラシニコフ」
AI研究者のあるグループは昨年7月に発表した公開書簡で、技術がかなりの水準に発達したため「自律型致死兵器システム」(不条理にも「LAWS」として知られる)の配備が、数十年の単位ではなく数年内に可能になると警告した。核兵器とは異なり、このような兵器システムは安価に大量生産でき「未来のカラシニコフ自動小銃」になるという。
「LAWSが闇市場に登場し、テロリストや、大衆をもっと統制したいと望む独裁者、民族浄化したがっている軍閥の手に収まるのは、時間の問題でしかない」。研究者のグループはこう述べた。「軍用AIの軍拡競争を始めることは間違った考えであり、人間による有意義な制御が及ばない攻撃用の自律型兵器を禁止することで阻止すべきだ」
すでに米国はおおむね、攻撃用の自律型兵器の不使用を決めている。国連は今月(4月)、LAWSの使用を制限する国際協定の策定を目指し、ジュネーブで再度、主要軍事国94カ国間の協議を開いた。
主な根拠は道義的なものだ。つまり、ロボットに人間を殺す機能を持たせることは、決して越えてはならない一線を踏みつけることになる。
地雷禁止キャンペーンでノーベル平和賞を受賞し、「殺人ロボット阻止キャンペーン」の広報を務めるジョディ・ウィリアムズ氏は、自律型兵器を、核兵器よりも恐ろしいものと形容する。「もし一部の人が、人間の生殺与奪の権利を機械に譲ってもいいと考えたとしたら、人間性は一体どこへ向かうのか」
純粋に道義的なもの以外にも、懸念はある。殺人ロボットは戦争の人的損失を減らし、その結果として紛争の可能性を高めてしまうのではないか。そのような兵器システムの拡散を、どうやって止められるのか。何か問題が生じたら、誰が責任を負うのか。