人工知能(AI)が敵味方を判断して自動的に攻撃する殺人ロボット兵器の開発が進む。国連の専門家会合で規制に向けて一歩前進となる指針が決まった。戦場に出る前に止めなければならない。
インターネットの政府広報オンラインに興味深いビデオがある。未来社会をイメージしたもので、タイトルは「空飛ぶマシンがアナタの町にもやってくる」。
スマートフォンで宅配便の連絡を受けた女性が縁側に出ると、ドローンが降下してくる。ドローンは顔認証技術を使って女性が受取人だと確認すると、段ボール箱を渡す。中身はスニーカー。だが、ドローンが爆弾を運べば、殺人ロボットになる。これがこの問題のやっかいな面なのである。
自動で標的を識別して攻撃の判断をする兵器を自律型致死兵器システム(LAWS)と呼ぶ。一昨年秋から規制のために、国連の政府専門家会合が開かれている。二十二日に「攻撃の判断に人間が関与すること」を柱にした指針がまとまった。
LAWSは現在、米国や中国、ロシア、イスラエルなどが競って開発している。従来の先端兵器は主に軍人が操作したが、LAWSは人の関与がなく、AIがすべてを行う。
本紙はロボット先進国の日本が禁止を働き掛けるよう主張していた。政府が今年「完全自律型の致死性を有する兵器を開発しない」と宣言したことは評価したい。
指針ができたことで、倫理的な歯止め効果は期待できるが、法的拘束力のある条約化を目指してほしい。技術はあるが、開発しないと宣言している日本は、説得力のある仲介者になれるだろう。
冒頭に紹介したドローン宅配の例でもわかるように、AIとロボットなどの組み合わせは軍民両用技術だ。技術がどのように利用できるかは、開発した企業がもっともよく分かっているはずである。
ハイテク企業は、企業として何をするか、何をしないかを示す倫理指針を定めてほしい。兵器への転用を防ぐための仕組みをあらかじめ組み込むといった対策も考えてもらいたい。
将来は「人間に危害を加えてはならない」といった倫理を教え込んだAIのみを出荷することが望ましい。
こうした技術は、テロ活動や独裁国家での反体制派弾圧に利用される恐れもある。先端技術の未来のためにも、平和利用に徹するのが日本らしい生き方である。
この記事を印刷する