米国防総省が次世代の主力兵器として、AI(人工知能)を搭載した「自律型兵器」を開発しようとしている。いずれ実戦力となった暁には、兵士(人間)ではなく兵器が、自ら敵に狙いを定めて攻撃するかもしれない。
たとえば、人の命令に従うのではなく、自分で上空からテロリストを探して攻撃するドローンなどがそうだ。
●“The Pentagon's ‘Terminator Conundrum': Robots That Could Kill on Their Own” The New York Times, OCT. 25, 2016
上の記事によれば、米国防総省は最近、米国の軍事力の世界的優位性を維持するために、AIを軍事戦略の要に据えたという。
歴史を振り返ると、米国はこれまで2度に渡る根本的な軍事刷新(offset)を行ってきた。
最初は1950年代における「核兵器」の開発。これによって一度は(当時の)ソ連など東側諸国に対する戦力的優位性を築き上げたが、やがて(中国も含め)彼ら共産主義陣営も同じく核兵器を持つようになると米国の優位性は崩れた。
そこで1980年代以降、米国は2度目の軍事刷新を断行した。それはミサイルなど各種兵器の小型・高精度化による兵力の効率化である。たとえばレーザーやGPSなどで敵の位置を正確に捕捉して攻撃する「精密誘導兵器」などが、それに該当する。これらは別名「スマート兵器」とも呼ばれる。
が、これによる米国の優位性も今世紀に入ると崩れてしまった。つまりロシアや中国など他の軍事大国も今や、こうしたスマート兵器を随所に配備し、米国に引けを取らないレベルにまで達している。
そこで米国はまたも、抜本的な軍事改革へと乗り出した。今回、彼らは各種兵器に先端AIを搭載することにより、人間の認識力や操作能力では太刀打ちできないほど、高い精度とスピードを兼ね備えた自律型兵器を開発しようとしている。これを米国防総省は「3度目の軍事刷新(Third Offset)」と呼んでいる。
参照)http://gendai.ismedia.jp/articles/-/48682
たとえば国防総省が(米国の軍需・航空メーカーである)ロッキード・マーティンに発注した「LRASM(Long Range Anti-Ship Missile:長距離対艦ミサイル)」などが、それに当たる。以下に示す動画のように、標的となる敵艦を自ら特定し、これに突っ込んでいくLRASMは自律型兵器の典型だ。
他にも、敵の潜水艦をどこまでも追跡する無人艇や、(冒頭で紹介した)上空から敵を発見・攻撃するドローンなど数々の自律型兵器が開発され、すでに使用テスト段階に入っている。
ただし、これら新兵器について米国防総省は「敵を攻撃するという最終的な決断を下すのは、兵器ではなく兵士(人間)」とする公式見解を明らかにしている。これを彼らは「ケンタウロス戦(Centaur Warfare)」と呼ぶ。
ケンタウロスとはギリシャ神話に登場する「半神半馬の怪物」だが、この場合には「兵士(人間)と自律型兵器(AI)が協力して戦うスタイル」を意味する。
そこには勿論、「兵器が自身の判断で人間を殺すことが本当に許されるのか?」という倫理的な問題もあるが、それ以上に本質的なのは、現時点におけるAI(人工知能)の技術的な限界にあるという。
と言うのも、いわゆる「ディープラーニング」に代表される現在、最先端のAIは画像・音声の認識など、いわゆる「パターン認識」の分野では確かに兵士(人間)の能力を抜き去った。しかし、戦闘地帯のような不確実性に富み、複雑な状況下における判断能力では、現在のAIはとても人間にはかなわない。
従って、たとえAIを搭載しているからといって、そうした兵器に敵を攻撃する決定権を与えることはできない。その役割はあくまでも人間、つまり戦場にいる兵士や遠隔地から自律的兵器を操作する指揮官らが担うべきだ――これが国防総省の公式見解である。