哲学のセミナーでは、殺人ロボットに反対するこの道義的な根拠は十分明白だ。問題は、戦争の不透明さの中で見込まれるロボット使用にじっくり目を向けるほど、道徳的な境界線を見分けるのが難しくなることだ。ロボット(限定的な自律性を備えたもの)はすでに、爆弾処理や地雷除去、ミサイル迎撃システムなどの分野で戦場に配備されている。こうしたロボットの利用は今後、劇的に拡大していく。
■人的判断の有無で自律性に区別
ワシントンのシンクタンク、新米国安全保障センター(CNAS)は、軍事ロボットに対する世界的な支出が2018年までに年間75億ドルに達すると試算している。これに対し、商業・工業用ロボットに対する支出は430億ドルと予想されている。CNASは「戦士たちが敵に対して決定的な優位性を得る能力」を大幅に高めることができると主張し、そうした軍事ロボットの配備拡大を支持している。
軍事産業は、業界が愛してやまない無味乾燥な文章で、異なるレベルの自律性を区別している。
業界が「ヒューマン・イン・ザ・ループ(人間が関与する)」と表現する最初のレベルには、米軍をはじめ多くの軍隊に使われている武装ドローン(小型無人機)「プレデター」が含まれる。ドローンは標的を特定するかもしれないが、攻撃するには、やはり人間がボタンを押す必要がある。映画「アイ・イン・ザ・スカイ」で鮮明に描かれているように、そのような決断は道義的に苦渋に満ちたものになり得る。標的を射止める重要性と民間人が犠牲になるリスクをてんびんにかけなければならないからだ。
自律性の第2のレベルは、対空部隊を含め、ロボット化された兵器システムを人間が監督するヒューマン・イン・ザ・ループ・システムだ。だが、近代の戦争が持つスピードと激しさを考えると、そのような人間の監視が効果的なコントロールとなるのかどうか疑わしい。
完全に自律的なドローンなど、3番目のヒューマン・アウト・オブ・ザ・ループ(人間が関与しない)型システムは、最も多くの死者を出す可能性があるが、恐らく禁止するのが最も容易だ。
AI研究者は間違いなく、この議論に光を当てたことで称賛されるべきだ。軍縮専門家も、この課題を明確に定義し、対応するのを手助けするうえで、有益だが腰の重い役割を担っている。CNASのシニアフェロー、ポール・シャール氏は「これは貴重な対話だが、遅々として進まないプロセスだ」と話している。
ほかの多くの分野と同じように、我々の社会は技術的に激変している現実の意味を理解するのにてこずっている。ましてや、この現実をコントロールするには及ばない。
By John Thornhill
(2016年4月26日付 英フィナンシャル・タイムズ紙)
(c) The Financial Times Limited 2016. All Rights Reserved. The Nikkei Inc. is solely responsible for providing this translated content and The Financial Times Limited does not accept any liability for the accuracy or quality of the translation.