自動運転は運転手1人を救うために道行く2人を殺すべきか、否か
人の命は平等なのか? 平等ならば数で判断すべきなのか?
ここにボタンがあります。あなただけが押すことができるボタンです。前からトラックが猛スピードで歩道に突っ込もうとしています。歩道には歩いてる人が5人。このまま行けば、トラックが突っ込んで5人は死んでしまいます。あなたが、このボタンを押せば、トラックの向きをかえて歩道の5人を救うことができます。しかし、トラックは向きを変えるだけなので、また別の歩道に突っ込みそこにいる別の2人が死んでしまいます。5人を救うためならば、2人の犠牲はしょうがない。あなたはボタンを押しますか?
100人の命を救うのならば、1人の犠牲はやむを得ない。果たして、そんな簡単に割り切ることができるでしょうか。その1人があなたの母親や子どもや恋人だとしても、同じことが言えるでしょうか。
このようなテーマは、人間が繰り返し長年にわたって考え話し合っているものです。何が正しいのかわからずに、今のところ正解はありません。もし、自分がそのような場面に遭遇したら、その時とっさにでる判断がつまりは答えである、そう言って「例えば」の話では誰も答えを出さずに、正解を求めずに今までやってきました。
しかし、この古くからある「例えば」の問題に、とうとう決着をつけねばならない時がせまっているようです。それはドライバーが存在しない、自動運転の時代がやってくるからです。
Popular Scienceが、自動運転の最悪のパターンを考えています。
「車の前輪に不具合、レーンを超えて対向車線に突っ込みそうだ。しかし、自動運転は対向車線に突っこまないように反対側にハンドルをきる。エンジンを踏む。失ったコントロールを取り戻そうと制御する自動運転。あまりの揺れに車からふり落とされそうになる運転手。つまり、あなたがお金を払って手に入れた自動運転システムは、この状況下ではあなたを殺す方がいいと判断したわけだ」
自動運転に決断を迫る状況は他にもあります。顔認識で歩行者を確認する場合、もし2人のうち1人しか助からない場面に遭遇したとき、どちらを助けるべきなのでしょう。顔認識でどっちの顔を助ける顔だと決めるのでしょう。
もちろん、ここでどちらを助けるかを判断するのは、また、運転手の安全を諦めようと判断するのは自動運転ロボットではなく、それを開発したプログラマーでしょう。いや、プログラマーにそう組み込むよう指示を出した上司か、会社の役員か。それとも、自動運転はそのような仕組みにすべきだという法律を作ろうとした者か。はたまた、自動運転という仕組み自体に許可を出した誰かか…。
自動運転ならば事故が起きないとは限りません。しかし、誰を助けるかあらかじめ決めてプログラムするなんて、果たして可能なのでしょうか。答えはあるのでしょうか。
自動運転の車は、他の人を助けるために、主人であるドライバーを見捨てるべきだと思いますか?
image by Olivier Le Queinec/Shutterstock
Eric Limer - Gizmodo US[原文]
(そうこ)