ドライバーなしで完全に自律的に走行する車(自動運転車)が公道を走り出す日が近づくにつれて、どう運転しても死者の出る事故を避けられないような状況に陥ったとき、AIはどのような判断を下すべきか、という問題が話題になっている。
ブレーキが故障した乗用車が、歩行者5人のいる横断歩道に突っ込もうとしている。クルマに乗っているのは運転者(引用者注:AIによる自律走行なので運転はしていない)だけだ。クルマを横断歩道の手前にある障害物にぶつけて止めれば歩行者5人は助かるが、車内の1人は死ぬ。逆に、1人を助ければ歩行者5人が犠牲になる。
この場合、たいていの人は歩行者5人を助けるべきだと考えるだろう(クルマに乗っているのが自分自身や家族だったらという問題はあるのだが、これについては後述する)。
それでは、問題をもう少し複雑にしてみよう。クルマを運転しているのは妊婦で、さらに実はもう1人の乗客がいる。3歳になったばかりの子どもだ。そして、5人だと思った歩行者は実は人間4人とイヌ1匹で、4人のうち2人は犯罪者、1人は高齢者、1人はホームレスだとする。ついでに、全員が赤信号なのに横断歩道を渡っている(つまり信号無視をしている)。
もちろん現実には、ほぼ確実にありえない状況だ。それでも、あえてどちらか選ばなければならないとしたら、あなたはどうするだろう。
この記事で、MITの研究者は、大雑把な結論として次のように述べている。
論文の共著者でメディアラボ准教授のイヤッド・ラーワンは、「Moral Machine」が現実的でないことは認めたうえで、自動運転システムを巡る自動車メーカーの決断はほぼすべてが、ある意味では間接的なモラル判断なのだと説明する。
そうだろうか?
私には、自動運転車に搭載されるAIは、事故発生時に自動車メーカーに対して問われる責任(損害賠償額)が最小になるようにプログラムされるだろうと思えてならない。その判断のロジックがどのようなものになるかは、事故直前にどれだけの周辺情報を収集・解析できるか、またどれだけの事故情報データを瞬時に検索できるかに依存するだろうが、いずれにせよ、事故に伴う金銭的負担を統計的に最小化するよう最適化されるのは間違いないのではないか。
それが資本の論理であり、そこにモラルの介在する余地はない。
補足:自動運転車による事故の責任が一切メーカーには問われず、すべて所有者が負うといった法的枠組みが作られれば話は別だが、その場合でも多分ロジックは同じだろう。なぜなら、それが購入者に対して車の価値をアピールする重要な要素となるからだ。
【関連記事】
ミノタウロスの皿: 藤子・F・不二雄[異色短編集] 1 (1) (小学館文庫―藤子・F・不二雄〈異色短編集〉)
- 作者: 藤子・F・不二雄
- 出版社/メーカー: 小学館
- 発売日: 1995/07/15
- メディア: 文庫
- 購入: 26人 クリック: 257回
- この商品を含むブログ (148件) を見る