私は今日、残忍だった。また、慈悲深くもあった。意図的に年金生活者と犬の群れをひき殺した。ホームレスに突っ込み、スポーツ選手を2人惨殺し、太りすぎの人をひいた。だが、常に子供は救おうとした。
米マサチューセッツ工科大学(MIT)が実施している公開実験「モラル・マシン」のセッションを終えたとき、自分の道徳観は万人に共有されていないことを知った。倫理的なジレンマに関する世論を集約することは、限定的な道徳的思考能力を自動運転車などの「賢い機械」に授けるのに効果的な方法だという主張がある。だが、経験してみると、クラウドソーシング(不特定の人に作業を託すこと)が基本的に殺人の倫理にあたるものを形づくる最善の方法だとは思えない。
これは純粋な学術問題ではない。米テスラモーターズは中国で、自律的な運転支援機能「オートパイロット」を備えた車を運転していた人が死亡した事故をめぐって、提訴されている。テスラは、この技術が事故の原因であることを否定している。
パソコンと休憩時間があれば誰でも、完全自律的な自動運転車のブレーキが故障したことを想定したMITの大規模な実験に参加できる。
■「トロッコ問題」の自動運転車版
車は同乗者でいっぱいで、歩行者に向かって進んでいる。実験は13通りの「トロッコ問題」を描いている。暴走するトロッコの車輪の下で誰が死ぬか決断を迫られる、倫理学の典型的なジレンマのことだ。
MITの設定では、暴走しているのは自動運転車で、進路を保つか、脇へそれることができる。どちらも死と破壊を意味する。(死すべき人の)選択肢は、車に乗っている人か歩行者のどちらか、または2組の歩行者だ。誰が死ぬべきかを計算するには、より多くの命と少ない命、若者と老人、専門職の人とホームレス、妊婦とスポーツ選手、人間と動物――をはかりにかける必要がある。
本質的に、トロッコ問題は、誰が生き、誰が死ぬかを決めることだ。これは真の自動運転車がいずれ下すかもしれない類の判断になる。実験後、私の「好み」が明らかになった。私は大抵、子供を救い、ペットを犠牲にする。交通規則に違反して道路を渡っているわけではない人は救われ、同乗者は犠牲になる。分かり切ったことだ。自動運転車に乗り込むと決めた時点で、乗った人はリスクを背負うべきだからだ。
進路をそれることを嫌う私の傾向について言えば、慎重であるなら当然、自動運転車は一般的に道路に沿って進むようプログラムされているはずではないだろうか。