自動運転車 AI
自動運転車の事故は「原理的に」避けられない!? AI技術の死角
テスラの死亡事故が残した教訓
小林 雅一 プロフィール

テスラの事故もファットテールで説明できる

以上のような「等速直線運動をするクルマ」のように単純なケースとは異なるが、本稿の冒頭で紹介したテスラ「モデルS」の「オートパイロット(限定的な自動運転機能)」が引き起こした死亡事故も、実はこの「正規分布(理論)とファットテール(現実)とのズレ」で説明できる。

それを理解するためには、もう一度、この事故の様子を示した図1を見直して欲しい。

図1)死亡事故の様子 Credit: Florida Highway Patrol

ここから明らかなことは、この高速道路の構造がかなり特殊であるということだ。特に私たち日本人から見ると、「異常」と呼んでもおかしくない道路構造だ。なぜなら高速道路がT字路で、いきなり別の道(NE 140th Court)へと分岐しているからだ。

こんなことは日本の高速道路ではあり得ない。つまり高速道路から直角に曲がる道路へと分岐するときは、必ず立体交差となっているはずだ。

もしも高速道路が通常の道路と同様、同一平面上でT字路や十字路を形成していれば、(クルマが右側通行の米国では)高速で直進するクルマが、対向車線から左折して来る別のクルマと衝突する危険性が十分ある。

だから、こうした異常な構造の高速道路は、少なくとも日本には存在しない。ところが図1から明らかなように、米国ではそのような構造の高速道路が実際に存在する。これがまさに(前述の)「ファットテール」に該当する事態なのだ。

つまりクルマがびゅんびゅん行き交う高速道路で、対向車線のトレーラーがいきなり左折して目の前に立ち塞がる。こんなことはテスラの「オートパイロット(限定的な自動運転機能)」に搭載された確率的AIが従う正規分布曲線では、テール部分に位置する「限りなくゼロに近い確率」の事象である。

最初から確率的に「あり得ない事態」として準備していなかったので、(現実世界のファットテール曲線に従って)そうした異常事態が実際に起きてしまったとき、テスラ「モデルS」は高速で直進を続け、左折するトレーラーの側面に突っ込んでしまったのだ。

以上をまとめると次のようになる:

(完全、あるいは限定的を問わず)現在の自動運転機能のベースとなっている「カルマン・フィルター」のような確率的AIでは、ファットテール曲線に従う現実世界において「それほど頻繁にではないが、それでもゼロよりは十分高い確率で発生する異常事態」には対応できない。したがって、ある程度の頻度(確率)で事故が発生するのは原理的に不可避である。

制御の環に人間を残すか?

この問題に対し、自動運転車を開発するメーカー側はどう対応すればいいのか?

一つは、テスラあるいは世界各国の自動車メーカーのように、「自動運転はあくまで運転支援機能の一種」と位置付け、「運転の主導権はあくまでドライバー(人間)側にある」とあらかじめ断って提供することである。

この場合、自動運転は高速道など限定的な環境下でのみ利用可能となり、しかもドライバーは自動運転時にもハンドルに軽く手をかけ、何か非常事態(これが前述の「ファットテール」に該当する)が発生したときには自動運転から制御権を取り返して、ドライバー(人間)がクルマを運転しなければならない。

こうしたスタイルは、専門家の間で「Man in the Loop(制御の環の中に、人間を残しておく)」と呼ばれる。

ただ、これは私たち一般ユーザーの立場から見ると、正直、本末転倒という印象を受ける。つまり「ドライバーが常にハンドルに軽く手をかけ、周囲への警戒を怠らず、何らかの非常事態にはすぐに対応できるような態勢を整えておかねばならない」としたら、そもそも一体何のための自動運転なのか?

むしろ、そうした対応の難しい非常事態(ファットテール)にこそ、(本来であれば人間による運転よりも安全とされる)自動運転がドライバーに代わって適切に対応してくれる。これこそ自動運転本来の目的ではなかったのか?

また、ここまで「カルマン・フィルターのような確率的AIではファットテール(非常事態)に対応できない」と強調してきたが、逆に「人間ならファットテールに対応できる」という保証があるわけでもない。

たとえばテスラ モデルSが遭遇した図1のような事態(つまり高速道を巡航運転中に、対向車線のトレーラーが急左折して、こちらの車線に入って来て、目の前に立ち塞がるといった事態)に、人間のドライバーが適切に対応できたかどうかは怪しい。

つまり、たとえモデルSのドライバーが(テスラの定めた使用規則に従って)オートパイロット使用中に「ハンドルに軽く手をかけ、周囲への警戒を怠らなかった」としても、今回のような非常事態においては(オートパイロット同様)、事故を起こしていた可能性も十分ある。

結局、平常時の容易な運転は自動運転(機械、AI)に任せ、非常事態(ファットテール)における困難な運転は人間(ドライバー)に任せるようでは、自動運転の存在価値が著しく失われるばかりか、むしろ危険であると言わざるを得ない。

一方、これと対照的なアプローチは、グーグルが開発を進めてきた「完全自動運転」である。

同社が2015年にお披露目したテントウムシ型の小型自動運転車(試作機)では、ハンドルもアクセル/ブレーキ・ペダルも排除され、搭乗者(ユーザー)はクルマの制御権を完全に奪われた。こうしたスタイルは専門家の間で「Man out of the Loop(制御の環の中に、人間を組み込まない)」と呼ばれている。

今から振り返ると意外な印象を受けるかもしれないが、グーグルが2010年頃、本格的に自動運転技術の開発に着手した当初は、むしろ現在のテスラ(や、他の自動車メーカー)のように、「Man in the Loop」のアプローチを検討していた。

ところが、その後、グーグルが実際にそうした(半)自動運転車にドライバー(人間)を試乗させ、運転席に取り付けたビデオ・カメラから、その運転の様子を撮影・観察したところ、ドライバーはありとあらゆる想定外の行為に耽ったという。

つまり(あらかじめ定められた「自動運転中でもハンドルに軽く手をかけて周囲への注意を怠らない」といったルールを無視し)、運転席でスマホやビデオゲームで遊んだり、果ては居眠りをするといったケースが多発した。

これを見たグーグルは「Man in the Loop」、つまり「中途半端に人間(ドライバー)に頼ること」はむしろ危険と判断し、「Man out of the Loop」、つまり人間を制御の環から外して、機械(クルマ)に全ての制御権を移譲するスタイルへと切り替えたのである。

しかし、このやり方には前述のファットテール問題がつきまとう。つまり(カルマン・フィルターのように)確率的な現代AIでは、正規分布曲線からずれたファットテール部分に該当する異常事態には対応できないということだ。