東京大学大学院情報理工学系研究科准教授 名古屋大学未来社会創造機構客員准教授 ティアフォー取締役 加藤真平 氏
東京大学大学院情報理工学系研究科准教授 名古屋大学未来社会創造機構客員准教授 ティアフォー取締役 加藤真平 氏
[画像のクリックで拡大表示]

 米Tesla Motors社の電気自動車(EV)「Model S」が「Autopilot」を使って走行中に死亡事故を起こした。これを受けて、米運輸省高速道路交通安全局(NHTSA)が調査を開始した──。2016年6月30日、日本で衝撃的なニュースが報じられた。この事故に技術的な課題はないのか。現在世界で開発が加速している自動運転技術に与える影響はないのか。自動運転システムの研究開発を進める一方でその実用化に関する事業も手掛ける、東京大学大学院情報理工学系研究科准教授 名古屋大学未来社会創造機構客員准教授 ティアフォー取締役 加藤真平氏に聞いた。(聞き手は近岡 裕)

──この事故はなぜ発生したのでしょうか。

加藤氏:現場に居合わせていないため、あくまで推測となります。しかし、いくつか考えられる原因があると思います。

[1]ドライバーが安全確認を怠ってしまった。つまり、運転を機械任せにしてしまった

 米Tesla Motors社の自動運転は、厳密に言うと自動運転ではありません(レベル2)。そもそも米国の高速道路では試験走行以外で自動運転は許可されていません。つまり、「自動運転」と呼ばれてはいるものの、実は、今回のケースは「運転支援システム」なのです。従って、ドライバーは基本的に運転操作の責任を負わなければなりません。

 にもかかわらず、メディアを含めた世間が「自動運転」と呼んでしまいました。しかも、Tesla Motors社の運転支援システムは精度が良いため、条件が整っていれば自動運転ができてしまう。これが逆に今回の事故の原因になってしまったのだと思います。さらに言えば、ドライバーの過信も少なからずあったのではないかと思います。導入時にもっとこの機能に関する説明があれば、結果は違った可能性はあります。

[2]自動運転(運転支援)システムが適切に動作しなかった

 Tesla Motors社の説明を聞くと、今回は「逆光により画像認識が期待通りに働かなかった」とのこと。逆光になると、画像が部分的に真っ白、あるいは真っ黒に色が飛んでしまい、白線や周囲の車両が見えなくなってしまいます。そうなると、コンピューターが自車の位置を特定できなかったり、物体を認識できなくなってしまったりする。結果、そのままの速度で走行を続けても問題ないとコンピューターが判断してしまう可能性があります。

 今回の事故で技術的な問題があるとすると、この部分だったと推測できます。Tesla Motors社の報告には「強い日差しのため、運転手も自動運転機能もトレーラーを認識できず」とあります。しかし、運転手が認識できないほどの逆光というのは稀(まれ)です。従って、今回はドライバーがある程度機械任せで走行しているところに、機械で認識できないレベルのシーン(逆光時の交差点通過)が来てしまった、ということだと思います。

[3]そもそも回避が難しかったケースという可能性もある

 報道によると、「ハイウェイを走行中にトレーラーが横切った」とあります。割り込みや合流ではなく、交差点のようですが、もともとこれらは事故の起こりやすいケースです。従って、自動運転や運転支援が機能していても、事故が起こってしまったという可能性も考えられます。