インテル 事業企画・政策推進ダイレクター 兼 名古屋大学 客員准教授 野辺継男氏
インテル 事業企画・政策推進ダイレクター 兼 名古屋大学 客員准教授 野辺継男氏
[画像のクリックで拡大表示]

 米Tesla Motors社の電気自動車(EV)「Model S」が「Autopilot」機能で走行中に死亡事故を起こした。これを受けて、米運輸省高速道路交通安全局(NHTSA)が調査を開始した──。2016年6月30日、日本で衝撃的なニュースが報じられた。この事故に技術的な課題はないのか。現在世界で開発が加速している自動運転技術に与える影響はないのか。「技術者塾」において「クラウド、ビッグデータ、人工知能がクルマの進化を促す」〔2016年10月6~7日(木、金)〕の講座を持ち、自動運転に関する事業開発も手掛ける、インテル 事業企画・政策推進ダイレクター 兼 名古屋大学 客員准教授に聞いた。(聞き手は近岡 裕)

──この事故はなぜ発生したのでしょうか。

野辺氏:米国の警察の発表によると、こうです。2016年5月7日の午後3時40分頃、Tesla Model Sがフロリダ州Levy Countyの4車線の高速道路を「Autopilot」機能を用いて走行していた。そこに、大型トレーラーが2車線分を超えて左折して来た。これより、Model Sは前方にほぼ直角になったトレーラーに突っ込み、トレーラーの下をくぐり抜けフェンス2か所に接触した後、電柱にぶつかり停止した。その現場でドライバーは死亡した──。

 この事故に対し、Tesla Motors社は次のように説明しています。「車載カメラで前方を把握する状況下において、それまで認識していた前方の青空に、トレーラーの白い側面が覆いかぶさるように現れた。それを、カメラは認識できず、自動緊急ブレーキが作動しなかった」と。これは、ドライバーの通常の運転時であれば緊急ブレーキシステムが作動し、避けられた状況だったのかという分析が必要になります。

 一方、今回のケースではドライバーがAutopilotに対して「自動運転」を実現したものと誤解・過信した可能性もあります。この点は、Tesla Motors社、あるいは米運輸省高速道路交通安全局(NHTSA)からドライバーや市場に対する周知徹底が十分でなかったと指摘される可能性もあります。