しかし、小難しいレベルの話をしても、筆者の父を含めて大半の消費者には自動運転の機能に何の違いがあるのか理解してもらえません。「レベル2までは手放し運転できないが、レベル3だと条件付きでできる」と言われても、現実としてこの分類を明確に区別できるのか疑問が残ります。

 曖昧な自動運転の定義は、機能の誤用や技術の過信を招く恐れがあり、安全上好ましくありません。実際に米国では2016年5月、高速道路を走行する米Tesla Motors社の「Model S」がトラックと衝突し、運転者が死亡する事故が発生しました(関連記事1)。事故原因は現在調査中ですが、簡易的な自動運転機能である「Autopilot」を過信し過ぎるあまり前方監視を怠ったことが原因ではないかと言われています。

 この件について、全米道路交通安全保険協会研究所(IIHS)会長のAdrian K. Lund氏は「Tesla社が(NHTSAが定めた自動運転技術の水準でレベル2に相当する機能に)“Autopilot”と名付けたのはまずい選択だった」と見解を述べます(図2)。同氏によれば現在、自動運転の定義について米国政府がガイドラインを作成しているとのこと。安全性を優先するため、「自動運転の基準は厳しいものになる」(同氏)見込みです。

図2 全米道路交通安全保険協会研究所(IIHS)会長のAdrian K. Lund氏。
図2 全米道路交通安全保険協会研究所(IIHS)会長のAdrian K. Lund氏。
[画像のクリックで拡大表示]