「自動運転」(もしくはそれに類似した名の付いた)機能を搭載したクルマが増えてきている。前方車両への追随、車線の維持、衝突回避のための緊急ブレーキ支援など、その機能はさまざまである。しかし、新しい技術故にこれまでにない「新しいタイプの事故」が想定され、それを防ぐために従来とは違った視点の対策が求められる。今回から4回にわたり、自動運転という点では先輩ともいうべき航空機を参考に、急速に進化しつつある自動運転技術に潜むリスクとそのリスクを顕在化させず、うまく自動運転技術を使いこなすために必要なことを考察する。

ヒトによる監視が前提

 現状の自動運転車はドライバーである「ヒト」が運転を全くしなくて良い、自動運転機能という「キカイ」に運転を全て任せてよい、ことを意味するものではない。あくまでヒトが主体的に運転を行い、より安全を高めてくれる「運転支援機能」。米Tesla社がリリースした「Autopilot」という名の新しい機能もあくまで運転支援機能であり、ヒトが運転状況をきちんと監視することが求められており、必要であればヒトが運転を取って代わることが前提である。ところが、手放し運転や運転中に本を読む動画がインターネットにアップされるなど、Autopilotの機能を超えたことを行なうドライバーが続出し、遂にセダン「Model S」で死亡事故も起こってしまった。

 Tesla社だけに限らず、運転支援機能は各自動車メーカーが機能を高度化させると共に、搭載車両を増やしている。その運転支援機能をヒトが正しく使うことが当面の重要な課題となるであろう。