一方、自動運転が難しい理由としては、まだ物体を認識するセンシングの技術が十分ではない、突発的な出来事が生じた時に機械が判断して危険を回避できるのか、緊急時にどうしても事故が避けられない場合に「そのまま直進して自分が衝突のリスクを負うのか、事故を避けるためにハンドルを切って歩行者にリスクを負わせるのか」など、ある種の倫理的な判断を機械ができるのか。

 こうした、危険予知・回避などのとっさの判断をするには、熟練したスキルをもった人間の方が機械よりも優秀である、というのはディープラーニングなどAIの技術が進化したとしても、当分は正しそうです。だからこそ、車より先に自動操縦が進んでいる飛行機でも、パイロットが不要にはならないのでしょう。

 IoTに関してはこうした「人が優れているのか、機械が優れているのか」という議論がよくなされますが、それも人間が善意で機械を用いることが前提です。Volkswagenの話に戻ると、人が悪意を持ってプログラミングすれば、かなり高度な悪事も働けてしまうということです。また、金融の超高速取引などでは、取引を行うアルゴリズムによっては、金融システム全体を麻痺させるほどの機械の暴走が起こりかねない、とも言われています。

 ITは従来のパソコンやスマートフォンのように人間がコンピュータを使う場合には、人間がコンピュータに介在することで、暴走をある程度は防ぐことができました。ところがIoTのように、人間が見えない場所でコンピュータが自動的に動く場合に、本当に信用できるのか。機械がブラックボックス化された時、人間がコントロールできるのか。

 悪意があったり暴走するプログラムをどうやって判別、排除するのかは、これから技術者のみならず社会全体で考えなければいけない、大きな課題だと今回の事件は改めて見せつけた気がします。そして先ほどの自動運転の例のように、IoTの問題は技術だけで解決できるとは限りません。技術とリベラルアーツの境界領域、まさにMOTで取り組まなければいけない重要な課題だと考えています。

 最後に、今回の事件がIoTの代表的な事例である製造業のIT化、インダストリー4.0を強力に推進するドイツの代表的な企業で起こってしまったことは、とても皮肉なことです。同様にIoTを推進する私達日本の技術者・研究者も、以上の問題をどうやって解決していくか、身を引き締めて取り組まなければいけないと感じました。