手作りフリップ(3月25日放送)
「自動運転で事故が起こったら…?」

今回の事故ですが、車は時速およそ65キロで走っていて、減速した形跡はなかったとみられています。オペレーターの役割はあくまでも「監視」、完全な自動運転でした。

世界中で開発競争が進む、自動運転の技術ですが、そのレベルによって5段階に分けられます。
レベル1が、ハンドル操作や加速・減速のいずれか1つだけをするもの。レベル2が、複数の作業をこなすもの。レベル3は、システムが全て運転しますが、緊急時のためにドライバーを必要とします。
レベル4からが、ドライバーを必要としない完全自動運転ですが、レベル4では、交通量が少ない、天候が良いといった運転しやすい一定の条件が必要です。レベル5は、どのような条件でも完全自動運転するものです。

アメリカ運輸省によると、全米の深刻な衝突事故の94%がドライバーの人為的ミスによるもので、完全自動運転が実用化すれば、これが改善されるのではないかという期待もあります。
現在の自動運転の主流は、レベル1から2で、去年秋にヨーロッパで、アウディがレベル3の車を、渋滞時の高速道路など使える状況は限定的ですが、発売しました。

従来の自動車メーカーなどは、レベル1から徐々に技術を積み上げようとしてきましたが、いきなりレベル4を目指したのがAIの開発でも知られるGoogleです。日本勢は、周囲の状況を認知する画像処理や、その情報を処理して動力源に伝えるAIの分野などで出遅れているのが現状です。
では、自動運転車が事故を起こしたら、その責任はどこにあるのでしょうか。様々な課題をあぶり出すため、自動運転事故の模擬裁判(明治大学大学院 内山幸二教授)なども行われています。

例えば、このような事故です。法定速度60キロの公道で、完全自動運転の車が時速45キロで走っていたところ、前方から自転車が飛び出してきたため、速度を保ったまま急な車線変更をします。すると時速60キロで走っていた後続のトラックが衝突を避けようとして電柱に激突。運転手が死亡するという設定です。
この時、自動運転車が法定速度を超えて車線変更していれば、事故を回避できた可能性があり、緊急時の法律を超える走行を認めてもいいのか、といった課題も見えてきました。
自動運転技術は急速に進化していますが、社会ルールや法整備の対応はまだまだ遅れています。新しい技術が正しい理解の下で使われるための努力が今後求められます。
