トヨタの自動運転車は運転意図を乗員に説明できるようになる!?自動運転技術(2/2 ページ)

» 2016年01月07日 06時00分 公開
[朴尚洙MONOist]
前のページへ 1|2       

自動運転技術に必要な2つの研究テーマとは

 TRIは既に、MITとスタンフォード大学との連携研究を開始するために、合計約30のプロジェクトを立ち上げている。

 TRIのCEOであるプラット氏は、2016 International CESのプレスカンファレンスでTRIの体制と進捗状況を発表するとともに、約30のプロジェクトの中から具体例を2つ紹介した。

「2016 International CES」のプレスカンファレンスに登壇したギル・プラット氏 「2016 International CES」のプレスカンファレンスに登壇したギル・プラット氏 出典:トヨタ自動車

 1つは、スタンフォード大学との連携研究プロジェクトである「Uncertainty on Uncertainty」である。自動運転技術では、運転時に想定される出来事に安全に対処することをクルマに教える必要がある。しかし、それより難しいのは「私たちが想定していなかった出来事に対する安全な対処をクルマに教えること」(プラット氏)なのだという。

 同氏はこの課題について、トラックの荷台から落下したがれきを避ける必要性を認識していなかったという事例を使って説明した。「がれきを、他のクルマに見立てればよいのだろうか。そうかもしれないが、がれきは突然、たくさんの破片に砕けるかもしれない。では、歩行者に見立てればよいのか。そうかもしれないが、歩行者とは違い、高速で移動するかもしれない」(同氏)。

 スタンフォード大学の研究チームは、この課題を解決すべく、予期せぬ事態に対処できる一般的な能力を構築する新たな手法を用いて、機械学習能力を向上させることに取り組む。まずは、既に分かっているリスクだけではなく、いまだ見えていないリスクに、自動運転技術がどれだけしっかり対応できるのかを測ることから始めるという。

 もう1つのプロジェクトの具体例は、MITによる「The Car Can Explain」だ。話の仕方を機械に教えるという研究である。

 自動運転技術は完璧であることが望まれている。しかし事故を起こさないために自動運転車がとった行動が乗員や歩行者にとって理解できなければ、「次は事故を起こすかも」という不安や不信が生まれてしまう。

 このため、自動運転車が乗員や歩行者から見て予期せぬ行動をとってしまった際、自動運転車自身が「何が起こったのか」「なぜそうなったのか」を明確に説明できなければならない。

 プラット氏は「意思決定能力を持つ自動運転技術には、確実に監査が効くようにしておく必要がある。人は、理解できないものを信用することはできない。だからこそわれわれは、クルマが自分の行動を人に説明できるようにする必要がある」と述べている。

前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.