「つながるクルマ」が変えるモビリティの未来像
ニュース
» 2017年06月13日 06時00分 公開

自動運転技術:ボッシュが開発に取り組む“説明可能なAI” (2/2)

[齊藤由希,MONOist]
前のページへ 1|2       

製品開発の要件定義にもAI

 パイロ氏はAIセンターでの研究トピックスを幾つか紹介した。1つが自動運転車向けの歩行者の行動予測だ。元になるのは、歩行者や車両、歩道、車道などを全て色分けして認識するセマンティックセグメンテーションだ。色分けはニューラルネットワークが意味論的に判断したもの。クルマが進むにつれて光の当たり方などが変わっても正確に歩行者を捕捉し、歩き続けるのか止まるのかを判断する。歩行者の行動予測に基づいて、ブレーキをかけるか避けるかなど制御を確定させる。判断の良しあしに合わせて報酬や罰を与えて、AIがよりよく学習できるようにする。

ドイツの公道で取得した映像に対するセマンティックセグメンテーションの様子 ドイツの公道で取得した映像に対するセマンティックセグメンテーションの様子(クリックして拡大) 出典:ボッシュ

 製品開発の要件定義にもAIを使用しているという。ボッシュでは、電気自動車(EV)向けのブレーキシステムの開発に当たって、ガソリンエンジン車と比較した制動の頻度を公道のデータから分析した。ガソリンエンジン車は距離が短いほど制動の頻度が上がったが、EVはガソリンエンジン車よりも頻度が少なかった。こうした実際の使われ方を基に製品の仕様を定義した。「人間はガソリンエンジン車もEVも制動の頻度は変わらないと考えてしまう。非線形な判断はAIの方が早いので活用している」(パイロ氏)

人間が気付きにくいことに、AIがたどり着くことも 人間が気付きにくいことに、AIがたどり着くことも(クリックして拡大) 出典:ボッシュ

 AIは生産現場でも活用を進めている。パイロ氏は「工場から出るスクラップの低減やリードタイム短縮にはAIで何ができるか。分散した生産ラインのデータを分析して、さらに改善が必要な部分を特定する。タイトなカイゼンなのでAIが必要だ」と説明した。

AIの判断を説明可能に

 “説明可能なAI”の開発についても触れた。「ディープラーニングは有効な手法だが、ブラックボックスになるのを防げない。安全面ではそのまま実装することはできない」(パイロ氏)とし、AIの信頼度を測るための手法を紹介した。

 「まず、ディープラーニングとニューラルネットワークを分けて考える。ニューラルネットワークがどのように振る舞っているか、どう機能しているかを観察し、AIが今処理しているデータとトレーニング後のデータがどの程度離れているかを検証する。これで現在の学習度合いの信頼度を割り出す。次に、この信頼度を基に、今処理しているデータが、そのデータの関係する領域をどの程度カバーしているかを予測し、アウトプットの信頼度を測る。これによって、信頼性を明らかにできる」(パイロ氏)

 パイロ氏は、製品が認知能力を持つ世界が来る、と今後の展望を述べた。「製品が人間の期待を予測し、期待に合わせてくれる。対話もできる。学習することで、時間がたつに従って価値を増す。今とは違う価値が生まれるだろう」(パイロ氏)

前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.