ニュース
» 2020年01月15日 08時00分 公開

人工知能ニュース:少量の学習データによる次世代AI構築の基盤となる事前学習済みモデル

NEDOと産業技術総合研究所は、動画認識やバイオ分野の自然言語テキストを理解する基盤となる事前学習済みモデルを公開した。少量の学習用データからでも次世代AIのソフトウェアモジュールを構築、利用可能になる。

[MONOist]

 新エネルギー・産業技術総合開発機構(NEDO)と産業技術総合研究所(産総研)は2019年12月10日、AI(人工知能)を用いた動画認識やバイオ分野の自然言語テキストを理解する基盤となる事前学習済みモデルを構築したと発表した。また同日、同モデルを公開した。

 同モデルは、産総研のAI用クラウド計算基盤「ABCI」による大規模な機械学習によって、大量の動画やテキストデータを事前に学習している。

キャプション 次世代人工知能中核技術の研究開発の概要と事前学習済みモデルの位置付け 出典:NEDO
キャプション 事前学習済みモデルとそれを用いた転移学習の仕組み 出典:新エネルギー・産業技術総合開発機構

 動画を理解するための転移学習の基盤となる事前学習済みモデルは、Google DeepMindのKinetics400データセットを用いて学習させた。このデータセットは、お茶を入れる、絵を描く、ジョギングするなど400種類の日常行動に関する30万本のラベルが付いた短尺動画で、日常生活やスポーツ中の行動を識別できる。

 自然言語の理解については、事前学習済みモデルの1つであるGoogleの自然言語処理用モデルBERT(Bidirectional Encoder Representations from Transformers)を用いた。バイオ分野の大規模テキストデータを使って、バイオ分野に特化したBERTを初めから構築。自然言語のテキストは、使われる単語や単語の分布が分野によって異なるため、分野特化型のモデルはバイオ分野の文献から必要な情報を得るのに有効と考えられる。

キャプション 自然言語テキスト処理、動画像処理向けの事前学習済みモデルとその応用 出典:新エネルギー・産業技術総合開発機構

 今回構築したモデルを転移学習の基にすることで、動画理解を工場での作業や作業支援ロボットなどへ応用するなど、少量の学習用データからでも次世代AIのソフトウェアモジュールを構築、利用可能になる。

 今回開発した事前学習済みモデルに加えて、産総研では、分野特化型BERTが容易に構築できるよう、ABCI上でBERTを学習させるプログラムを公開している。さらに、産総研人工知能研究センターのWebサイトでは、混雑した環境での人流計測や物体の種類と姿勢の同時認識、道具の機能認識などの機能を持った40以上のソフトウェアモジュールと機械学習用データセットを公開している。

Copyright © ITmedia, Inc. All Rights Reserved.