エッジコンピューティングの逆襲 特集

実効効率で世界トップクラスのエッジAIプロセッサアーキテクチャ、東工大が開発人工知能ニュース

NEDOと東京工業大学は、エッジ機器で高効率なCNN(畳み込みニューラルネットワーク)による推論処理が可能なプロセッサアーキテクチャを開発したと発表した。同プロセッサアーキテクチャに基づく大規模集積回路(LSI)も試作し、「世界トップレベル」となる消費電力1W当たりの処理速度で最大26.5TOPSという実効効率を確認している。

» 2021年08月24日 06時30分 公開
[朴尚洙MONOist]
試作したLSIの顕微鏡写真 試作したLSIの顕微鏡写真(クリックで拡大) 出典:NEDO

 NEDO(新エネルギー・産業技術総合開発機構)と東京工業大学は2021年8月23日、エッジ機器で高効率なCNN(畳み込みニューラルネットワーク)による推論処理が可能なプロセッサアーキテクチャを開発したと発表した。同プロセッサアーキテクチャに基づく大規模集積回路(LSI)も試作し、「世界トップレベル」(ニュースリリースより)となる消費電力1W当たりの処理速度で最大26.5TOPSという実効効率を確認している。今後は、スマートフォンの先進的なAR(拡張現実)アプリケーションやロボットの柔軟な動作制御など、電力供給量などの制約が厳しいエッジ機器における高度なリアルタイムAI(人工知能)処理を単独実行する用途に向け、推論処理のさらなる高精度化やRISC-Vプロセッサなどとのシステムレベル統合を進める方針だ。

 深層学習技術の発展により、CNNに基づくAIアルゴリズムの推論処理の応用範囲が広がっているものの、特に電力・面積的な制約の大きなエッジ機器で利用する場合に、要求される計算量とメモリ容量の肥大化が問題となっている。これに対処するため、アルゴリズム面から提案されてきたのが、CNNの枝刈り(プルーニング)に代表される、CNNモデルの冗長性を利用し、認識精度を保ったままモデル規模を縮小(スパース化)する手法である。しかしスパース化では、計算量とメモリ容量の削減はできるものの、メモリへのアクセスが不規則になり、データ再利用性と演算器の稼働率が低下し、並列処理の計算効率が低下することが課題になっていた。

台湾TSMCの40nmプロセスで試作チップを製作

 今回の開発成果は、NEDOの「高効率・高速処理を可能とするAIチップ・次世代コンピューティングの技術開発」の下で、東京工業大学(東工大)科学技術創成研究院 教授の本村真人氏らのチームが進めてきたものだ。同チームは、深く枝刈りされたことでメモリへのアクセスが不規則になったCNNの推論処理では、チャネル間の畳み込みと入力データのチャネル内平面シフトを利用して畳み込みの積和演算を行うことが効率的であることを見いだし、そのため並列演算アレイとデータ整形機構を中核としたアーキテクチャを提案した。

 研究開発でまず検討したのは、CNNによる並列演算の計算効率の改善である。CNNの畳み込み層における畳み込み演算は、複数チャネルからなる入力活性とカーネル群から複数チャネルの出力データを生成する積和演算の繰り返しから成っている。互いに依存関係のない入力チャネル内のピクセル位置と出力チャネル方向の座標軸を選ぶと、積和演算を各行・各列で独立の積(直積)と和の計算に分離でき、データ再利用性を高く保つ並列計算が可能になり、計算効率が高くなる。この方式は、カーネルサイズ1×1のチャネル間畳み込み(いわゆるPoint-wise畳み込み※))において、特に計算効率が高くなる。

※)Point-wise畳み込み:畳み込みのうち、カーネル係数のXYサイズが1×1であり、チャネル間の畳み込みのみを担当するものは特にPoint-wise畳み込みと呼ばれる。入力活性のXY平面のピクセル間の相関を考慮しないで、チャネル方向(特徴空間)の変換のみを担う。これとは対照的に、チャネル方向を考慮しないで、チャネル内でのピクセルの変換のみを扱う畳み込みはDepth-wise畳み込みと呼ばれる。通常の畳み込みをDepth-wise畳み込みとPoint-wise畳み込みのペアで近似することで、必要メモリ容量の削減を図ったCNNモデルとして、これまでにMobileNetが提案されている。

直積型並列演算の概念図 直積型並列演算の概念図(クリックで拡大) 出典:NEDO

 次に、計算効率のアルゴリズムの改善を検討した。ここで着目したのが、一般にあらゆる畳み込み演算が入力データのチャネル内平面シフトとカーネルサイズ1×1のチャネル間(Point-wise)畳み込みの組み合わせに分解できることだ。特に、チャネル内とチャネル間にカーネルを分離することで軽量化された畳み込み演算に対しては、入力データのチャネル内平面シフトを扱う整形機構によりチャネル内の畳み込み演算を処理し、直積型並列演算器アレイによりチャネル間の畳み込み演算を処理することで、高いデータ再利用率で処理できることを見いだした。さらに、畳み込みカーネルをカーネル要素の座標に合わせて枝刈りすると、存在しないカーネル要素に対応する計算をスキップでき、メモリアクセス・演算処理を省ける。これにより、深く枝刈りされたCNNの計算効率をより向上させることができた。

畳み込み演算の分割と枝刈りされたカーネルにおける処理効率化 畳み込み演算の分割と枝刈りされたカーネルにおける処理効率化(クリックで拡大) 出典:NEDO

 続いて、既存のCNNモデルを変形し、同一座標のカーネル要素を優先して枝刈りする学習アルゴリズムを構築した。モデルの処理時間・効率と認識精度は、枝刈り後に残存するカーネル要素数(スパース率の逆数)によってトレードオフの関係となる。開発したアルゴリズムは、既存の学習済みモデルに対して連続的にカーネル要素数を減らしながら再学習を行うもので、求める処理時間・効率と認識精度から、スパース率のトレードオフ点を任意に選択することが可能になった。

連続的枝刈り・再学習技術とその効果 連続的枝刈り・再学習技術とその効果(クリックで拡大) 出典:NEDO

 これらの研究に基づくアーキテクチャの試作チップを台湾TSMCの40nmプロセスで製作した。並列演算アレイサイズを32×32とし、活性値・係数値には4ビット固定小数点(INT4)量子化を採用した。その結果、最大動作周波数534MHz/動作電圧1.1Vの条件で400mW以内の電力消費を実測した。これは、カーネル要素数を9分の1まで枝刈りした後のスパース化した不要カーネル要素の省略を考慮すると、スマートフォンなどのエッジ機器向けCNN推論プロセッサとして世界トップレベルの実効効率となる、消費電力1W当たり26.5TOPSに相当するという。

 なおこれらの開発成果は、2021年8月22〜24日にオンラインで開催されているプロセッサLSIの主要国際会議である「Hot Chips 33」に採択され、東京工業大学がポスターセッションで発表する予定だ。

⇒その他の「人工知能ニュース」の記事はこちら

Copyright © ITmedia, Inc. All Rights Reserved.