【ディープテックを追え】低ビットでAIを実装、「極小量子化技術」とは?
「我々のコア技術は、各社が超えられなかったデータの“極小化”だ」。リープマインド(東京都渋谷区)の徳永拓之最高技術責任者(CTO)は自社の強みをこう強調する。
人工知能(AI)をデバイスに搭載するエッジAI。データ処理の遅滞を少なくできたり、電力消費を抑えられることから活用が進む。同社は独自技術でAIモデルを軽量化。プログラミング可能な集積回路(FPGA)などに搭載できるIP(大規模集積回路を構成するために必要な回路情報)で拡販を狙う。
低ビットでAIを実装
同社が開発するIPはメモリーの使用量を減らしながら、深層学習(ディープラーニング)を搭載できる。カギを握るのは、計算量を圧縮する「極小量子化技術」だ。
量子化は低ビットの整数による離散的な数値でモデルを近似して表現する技術のこと。パラメーター自体を単純化することで、計算量を減らして消費電力の低減や演算回路サイズを小さくできる。
一般にディープラーニングの精度を高めるには16―32ビット必要だ。このビット数を小さくして消費電力を抑えながら、推論の精度劣化を防ぐことが量子化だ。ただ、通常のデータで学習させたモデルを量子化すると、推論の精度が下がってしまう。徳永CTOは「ディープラーニングの量子化に挑んできた企業の多くは、8ビットを切ると大幅に精度劣化を起こしていた」と説明する。同社は学習の段階から量子化することで、推論精度の低下を防ぐ。「ストレート・スルー・エスティメータ」という手法を使う。ディープラーニングの学習では、ニューラルネットワークの推論結果と正解を比べながら、パラメーターの勾配を調整する。ただ量子化したデータを使うと微分ができず、うまくパラメーターの勾配を調整できなかった。そこで連続的に変化する関数で近似することで学習できるようにした。加えて、乗算器を省略して2ビットで計算することを実現した。
カメラなどへの搭載を計画
この量子化技術をASIC(特定用途向けIC)やFPGA向けのIPとして拡販する。異常検知や低解像度の画像の品質を高めるなど、画像認識分野での応用を想定する。低消費電力や回路サイズが小さいことをいかし、画像処理半導体(GPU)などよりも安価な半導体にAIを搭載できる点を訴求する。
直近ではカメラやテレビなど家電への搭載を目指す。最先端の中央演算装置(CPU)が搭載されたスマートフォンでは、暗い場所でもくっきり撮影できるよう機能が備わっている。この機能をカメラなどのデバイスに搭載される半導体で実現できるようにしたいという。
将来は電池で駆動するモビリティーなど、電力消費の制約がある分野へ展開する。徳永CTOは「電気系統に制約がある場面に、ある程度の精度でAIを使える選択肢を提示したい」と力を込める。
〈関連記事〉これまでの【ディープテックを追え】