【ディープテックを追え】「中規模モデル」LLMでオープンAIに挑むスタートアップの勝算
米オープンAIの「チャットGPT」などが登場し、そうした生成AIの基盤となる大規模言語モデル(LLM)の開発競争が過熱している。Spiral.AI(スパイラルエーアイ、東京都文京区)は性能を示す指標であるパラメーター数が中規模ながら、専門領域で効果を発揮するAIを開発する。
「(生成AIの)巨大資本に立ち向かうには、中規模モデルしかない」。スパイラルエーアイの佐々木雄一代表取締役はこう話す。
米オープンAIなどが開発するLLMは、性能を示す指標であるパラメーター数が数千億程度と大規模だ。一方で欠点もある。LLMはパラメーター数を増やすほど、性能は高くなるが、AI学習に使うGPUが多く必要になり、開発コストは高くなってしまう。そこでスパイラルエーアイは、中規模ながら用途を絞ったAIに注力する。佐々木代表取締役は「中規模モデルの利点は大規模モデルに比べ、開発コストがリーズナブル。用途を絞れば、大規模モデルよりもいい性能を出せる」と話す。
ソフトバンクやNECなどの日本勢も同様のアプローチを取る。佐々木代表取締役も「思っていたよりも事業化の動きが早い」と話す。その上で、「早いだけでAIが使われるわけではない」と強調する。
スパイラルエーアイはユーザーの運用までをカバーすることで差別化する。「ユーザーは生成AIを事業の中でどう使っていいか分からない。ユーザーが使いやすい環境を作っていく」(佐々木代表取締役)。佐々木代表取締役は「生成AIを使ってどんなサービスを作るかという『出口戦略』が重要だ。それがなければユーザーには使ってもらえない」と力を込める。
今後、同社は60億程度のパラメーター数を持つAIを23年末までに開発する。コストを抑えながら、顧客に合わせて変更しやすくする。佐々木代表取締役は「いかにコストを抑えながら実装できるかにこだわる」と話す。