NTTは4月22日、大規模言語モデルの推論に用いる「トークン語彙」を精度劣化なく縮小し、異種LLM間で共通語彙による連携を可能にする技術を発表した。
同技術は、各LLMで異なるトークン語彙を推論中に自在に共通化する理論とアルゴリズムに基づく。従来、アンサンブルや知識転移など複数LLMの連携には、同一の語彙である必要があったが、この新技術により語彙不一致の制約が解消された。
技術の要点は「損失なし」で語彙を縮小できる理論と、実用的で効率的な変換アルゴリズムの確立にある。実験では、共通語彙での推論連携により各LLMの性能を維持しつつ、連携による精度向上も確認された。応用例として、最大共通語彙上で複数LLMを協調動作させるアンサンブル、NTT独自のポータブルチューニングなどが挙げられる。
本成果は2026年4月23日からリオデジャネイロで開催される国際会議「ICLR 2026」で発表される。今後、多様なLLM連携を通じてAI推論の精度向上が期待される。
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
