GPU1枚で機敏に動作する国産LLM「tsuzumi」、なぜ開発に至ったか?
2022年末に登場した「ChatGPT」は世界に衝撃を与えたが、海外製の巨大なモデルは日本語の処理効率や機密情報の取り扱いにおいて、日本のエンタープライズ環境にそのまま適用するには高いハードルがあった。特に、官公庁や金融機関など、インターネットから隔離されたセキュアな環境での開発が求められる現場では、クラウドに依存するAIモデルの採用は困難を極める。
NTTが日本発の独自のLLM開発に踏み切った背景には、そんなセキュリティや運用コストと日本語処理能力の課題があった。風戸氏は「開発環境自体がネットワークから隔離される環境でも使っていただけるようなAIを目指しています」と、同社が目指す目的地を説く。
この仮説と課題意識に基づき開発されたのが、NTTの大規模言語モデル「tsuzumi」である。 tsuzumiは、四十年にわたるNTTの自然言語処理研究の知見を結集し、日本語の語彙や文章構造を極めて効率的に処理できる独自のトークナイザ(テキストをAIモデルが理解できる最小単位のトークンに分割する仕組み)を採用している。
他社のモデルでは日本語1文字を表現するのに複数のトークンを消費することが多いのに対し、tsuzumiは1トークンでより多くの文字情報を表現できる。これにより、少ない計算資源で高度な情報処理が可能となり、比較的高価なサーバーに頼らずとも、GPU1枚を搭載したローカル環境で機敏に動作する軽量性を実現した。
海外モデルに後から日本語データを追加学習させるのではなく、ゼロから10兆トークンという膨大なデータを学習させるフルスクラッチのアプローチを採用した背景には、どのようなデータでAIが作られているかを完全に管理し、経済安全保障やAI主権を確保する目的がある。
