ストックマークは、経済産業省とNEDOが実施する国内の生成AI開発力強化を目的としたプロジェクト「GENIAC」第2期において、日本語をおもな対象とした1000億パラメータのLLMを開発しており、開発中のLLMにおいて国内組織によってフロムスクラッチで開発されたオープンモデルと比較しても、一定の差をもって高い性能を発揮することが確認できたことから、現段階のモデル「Stockmark-2-100B-Instruct-beta」を3月18日に公開した。
「Stockmark-2-100B-Instruct-beta」は、日本語をおもな対象とした1000億パラメータの日本語特化型LLMで、公開されている既存のLLMモデルを用いることなく、ストックマークがゼロから開発を行った独自モデルとなっている。
同社が2024年5月に公開した、ハルシネーションを大幅に抑止した1000億パラメータのLLM「Stockmark-LLM-100b」の開発を通じて得られた知見や課題を活かして開発されており、「Stockmark-LLM-100b」の特徴であるハルシネーションの大幅抑止・厳密性が重要視される、ビジネスドメインにおける高い回答性能を踏襲しているので、高い日本語能力と深いビジネス知識を併せ持ち、ビジネスドメインで信頼して活用できる。
また、商用利用が可能なモデルとしてオープンソースで公開されているため、より多くのユーザーが試せるようになっている。
なお、「Stockmark-2-100B-Instruct-beta」の性能を、日本の組織によってフロムスクラッチで開発が行われた公開モデルと比較したところ、一定の差を持って高い性能を示している。また、米Metaが開発したLlama3.1に日本語を追加学習した「Llama 3.1 Swallow」をも、わずかに上回る結果となった。さらに、「Stockmark Business Questions」を使用した日本のビジネスドメインにおける知識の保持度評価では、「Stockmark-2-100B-Instruct-beta」の正解率は90%となり、GPT-4oの正解率(88%)をわずかながら上回っている。
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です