APTOは、米OpenAIのgpt-o1や中国・DeepseekのDeepseek R1などで扱われたreasoningモデルに対応する、ファインチューニングのためのデータセットを6月4日に無料公開した。同データセットを活用することによって、日本語による思考能力が向上し、冗長な推論も抑えられる効果がみられ、トークン数や利用メモリに限りある状態でも高速に推論できるようになっている。
同データセットの各データには、推論を必要とする質問とその回答が含まれる。同社の技術によって開発された合成データから、問題がないか人間によるチェックを受けた高品質なデータであり、Qwen3モデルなどで検証したところ、同データセットで学習を行うことで、日本語による思考能力が向上して、より効率的な推論が可能になる。また、Japanese MT-Benchでのテストでも、とりわけreasoning(推論)、math(数学)、coding(コーディング)といったカテゴリで性能向上がみられた。

質問・回答の一連の会話内容に対して、どのような題材を取り扱っているのか、会話内容ジャンルのタグ情報を与えており、以下のラベルを用いている。

Qwen3モデルでは、タスクによっては<think>タグ内の思考過程が非常に長くなる傾向があり、マルチターンの会話では顕著だった。トークン数が限られた環境での検証を行った場合、reasoningを行わない方が高いスコアが現れるケースもあったものの、同社のReasoningデータセットによってファインチューニングを行うことで、日本語による思考が可能なほか、冗長な推論も抑えられる効果がみられ、トークン数や利用メモリに限りある状態でも高速に推論できるようになっている。
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です