アメリカのAI企業Arcee AIは、12月1日、オープンウェイトMoEモデルファミリー「Trinity」から、新モデル「Trinity Mini」と「Trinity Nano Preview」を発表した。
Trinity Miniは、26BパラメータのMoEモデルで、推論、関数呼び出し、ツール使用に対応したトレーニング済みモデルである。Trinity Nano Previewは6Bパラメータのモデルとなっている。いずれもApache 2.0ライセンスでリリースされ、Hugging Faceからダウンロード可能。MiniはAPIとOpenRouterからも入手できる。
同社はデータキュレーション企業のDatologyとのパートナーシップによって高品質なトレーニングデータを確保した。また、Prime Intellectもコンピューティングとシステム面でサポートを提供した。
現在、Trinity Largeがトレーニング中で、2026年1月にリリースされる予定。詳細は公式ブログから確認できる。
- 関連リンク
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
