SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

CodeZineニュース

米Zyphra、MoEの推論モデル「ZAYA1-8B」リリース

 た。

 ZAYA1-8Bは、AMD Instinct MI300スタック上でトレーニングされたエキスパート混合(MoE)モデル。特に数学やコーディングといったタスクにおいて、詳細な長文推論を得意とする。

 アクティブパラメータが10億未満でありながら、推論・数学・コーディングのベンチマークで優れたパフォーマンスを発揮し、Gemini-2.5-Pro、Claude 4.5 Sonnetなどと互角の性能を備えている。

 本モデルは、独自のアーキテクチャ、事前学習手法、強化学習パイプラインを組み合わせることで効率性を実現している。特にアーキテクチャについては、3つの革新的なポイントを備えている。一つ目はZyphraが開発したアテンション機構「Compressed Convolutional Attention(CCA)」、二つ目はMLPベースのルーターの採用、三つ目は残差ノルムの増加をコントロールする学習型残差スケーリングである。

 現在、ZAYA1-8BはApache-2.0ライセンスの下でリリースされており、Zyphra Cloudから利用可能となっている。

関連リンク

この記事は参考になりましたか?

この記事の著者

CodeZine編集部(コードジンヘンシュウブ)

CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

CodeZine(コードジン)
https://codezine.jp/news/detail/24205 2026/05/14 09:00

おすすめ

アクセスランキング

アクセスランキング

イベント

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング