アリババグループは、オープンソースのLLM「通義千問(Qwen)」シリーズの最新世代となる、「Qwen3」を5月1日に発表した。
Qwen3シリーズのモデルには、6つの通常型モデル(dense model)と2つの混合専門家(MoE)モデルが含まれており、モバイルディバイス、スマートグラス、自律走行車、ロボティクスといった多様な分野での次世代アプリケーション構築を実現する。
Qwen3の全モデル(通常型モデル:0.6B、1.7B、4B、8B、14B、32Bパラメータ)、およびMoEモデル(30B/3Bアクティブ、235B/22Bアクティブ)のすべてが世界中でオープンソース化され、自由に利用できる。
アリババ初となるハイブリッド推論モデルを搭載し、従来型LLMの機能に加えて動的かつ高度な推論能力を組み合わせることで、数式処理やコーディング、論理的推論といった複雑なタスクに対応する思考モードと、高速な汎用応答を提供する非思考モードを、状況に応じてシームレスに切り替えられる。
API経由のアクセスでは、最大38000トークンまで思考時間の制御が可能で、パフォーマンスと計算効率の最適なバランスを実現する。とりわけ、Qwen3-235B-A22B MoEモデルは他の最先端モデルと比較して、展開コストを大幅に低減している。
あわせて、以下のような機能強化が行われた。
- 多言語対応:119の言語と方言に対応し、翻訳や多言語プロンプト処理で業界トップクラスの精度を実現
- 高度なエージェント統合:Model Context Protocol(MCP)およびファンクションコールに標準対応し、エージェント型タスクにおいてオープンソースモデルをリード
- 推論力の向上:数理演算、コーディング、論理推論において、Qwen2.5やQwQを上回る結果を記録
- 人間との整合性の強化:より自然な創造的な文章作成、ロールプレイ、マルチターンの自然な対話を提供し、ユーザー体験を向上
モデルアーキテクチャの進化、トレーニングデータの増加、学習手法の高度化によって、数学的推論(AIME25)、コーディング能力(LiveCodeBench)、ツールと関数呼び出し機能(BFCL)、命令調整型LLMの性能評価(Arena-Hard)といった業界ベンチマークにて、トップクラスの成果を達成している。
さらに、ハイブリッド推論モデルの開発にあたっては、長文の思考連鎖(Chain-of-Thought: CoT)による初期学習、推論ベースの強化学習(Reasoning-based Reinforcement Learning)、思考モードの統合、汎用強化学習(General Reinforcement Learning)を含む、4段階の学習プロセスが導入された。

Qwen3は、Hugging Face、GitHub、ModelScopeで無料公開されており、専用チャットサイト(chat.qwen.ai)でも試用できる。また、アリババのAI開発プラットフォームModel Studio経由でのAPI提供も間もなく開始予定となっている。
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です