OpenAIは2025年8月5日(現地時間)、オープンウェイトの大規模言語モデル「gpt-oss-120b」と「gpt-oss-20b」を発表した。両モデルはApache 2.0ライセンス下で公開され、Hugging Faceからダウンロード可能。
gpt-oss-120bは1170億パラメータを持ち、36層構成で各層に128のエキスパートを配備し、トークンごとに4つのエキスパートが活性化されるmixture-of-experts(MoE)アーキテクチャを採用している。1枚の80GB GPUで動作し、OpenAIのo4-miniと同等の推論ベンチマークスコアを達成する。gpt-oss-20bは210億パラメータで24層構成、トークンごとに36億パラメータが活性化され、16GBメモリ搭載のエッジデバイスでも運用可能である。両モデルは最大128kのコンテキスト長をネイティブにサポートする。
事前学習には主に英語の高品質なテキストデータセットが用いられ、コーディング、STEM、一般知識分野に強みを持つ。OpenAI自社の最先端内部モデルの手法や強化学習が応用されている。reasoning_effortは3レベルから選択でき、用途に応じたパフォーマンスとレイテンシの調整が可能である。
安全性強化にも注力し、有害データの除外や指示階層によるプロンプトインジェクション防止、敵対的ファインチューニングによる検証など多層的評価が行われている。医療や理数・コーディング分野などのベンチマーク比較では、独自モデル(o3、o4-mini等)に匹敵または上回るスコアを記録した。
ハードウェア・プラットフォーム対応にも幅広く対応している。PyTorchやAppleのMetal用のリファレンス実装や、ONNX Runtimeを使ったWindows向けGPU最適化バージョン(gpt-oss-20b)は、MicrosoftのFoundry LocalやAI Toolkit for VS Codeでも利用できる。主要なクラウドやローカル推論プロバイダー各社とも連携し、NVIDIA、AMD、Cerebras、Groqといった様々なハードウェアで最適なパフォーマンスを提供する。
カスタマイズやファインチューニングにも対応し、ユーザー自身のインフラ上でのAI運用や、高い安全基準を求める組織にも導入しやすい。APIモデルとの使い分けも可能で、今後API対応も検討されている。
モデルはHugging Faceで無償公開されているほか、「gpt-oss playground」のページにて、実際にモデルが試用できる。
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です