SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

CodeZineニュース

LLaMAのオープンソース実装OpenLLaMA、3000億トークンでトレーニングされたチェックポイントをリリース

  • このエントリーをはてなブックマークに追加

  • このエントリーをはてなブックマークに追加

 OpenLM Researchは、米Meta AIが開発した大規模言語モデル「LLaMA(Large Language Model Meta AI)」のライセンスに基づく、オープンソースの大規模言語モデルOpenLLaMAのパブリックプレビューとなる「OpenLLaMA 7B」の、3000億トークンでトレーニングされたチェックポイントを、5月3日(現地時間)にリリースした。

 今回リリースされた300Bチェックポイントは、既存の実装と広く互換性を持たせることを目的に、BOSトークンの影響を受けにくくしている。

 トレーニングは、1.2兆を超えるトークンを含むLLaMAトレーニングデータセットを再現した、TogetherによるRedPajamaデータセットによって行われており、モデルアーキテクチャ、コンテキスト長、トレーニングステップ、学習率スケジュール、オプティマイザなど、元のLLaMAペーパーとまったく同じ前処理ステップとトレーニングハイパーパラメーターに従っており、RedPajamaデータセットを使用している点のみLLaMAとは異なる。

 あわせて、言語モデルのトレーニングと微調整のために開発された、JAXベースのトレーニングパイプラインであるEasyLMを使用して、クラウドTPU-v4によってモデルをトレーニングしている。通常のデータ並列処理と完全に分割されたデータ並列処理(ZeRO ステージ3)を組み合わせて使用することで、トレーニングのスループットとメモリ使用量のバランスを取っており、全体としてトレーニングの実行で毎秒1900トークン/TPU-v4チップを超えるスループットに達した。

 元のLLaMAモデルは1兆トークンでトレーニングされ、GPT-Jは5000億トークンでトレーニングされている一方、2000億トークンでトレーニングされたOpenLLaMAは、ほとんどのタスクでLLaMAやGPT-Jに匹敵するパフォーマンスを示し、一部ではそれらを上回る結果となっている。この結果から、1兆トークンでトレーニングされたOpenLLaMAは、さらなるパフォーマンスの向上が期待できる。

関連リンク

この記事は参考になりましたか?

  • このエントリーをはてなブックマークに追加
この記事の著者

CodeZine編集部(コードジンヘンシュウブ)

CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

  • このエントリーをはてなブックマークに追加
CodeZine(コードジン)
https://codezine.jp/article/detail/17749 2023/05/10 17:00

おすすめ

アクセスランキング

アクセスランキング

イベント

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング