SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

CodeZineニュース

Meta、テキストプロンプトを使用したコード生成に特化したLLM「Code Llama」をリリース

  • X ポスト
  • このエントリーをはてなブックマークに追加

  • X ポスト
  • このエントリーをはてなブックマークに追加

 米Metaは、テキストプロンプトを使用してコードを生成可能な大規模言語モデル(LLM)の「Code Llama」を、8月24日(現地時間)にリリースした。

 Code Llamaは、Llama 2のコードに特化したバージョンであり、コード固有のデータセットでLlama 2を追加トレーニングし、同じデータセットからより多くのデータを長時間サンプリングすることによって作成されている。

 Llama 2上に構築された、強化されたコーディング機能によって、コードと自然言語プロンプトの両方からコードとコードに関する自然言語を生成可能で、Python、C++、Java、PHP、TypeScript/JavaScript、C#、Bashといった、現在使用されている一般的な言語を数多くサポートしており、コード補完やデバッグにも使える。

 7B、13B、34Bパラメータの、3つのサイズを用意し、それぞれのモデルは500Bトークンのコードおよびコード関連データでトレーニングされている。また、7Bおよび13Bのベースおよび命令モデルは、中間補完(FIM)機能でもトレーニングされているため、生成されたコードは既存のコードにそのまま挿入できる。

 なお、3つのモデルはさまざまなサービス提供要件とレイテンシ要件に対応し、7Bモデルは単一のGPUで実行可能で、34Bモデルは最良の結果を返し、より優れたコーディング支援を実現する一方、7Bや13Bモデルは高速で、リアルタイムコード補完など低遅延を必要とするタスクにより適している。

 いずれのモデルも、最大100000トークンのコンテキストで安定したコード生成を提供し、16000トークンのシーケンスでトレーニングされ、最大100000トークンの入力で改善がみられる。

 あわせて、Pythonに特化したCode Llama - Python、および自然言語命令に特化し、人間がプロンプトから何を期待しているのかをよりよく理解できるようになるCode Llama - Instructも用意されている。

関連リンク

この記事は参考になりましたか?

  • X ポスト
  • このエントリーをはてなブックマークに追加
この記事の著者

CodeZine編集部(コードジンヘンシュウブ)

CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

  • X ポスト
  • このエントリーをはてなブックマークに追加
CodeZine(コードジン)
https://codezine.jp/article/detail/18235 2023/08/29 16:00

おすすめ

アクセスランキング

アクセスランキング

イベント

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング