Weights & Biases Japanは、大規模言語モデル(LLM)の開発手法にフォーカスするホワイトペーパーの第2弾となる「LLMファインチューニングとプロンプトエンジニアリングのベストプラクティス」を発表した。
同ホワイトペーパーは、LLM導入を検討している企業向けに、自社の保持するリソースやビジネスモデルに合わせたLLM開発手法を選択するための実践的ガイドとなっており、第1弾の「LLMをゼロからトレーニングするためのベストプラクティス」を補完する形で、既存のLLMモデルを拡張する形で自社用途に適応する手法について解説している。
同ホワイトペーパーでカバーする内容は、以下の通り。
- ファインチューニング、PEFT、インストラクションチューニング、インコンテクストラーニングなど、代表的手法の概要
- LLMファインチューニングの代表的手法の概要とその比較
- LLMプロンプトエンジニアリングの代表的手法の概要とその比較
- 各手法の具体例、メリット・デメリットの比較、各手法の適用機会
また、印刷済み冊子は10月11日に開催されるWandBユーザーカンファレンスFully Connected 2023および、10月24日から26日にかけて開催されるAI Expo 2023秋にて配布予定。
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です