米Google Cloudは、AIモデルGeminiの作成に用いられた研究内容とテクノロジに基づいて構築された、軽量かつ最先端のオープンソースモデルGemmaを、2月22日(現地時間)に発表した。
Gemmaモデルは、他のオープンソースモデルと比較してサイズあたり最高のパフォーマンスを実現している。Gemma 2BとGemma 7Bの2つのサイズを用意しており、両サイズとも研究と開発の両方で使えるよう事前トレーニングされ、インストラクション、チューニングされたモデルの重みとともにリリースされた。
ColabやKaggle Notebookをはじめ、JAX、PyTorch、Keras 3.0、Hugging Face Transformersといったフレームワークなど、Google Cloudにおいて開発者がよく使用しているツールをサポートしており、ノートPC、ワークステーション、Google Cloud上で実行できる。
Gemmaは、Gemini 1.0 Pro、Gemini 1.0 Ultra、Gemini 1.5 Proモデルを含む、Vertex AI Model Gardenの130以上のモデルに追加され、Vertex AIにてGemmaを使用すれば、開発者はモデルのチューニング、管理、モニタリングをよりシンプルかつ直感的に行う、エンドツーエンドの機械学習プラットフォームの利用が可能になる。Vertex AIの使用によって、運用上のオーバーヘッドを削減するとともに、ユースケースに最適化されたGemmaのカスタムモデルの作成に集中でき、
- テキスト生成、要約、Q&Aといった軽量タスク向け生成AIアプリの構築
- 軽量かつカスタマイズされたモデルを探索と実験に使用した研究開発
- テキストのストリーミングなど、低遅延を必要とするリアルタイムな生成AIユースケースのサポート
が可能になる。
さらに、開発者はGemmaをGoogle Kunernetes Engine(GKE)に直接デプロイして、プロトタイプの構築やモデルの機能テストを行う独自の生成AIを作成できる。
- 関連リンク
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です