JetBrainsは、6月11日、コード補完に特化した大規模言語モデル(LLM)「Mellum」が、NVIDIAのマイクロサービス「NVIDIA Inference Microservices」(NIM)上で利用可能になったことを発表した。
JetBrains Mellumは、同社が独自開発したクラウドで動作するLLMで、コード補完の用途に特化している。
このJetBrains Mellumが、NVIDIA AI Factories上でコンテナ化されたマイクロサービスとして実行できるようになった。クラウド、オンプレミス、ハイブリッド環境など、あらゆるNVIDIAアクセラレーションインフラストラクチャに導入が可能だ。
これまで、JetBrains MellumはJetBrains IDEやHugging Face上で利用できた。今回NVIDIA AI Enterpriseの一部であるNVIDIA NIM上で実行できるようになったことで、エンタープライズ水準で安全にMellumを導入でき、独自の環境やカスタムパイプライン、CI/CDフローへの統合にも対応できる。
- 関連リンク
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です