SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

CodeZineニュース

Modular、わずかな変更でAI推論のパフォーマンスを大幅に向上できる「Modular Accelerated Xecution(MAX)」のLinux向けシステムをプレビュー

  • X ポスト
  • このエントリーをはてなブックマークに追加

  • X ポスト
  • このエントリーをはてなブックマークに追加

 米Modularは、優れたAI推論パイプラインのパフォーマンス、プログラマビリティ、移植性を実現するツールとライブラリのセットである、「Modular Accelerated Xecution(MAX)」のLinux向けシステムを、2月29日(現地時間)に開発者向けプレビューとして公開した。

 MAXは、AI導入にあたっての厳しいニーズにも応えられるよう、低遅延、高スループットのリアルタイム推論パイプラインを実稼働環境へ導入するために必要なすべてを提供し、MAX Engine、MAX Serving、Mojoという3つの主要コンポーネントで構成されている。

 MAX Engineは、PyTorch、TensorFlowやMistral、Stable Diffusion、Llama2、WavLM、DLMR、ClipVitといったONNXモデルをサポートする最先端のAIコンパイラおよびランタイムシステム。

 MAX Servingは、MAX Engineの効率的なサービングラッパであり、NVIDIA Tritonなど現在のAIサービングシステムとのシームレスな相互運用性と、Kubernetesなどコンテナエコシステムへのスムーズなデプロイメントを可能にする。

 Mojoは、AI開発のためにゼロから構築されたプログラミング言語。あらゆるハードウェアにおいて、非常に優れたパフォーマンスとプログラマビリティを実現する、最先端のコンパイラテクノロジを備えている。

 MAXは、AI開発者の現在の状況に応えるよう構築されており、現在のモデルのパフォーマンスを直ちに向上させるとともに、既存のツールチェーンおよびサービングインフラストラクチャとシームレスに統合して、最小限のコード変更でその恩恵を実感できる。

 具体的には、PythonまたはC APIを使用して、既存のPyTorch、TensorFlow、ONNXによる推論呼び出しをMAX Engineによる推論呼び出しへ置き換えるだけで、パフォーマンスの向上が実現する。さらに、NVIDIA Triton Inference ServerのバックエンドとしてMAX EngineをMAX Servingでラップすることによって、実稼働品質のデプロイスタックを実現できる。

関連リンク

この記事は参考になりましたか?

  • X ポスト
  • このエントリーをはてなブックマークに追加
この記事の著者

CodeZine編集部(コードジンヘンシュウブ)

CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

  • X ポスト
  • このエントリーをはてなブックマークに追加
CodeZine(コードジン)
https://codezine.jp/article/detail/19190 2024/03/13 12:00

おすすめ

アクセスランキング

アクセスランキング

イベント

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング