SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

CodeZineニュース

Red Hat、大規模AI推論を実現するオープンソースプロジェクト「llm-d」立ち上げ

  • X ポスト
  • このエントリーをはてなブックマークに追加

  • X ポスト
  • このエントリーをはてなブックマークに追加

 Red Hatは、大規模生成AI推論を可能にするオープンソースプロジェクトとして「llm-d」コミュニティを立ち上げたことを、年次カンファレンス「Red Hat Summit 2025」にて発表した。

 llm-dは、KubernetesアーキテクチャとvLLMベースの分散推論、AI対応のインテリジェントネットワークルーティングを基盤に、堅牢な大規模言語モデル(LLM)推論クラウドを実現し、最も厳しい本番環境のサービスレベル目標(SLO)の達成を可能にする。

 vLLMは新興フロンティアモデルのDay 0サポートと、Google Cloud Tensor Processor Units(TPU)を含む幅広いアクセラレータのサポートを提供。また、prefillとdecodeの分割によって、AI の入力コンテキストとトークン生成フェーズを個別の操作に分離し、複数のサーバーに分散できるようになる。

 さらに、Kubernetesを活用したクラスターとコントローラーにより、パフォーマンスを維持し、レイテンシを短縮しながら、ワークロードの需要の変動に応じてリソースを効率的に活用できる。

 このプロジェクトは、CoreWeave、Google Cloud、IBM Research、NVIDIAといった創設メンバーと、AMD、Cisco、Hugging Faceといった業界リーダー、そしてカリフォルニア大学バークレー校などの大学と連携して推進されている。

 Red Hatのシニアバイスプレジデント兼AI CTOのBrian Stevens氏は、llm-dの立ち上げにあたり「vLLMの革新性とKubernetesの実績ある機能を活用することで、llm-dは、拡張されたハイブリッドクラウド全体にわたる分散型、スケーラブル、そして高性能なAI推論への道を切り開く」と述べている。

 llm-dの詳細は公式サイトから確認できる。

関連リンク

この記事は参考になりましたか?

  • X ポスト
  • このエントリーをはてなブックマークに追加
この記事の著者

CodeZine編集部(コードジンヘンシュウブ)

CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

  • X ポスト
  • このエントリーをはてなブックマークに追加
CodeZine(コードジン)
https://codezine.jp/article/detail/21600 2025/05/27 18:00

おすすめ

アクセスランキング

アクセスランキング

イベント

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング