米Googleは、サーバレスでの機械学習モデルを提供するVertex Predictionsの新機能として、プライベートエンドポイントの提供を8月26日(現地時間)に開始した。
Vertex Predictionsによって機械学習モデルをクラウドでホストし、REST APIを介して予測を行う際に、オンライン予測が必要な場合はモデルをエンドポイントにデプロイする必要があり、モデルをエンドポイントにデプロイすることで、物理リソースがモデルに関連付けられるので、低レイテンシで予測を提供できる。
モデルをエンドポイントにデプロイする際に、プライベートエンドポイントを作成することによって、システムのリクエスト受信時に、予測の提供にかかる時間が短縮可能になるとともに、セキュリティ面でもメリットがある。
プライベートエンドポイントに起因するオーバーヘッドは最小限であり、GKEまたはGCEでのDIYサービスとほぼ同じパフォーマンスを実現し、プライベートエンドポイントにデプロイされたモデルにおけるペイロードサイズの制限はない。
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です