米Amazon Web Servicesは、米NVIDIAの最新データセンター向けGPU「H100 Tensor Core」を搭載したインスタンス「P5」の提供を7月26日(現地時間)に開始した。最近、各社の生成AIの性能が急上昇しているが、訓練にかかる時間もどんどん長くなっている。また、ハイ・パフォーマンス・コンピューティング(HPC)で扱うデータ量も膨大なものになっており、コンピュータに大きな負荷がかかるようになっている。Amazon Web Servicesは、現存するGPUのうち最高の性能を誇るH100 Tensor Coreを搭載したインスタンスを提供して、生成AIの訓練やHPCなどの用途に向けてより高性能なコンピュータを求める声に応える構えだ。
今回提供を始めるP5インスタンスの正式名称は「p5.48xlarge」。H100 Tensor Core GPUを8基搭載し、GPUメモリは合計で640Gバイトに達する。プロセッサは米Advanced Micro Devices(AMD)の第3世代「EPYC」で、仮想コア数は合計で192。2Tバイトのメモリと、30TバイトのNVMeストレージ、3.2Tbpsのネットワーク接続を備える。そして、PCI Express接続の機器とGPUの間で直接データをやり取りすることを可能にする技術「GPUDirect RDMA」に対応している。これによって、GPUメモリのデータを直接ネットワークに送り出したり、ネットワーク経由で届いたデータをそのままGPUメモリに取り込めるようになっており、複数インスタンスを利用したスケールアウト構成で性能を高めやすくなっている。
Amazon Web ServicesはP5インスタンスについて、生成AIの訓練時間が前世代のGPUインスタンスに比べて6倍高速だとしており、数日かかっていた訓練が数時間が完了するようになるとアピールしている。訓練にかかる時間が短くなることで、訓練に使用するインスタンスの使用料も40%削減できるという。
P5インスタンスは、米国東部(バージニア北部)と、米国西部(オレゴン)の2カ所のリージョンで利用できる。利用料金は1時間当たり98.32米ドルから。
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です