Amazon Web Servicesは、Amazon SageMakerが数百GBまたは数千GBのデータセットでモデルを簡単にトレーニングできる、新たなデータ並列処理ライブラリをサポートしたことを、12月8日(現地時間)に発表した。
今回の新たなデータ並列処理ライブラリのサポートによって、GPUリソースの最大90%をデータ転送ではなく、トレーニングに使用可能となり、これまで機械学習プロジェクトにとって深刻なボトルネックとなっていた、トレーニング時間の長さを解消できる。
分散トレーニングジョブはGPU数に関係なく、ほぼ線形のスケーリング効率を実現しており、トレーニングコストとトレーニング時間の間のトレードオフを効果的に排除し、機械学習チームがより早く結果を取得し、より迅速に反復し、イノベーションを加速できるようにする。
なお、「AWS re:Invent 2020」の基調講演では、T5-3BとMask-RCNNにおいてこれまでで最速のトレーニング時間が示されている。
Amazon SageMakerの新たなデータ並列処理ライブラリは、Amazon SageMakerが利用可能なすべてのリージョンにて、追加費用なしで利用できる。
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です