今回の新たなデータ並列処理ライブラリのサポートによって、GPUリソースの最大90%をデータ転送ではなく、トレーニングに使用可能となり、これまで機械学習プロジェクトにとって深刻なボトルネックとなっていた、トレーニング時間の長さを解消できる。
分散トレーニングジョブはGPU数に関係なく、ほぼ線形のスケーリング効率を実現しており、トレーニングコストとトレーニング時間の間のトレードオフを効果的に排除し、機械学習チームがより早く結果を取得し、より迅速に反復し、イノベーションを加速できるようにする。
なお、「AWS re:Invent 2020」の基調講演では、T5-3BとMask-RCNNにおいてこれまでで最速のトレーニング時間が示されている。
Amazon SageMakerの新たなデータ並列処理ライブラリは、Amazon SageMakerが利用可能なすべてのリージョンにて、追加費用なしで利用できる。