SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

CodeZineニュース

「PyTorch with DirectML」最新版でTransformer関連のモデルのトレーニングが可能に

  • このエントリーをはてなブックマークに追加

  • このエントリーをはてなブックマークに追加

 米Microsoftは、機械学習向けの低レベルAPI「DirectML」のPyTorch向け拡張である「PyTorch with DirectML」の最新バージョン「0.1.13」を12月6日(現地時間)に公開した。

 今回の新版では、トランスフォーマー(Transformer)を利用した学習モデルのトレーニングが可能になった。例えば、GPT2(Generative Pre-trained Transformer 2)、BERT(Bidirectional Encoder Representations from Transformers)、DETR(Detection Transformers)などの学習モデルのトレーニングが可能になる。しかも、DirectMLの特徴であるGPUアクセラレーションを利用して、処理速度を高めることができる。

 PyTorchでは、NVIDIAの「CUDA」やAMDの「ROCm」といったGPUメーカー独自のAPIに対応したバージョンを配布しており、これらのバージョンを利用すればGPUアクセラレーションで処理を高速化できる。ただし、特定のメーカーのGPUが必要になることが問題だった。

 一方DirectMLは、WindowsのDirectX 12が動作するGPUならば、大体のGPUを利用できる。Microsoftは、AMD、Intel、NVIDIA、QualcommのGPUを利用できるとしている。

関連リンク

この記事は参考になりましたか?

  • このエントリーをはてなブックマークに追加
この記事の著者

CodeZine編集部(コードジンヘンシュウブ)

CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

  • このエントリーをはてなブックマークに追加
CodeZine(コードジン)
https://codezine.jp/article/detail/17004 2022/12/12 09:00

おすすめ

アクセスランキング

アクセスランキング

イベント

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング