Facebook AI Research(FAIR)は、ディープラーニングに最適化した科学計算フレームワーク「Torch」向けのモジュールを、1月16日(現地時間)にオープンソースで公開した。
今回公開したモジュールは、Torchデフォルトのモジュールよりも著しく高速で、FAIRが行っている研究における、ニューラルネットワーク接続の高速化を実現する。
また、自然言語処理に用いられている畳み込みネットワーク(ConvNet)向けの、GPU最適化モジュールもあわせて公開している。ConvNet向けモジュールは、NVIDIAのcuFFTライブラリを使用したカスタムCUDAカーネルによる、高速フーリエ変換をベースにした畳み込みレイヤーを収録する。
このほか、データ多重化モデルやモデル多重化モデルを用いて、学習を複数のGPUに分散するコンテナや、単語などの個別のオブジェクトや自然言語の学習に使用される最適化ルックアップテーブル、外部の多数のクラスを利用して学習速度を向上する階層化SoftMaxモジュールなど、複数のCUDAゲースのモジュールやコンテナをあわせて公開している。
【関連リンク】
・Facebook AI Research(英語)
・Torch(英語)
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です