SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

Women Developers Summit 2022 セッションレポート(AD)

「Transformer」の仕組み──AIによる画像・動画生成や自然言語処理で話題の深層学習モデルを理解する

【B-2】〜今さら聞けない〜話題の深層学習モデル「Transformer」って何?

  • このエントリーをはてなブックマークに追加

AIは言葉をどのように処理しているのか──「Word2vec」と「RNN」

 画像認識や自然言語処理の技術革新に大きな貢献を果たした深層学習モデルに「Transformer」がある。その前に、自然言語処理がどのように進むかを確認しよう。

 例えば「標高が高い山で紅葉が見頃に」という文章があったとする。これがニュースのタイトルだとして、何らかのジャンル(社会、気象、経済)に自動で分類したいなら、意味の理解が必要になる。

 2013年に公開された「Word2vec」では、周囲のコンテキストから単語を予測することで、単語の分散表現を得る。上記の例なら「標高/が/?/山/で」と文章を分解し、「?」の部分の推論を繰り返すことで、単語の出現パターンを学習して単語の意味が含まれたベクトルを生成する。

Word2vec 単語に注目した自然言語処理

Word2vec 単語に注目した自然言語処理

 単語をベクトルにするのは、深層学習(コンピュータ)で処理できるように数値化する必要があるため。原始的な方法は「ワンホットエンコーディング」と呼ばれる手法で、単語ごとに「0」または「1」のフラグで表現したベクトルになる。文章が長くなるとベクトルはとても長くなり、長さの割に情報量が少ない(sparse)ものとなってしまう。

 そこで「Embedding」という手法にすると、固定長の数値で表現できる。よってよりコンパクトになり、数値が近いと意味も近いものになる。例えば「cinema」と「movie」は近い数値となる。こようにWord2vecは単語に注目した自然言語処理だ。

 一方で、文章の意味表現に注目した自然言語処理に「RNN(Recurrent Neural Network)」がある。過去から現在、未来へとデータを継続的に処理することにより単語の順序を考慮し、下図の青い四角「h」の部分、「隠れ状態」と呼ばれる情報を記憶していくニューラルネットワークとなっている。ただしRNNでは単語を順に処理していくため、並列化が困難という課題があった。大量のプロセッサがあっても学習を高速化できないのだ。

RNN 文章の意味表現に注目した自然言語処理

RNN 文章の意味表現に注目した自然言語処理

 2017年、「Attention is all you need」と題した論文で、大きなデータを扱えるTransformerモデルが紹介された。このTransformerモデルもニューラルネットワークアーキテクチャの一種で、単語の意味表現に注目しており、文書の順序を考慮するために「ポジショナルエンコーディング」という手法を採り入れているのが特徴だ。

 なお「Attention」は2015年に発表されており、当時はRNNと一緒に使う必要があった。しかし先の論文ではRNNが必須ではなくなり、TransformerからBERT、GPT-2、T5などのLLM(Large Language Model)が派生している。なかでもPaLMはGoogleが発表した超巨大なLLMで5400億個のパラメーターで学習されている。

 先の論文の共著者らが次々とLLMでスタートアップを起こし、また近年ではLLMはゲームやロボット制御という分野にも進出している。最近ではKaggleユーザーの半数以上がTransformerを使用しているという調査結果もある。

次のページ
Transformerの鍵となるAttention機構とは

この記事は参考になりましたか?

  • このエントリーをはてなブックマークに追加
Women Developers Summit 2022 セッションレポート連載記事一覧

もっと読む

この記事の著者

CodeZine編集部(コードジンヘンシュウブ)

CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

加山 恵美(カヤマ エミ)

フリーランスライター。茨城大学理学部卒。金融機関のシステム子会社でシステムエンジニアを経験した後にIT系のライターとして独立。エンジニア視点で記事を提供していきたい。EnterpriseZine/DB Onlineの取材・記事や、EnterpriseZine/Security Onlineキュレーターも担当しています。Webサイト:http://emiekayama.net

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

【AD】本記事の内容は記事掲載開始時点のものです 企画・制作 株式会社翔泳社

この記事は参考になりましたか?

この記事をシェア

  • このエントリーをはてなブックマークに追加
CodeZine(コードジン)
https://codezine.jp/article/detail/16860 2022/12/26 18:39

おすすめ

アクセスランキング

アクセスランキング

イベント

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング