SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

CodeZineニュース

NTT、特化型AIの新たな学習方法を確立 再学習コストを削減

  • X ポスト
  • このエントリーをはてなブックマークに追加

  • X ポスト
  • このエントリーをはてなブックマークに追加

 NTTは7月9日、特化型AIの基盤モデル変更に伴う再学習を不要にする新たな学習の取り組みとして「ポータブルチューニング」技術を確立したと発表した。

 近年の特化モデルは、高性能かつ多様なAI基盤モデルをベースに、個別のデータセットでチューニングを行って高精度化することが一般的になっている。

 一方、基盤モデルは知識の最新化等で定期的に更新されるため、合わせて特化モデルを追随させるための再学習が必要となり、その計算コストや人的コストが課題になっている。

 コストを抜本的に削減するためのアプローチとして、既存の学習結果を様々な基盤モデルに転移させる「学習転移」があるが、実用上は高い精度を達成するため追加学習が必要になるなど課題があった。

 そこで今回の研究では、学習転移に適した新たな学習の枠組みとして「ポータブルチューニング」を導出した。

ポータブルチューニングの概要
ポータブルチューニングの概要

 この枠組みは従来と異なり、基盤モデルから独立した「報酬モデル」を導入している。報酬モデルを特化学習することで、基盤モデルの更新があっても追加学習は不要になる。

 同技術によって、特化モデルの再学習コスト削減は勿論、再学習を行った場合に期待される効果を事前にシミュレーションするといった応用も想定される。

関連リンク

この記事は参考になりましたか?

  • X ポスト
  • このエントリーをはてなブックマークに追加
この記事の著者

CodeZine編集部(コードジンヘンシュウブ)

CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

  • X ポスト
  • このエントリーをはてなブックマークに追加
CodeZine(コードジン)
https://codezine.jp/article/detail/21887 2025/07/11 09:00

おすすめ

アクセスランキング

アクセスランキング

イベント

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング