SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

CodeZineニュース

AIの安全確保技術が学べる「セキュアAI開発トレーニング」を5月より提供開始

  • X ポスト
  • このエントリーをはてなブックマークに追加

  • X ポスト
  • このエントリーをはてなブックマークに追加

 ChillStackと三井物産セキュアディレクションは、AIの安全確保技術を習得できるハンズオン・トレーニング「セキュアAI開発トレーニング」の提供を5月より開始する。

 近年のAIに対する攻撃手法は、既存システムに対する攻撃手法とは根本的に原理が異なるものが多く、従来のセキュリティ技術で対策することが困難となっている。AI開発の工程においても、一例として学習データの汚染やモデルの窃取など、さまざまなリスクが想定される。

 各開発工程でセキュリティを考慮しない場合、攻撃者が細工したデータが学習データに注入され、AIにバックドアが設置されてしまう問題が起きるほか、AIの入力データが偽装されることで、AIの判断に誤りが生じる問題が顕在化するおそれがある。

 今回、ChillStackと三井物産セキュアディレクションは、これまで培ってきたサイバーセキュリティに関する技術と、AIに対する攻撃手法および防御手法に関する研究成果を元に、1からAIの安全確保技術を習得できる「セキュアAI開発トレーニング」を提供することにした。

 「セキュアAI開発トレーニング」では、機械学習エンジニアやデータサイエンティスト、ソフトウェアエンジニアなど、AIの開発・導入に携わる全ての人を対象としている。本トレーニングを受講することで、AIに対する攻撃・防御技術およびセキュアなAIを開発する技術を習得することができる。具体的には、以下の内容を学ぶことが可能。

  • AIをだます攻撃:人間には識別できない小さな変化を加えたデータを使用し、AIを意図的にだます攻撃手法と対策を学べる。
  • AIを乗っ取る攻撃:AIが学習するデータセットを汚染し、AIにバックドアを仕込むことでAIに意図した挙動をさせる攻撃手法と対策を学べる。
  • AIシステムへの侵入:機械学習フレームワークの仕様を悪用し、システムへ侵入する攻撃手法と対策を学べる。
関連リンク

この記事は参考になりましたか?

  • X ポスト
  • このエントリーをはてなブックマークに追加
この記事の著者

CodeZine編集部(コードジンヘンシュウブ)

CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

  • X ポスト
  • このエントリーをはてなブックマークに追加
CodeZine(コードジン)
https://codezine.jp/article/detail/12153 2020/04/03 15:10

おすすめ

アクセスランキング

アクセスランキング

イベント

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング