NRIセキュアテクノロジーズは、AIエージェントシステムを構築する企業向けに、設計段階で潜在脅威を洗い出し、対策案を提示するサービス「AI Yellow Team」を、7月29日より提供する。
近年、MCPへの準拠によってAIモデルを外部データソースやツールと連携させ、複数のAIエージェントを協調させる動きが進んでいる。
一方で、AIエージェントの自律的な実行能力が悪用され、エージェントが果たすべき目的が段階的に書き換えられる、あるいは正当な権限と機能を組み合わせた攻撃を受けるなど、新たな脅威も想定される。
同サービスは、同社の専門家がAIエージェントシステムの設計段階でセキュリティ対策の妥当性を評価し、適切な対策を提案するものだ。具体的には、まず設計書から、システムアーキテクチャ、仕様をヒアリングし、各機能で脅威分析用のアーキテクチャとデータフロー図を作成して可視化。それを基に、システムに対する潜在的脅威を洗い出し、想定されるリスクを分析する。ここで洗い出された脅威に対する対策が「セキュリティ要件一覧」として提示される。
同社は、AIを活用したシステムを対象に、リリース前のセキュリティ診断サービス「AI Red Team」と、リリース後のセキュリティ監視サービス「AI Blue Team」を提供しており、今回リリースした「AI Yellow Team」と併せて、より安全性の高いシステムの構築と運用を実現する。

- 関連リンク
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です