Cloudflareは3月5日、新たな保護レイヤー「Firewall for AI」の開発を発表した。本サービスでは、不正行為やサイバー攻撃が大規模言語モデル(LLM)に到達し、改ざんを実行する前にそれらの脅威を特定する。
LLMの保護においては、そのモデル自体が事前に定められたものではないため、適切なセキュリティシステムを組み込むことが困難。その結果、今日のLLMは脅威アクターにとっては絶好の侵入経路になり、企業や組織はモデルの改ざんや攻撃に対して脆弱な状態に置かれている。
「Firewall for AI」は、Cloudflare Workers AI上で動作するあらゆるLLMの前に、デプロイできる。ユーザーが送信したプロンプトをスキャンし評価することで、AIモデルを悪用してデータを盗み出そうとする行為を的確に特定する。また、エンドユーザーの至近距離にデプロイされるため、悪意のある行為から人的な介入を必要とせずにAIモデルを保護する。
本サービスは、Cloudflare Workers AI上でLLMが実行されている場合に、デフォルトで無償で実装される。
- 関連リンク
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です