米Netskopeの調査研究部門であるNetskope Threat Labsは、日本企業における生成AIの利用実態と職場での利用拡大にともなう新たなセキュリティリスクを分析した、最新の調査結果を5月28日に発表した。
同調査によれば、日本では従業員が生成AIアプリを直接利用している企業が68%を占めており、国内の企業に勤める全従業員のうち平均1.4%が月間アクティブユーザーとなっている。

もっとも利用されている生成AIアプリはChatGPTで、Google Gemini、Perplexity AI、Microsoft Copilot、GitHub Copilotがそれに続いた。

Netskopeのシステムが検出した、日本のユーザーによる生成AIアプリに機密データを共有しようとするデータポリシー違反の内訳をみると、「知的財産」(90%)が最多となり、以下「規制対象データ」(6%)、「ソースコード」(4%)が続く。世界全体では、「ソースコード」(48%)、「規制対象データ」(23%)、「知的財産」(17%)、「パスワードとアクセスキー」(13%)が上位を占めている。

さらに、日本では従業員の34%が生成AI機能を搭載したビジネスアプリを業務で使用しており、このような状況は98%の日本企業で確認された。さらに、従業員の18%はAIモデルの学習のために収集したデータを利用するアプリを使用している。

そのほか、日本企業の51%がリアルタイムユーザーガイダンスを導入しており、世界平均(34%)を大きく上回っている。リアルタイムユーザーガイダンスは、従業員がリスクの高い操作を行おうとする際に警告を表示し、例えば従業員が機密財務データを含むファイルをChatGPTにアップロードしようとするとプロンプトが表示され、続行するかどうかをユーザーに確認する。Netskopeの調査によれば、従業員の73%がこうした警告メッセージが表示されると操作を中止することが明らかになっているという。
- 関連リンク
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です