Google Threat Intelligence Groupは2月13日(現地時間)、2025年末におけるAIの悪用事例と対策状況に関する四半期レポートを公開した。同レポートでは、AI技術、とくに大規模言語モデル(LLM)を攻撃者がどのように攻撃活動へ統合しているか、その最新潮流を分析している。
GTIGは、AIモデルの知的財産を狙った「モデル抽出(ディスティレーション)攻撃」の増加を確認している。具体的には、GeminiなどのAIサービスAPIを介し、モデルの内部論理や推論過程を模倣する動きが観測された。2025年中には政府系高度持続的脅威(APT)による前線モデルへの直接攻撃は確認されなかったが、民間企業や研究者など多様な主体による抽出攻撃が頻発していたという。Googleはこれらの攻撃に対して、資産やアカウントの無効化などの措置を講じた。
さらに、中国、イラン、北朝鮮、ロシアに関連するAPTグループが、AIを活用した標的型フィッシング、偵察、コード生成、マルウェア開発を高度化させている点が指摘された。北朝鮮関連グループは防衛・サイバー企業への偵察やフィッシング活動、イランのAPT42はAIを用いた情報収集や信頼構築型のフィッシングに悪用していた。AIによるコンテンツ生成で、本物に近いメールや多言語対応も行われていた。
マルウェア分野では、GeminiのAPIを利用し2段階マルウェアのコード生成・実行を行う「HONESTCUE」などAI統合型マルウェアも確認された。また、AI生成ツールを用いたフィッシングキット「COINBAIT」やAIの公開チャット機能を利用した「ClickFix」型社会的エンジニアリングも出現している。これらは従来の防御をすり抜ける新たな攻撃ベクトルとなっている。
- 関連リンク
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
