Anthropicは4月23日(現地時間)、同社のAIモデル「Claude」が悪用された複数のケーススタディと、その対応策をまとめたレポートを発表した。報告された悪用の内容は、SNSボットアカウントの影響操作キャンペーンの自動化、IoTデバイス攻撃支援、詐欺メールの言語補正、初心者によるマルウェア作成支援など多岐にわたる。
最も印象的な事例として紹介されているのは、Claudeが影響操作サービス(influence-as-a-service)として利用され、SNSボットによる「いいね」「シェア」などの投稿の最適化に用いられ、複数の政治的立場を装った情報拡散が自動化されていたというケース。コンテンツ生成のみならず、複数の政治的立場を持つペルソナに基づいて、ソーシャルメディアボットアカウントがどのようなアクションを取るべきかを決定するオーケストレーターとして利用されていた。
また、認証情報収集の自動化や、リクルート詐欺の英文生成、技術スキルの低い個人によるマルウェア開発など、さまざまな事例が報告されている。
Anthropicはこうした事例に対して、すべての関与アカウントを停止。さらに、これらのケースをもとに検知・対策の精度を強化し、同様の悪用が発生しにくい仕組みを構築中としている。
同社は、生成AIの進化により、技術的に未熟な個人でも、かつては専門知識が必要だった不正行為の実行や自動化システムの構築が可能になりつつあると指摘している。特に、今後のエージェント型AIの普及とともに、こうしたリスクはさらに拡大していく可能性があるとしている。
【関連記事】
・GitHub、「GitHub Copilot」にてClaude 3.7 SonnetやOpenAI o3-miniといった複数のモデルを一般公開
・Anthropic、ClaudeによるWeb検索を米国内の有料プランユーザーにプレビュー。より最新かつ関連性の高い回答を提供
・Anthropic、これまででもっともインテリジェントなハイブリッド推論モデル「Claude 3.7 Sonnet」を発表
・AnthropicとAWS、AmazonからAnthropicへの40億ドルの投資を含む連携の拡大を発表
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です