AIセーフティ・インスティテュート(以下、AISI)は7月10日、事業実証ワーキンググループがまとめたビジョンペーパーを公開した。同ペーパーでは、AIの活用促進に向け、AIセーフティ評価に関する共通理解の醸成と具体的な実装への道筋を示している。
AI技術が目まぐるしく進化する中、その高い利便性の一方で、AIセーフティに関するリスクも常に変化している。信頼に足るAIとして利活用を促進するためには、AIセーフティ評価を通じてリスクの把握を行い、受容可能なレベルを超えている場合はリスクの軽減策を実施するループを回すことが有用と考えられる。

このためには、AIの用途やリスク特性に応じたAIセキュリティ評価フレームワークの整備が必要であり、AISIはAIセーフティ評価に関するワーキンググループの設置によって活動を進めてきた。
現在、ワーキンググループでは、分野別もしくは分野共通の評価手法を検討するためにサブワーキンググループが設置され、評価観点やツールの整備を行っている。

同組織は、今後もAIの利活用を促進するAIセーフティ評価の確立に向けて、段階的・継続的な取組みを実施する予定だ。
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です