情報処理推進機構(IPA)内に事務局を置くAIセーフティ・インスティテュート(AISI)は、AIシステムの開発者や提供者がAIセーフティ評価を実施する際に参照できる基本的な考え方を提示すべく、「AIセーフティに関する評価観点ガイド」を9月18日に公開した。
「AIセーフティに関する評価観点ガイド」では、4月に公表された「AI事業者ガイドライン」の内容に加えて、海外文献や関連ツールなどに関する調査を踏まえた、AIセーフティ評価の観点や想定され得るリスクの例、評価項目例、評価の実施者や評価実施時期に関する考え方、評価に関する手法の概要などを提示している。
おもな想定読者はAI開発者・AI提供者で、とりわけ大規模言語モデル(LLM)を構成要素とするAIシステム(LLMシステム)の「開発・提供管理者」や「事業執行責任者」を想定する。
同ガイドは、「AI事業者ガイドライン」の「C.共通の指針」において各主体が取り組む事項とされているもののうち、「人間中心」「安全性」「公平性」「プライバシー保護」「セキュリティ確保」「透明性」を重要要素としている。これら6つの重要要素に関連するAIセーフティ評価の観点を、昨今の技術的潮流を踏まえて導出した。
そのほか同ガイドでは、評価に関する手法として「技術的評価」と「マネジメント的評価」を挙げ、技術的評価の概要としてツールを用いた対策の検証、ツール以外も取り入れたレッドチーミングによる検証などを概説するとともに、評価に際しての留意事項も示している。
この記事は参考になりましたか?
- この記事の著者
-
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です