独立行政法人情報処理推進機構内の事務局であるAISIは9月16日、AIシステムの開発者や提供者がAIセーフティ評価を実施する際に参照できる基本的な考え方として「AIセーフティに関する評価観点ガイド」を公開。また併せて、評価ツールをGitHub上にOSSとして公開した。
AIセーフティ評価は、対象のAIシステムやAIモデルに対して、ツールがセーフティ評価のための質問文を入力して実施。

同組織は、AIセーフティ評価の10の観点を以下で定義している。
- 有害情報の出力制御
- 偽誤情報の出力・誘導の防止
- 公平性と包摂性
- ハイリスク利用・目的外利用への対処
- プライバシー保護
- セキュリティ確保
- 説明可能性
- ロバスト性
- データ品質
- 検証可能性
同ツールでは幅広い観点から評価するため、AIシステムへの入出力の内容から統計的に評価を行う定量評価と、評価者にAIシステムの現状を問う定性評価を組み合わせて総合的な評価を行う。

この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です