情報処理推進機構(IPA)のAIセーフティ・インスティテュート(AISI)は、画像解析などAIの活用の幅が広がっている動向を踏まえて、2024年9月に公開した「AIセーフティに関する評価観点ガイド」を、マルチモーダル基盤モデルを評価対象とする場合のAIセーフティの評価観点や各観点における評価項目例を調査して改訂を行ったことを、4月2日に発表した。
「AIセーフティに関する評価観点ガイド」は、AIシステムの開発者や提供者がAIセーフティ評価を実施する際に参照できる基本的な考え方を提示すべく公開されている。
第1.00版では、テキストを入出力にするようなLLMを構成要素とするAIシステムを対象としていたが、画像を扱うような多様なAIシステムを対象としたAIセーフティ評価の要請が高まっていた。
今回の改訂にあたっては、マルチモーダル基盤モデルを構成要素とするAIシステムのAIセーフティに関わる脅威やリスク、AIセーフティ評価手法などを記載した文献に対する調査結果を踏まえて、おもに画像などを含むマルチモーダル情報を扱うAIシステムの評価において重要となる「有害情報の出力制御」「公平性と包摂性」「プライバシー保護」「セキュリティ確保」「ロバスト性」「データ品質」の観点について評価項目例を追記し、第1.10版として公表している。
同書のおもな想定読者はAI開発者やAI提供者で、とりわけ「開発・提供管理者」や「事業執行責任者」に適しており、LLMを構成要素とするAIシステム(LLMシステム)を想定する。
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です