AIガバナンス協会(AIGA)は、政府・AI制度研究会の議論を踏まえつつ会員意見を集約した、AIリスクへの制度的対処に関する意見書「AIをめぐる制度検討への意見」を10月3日に公表した。
AIGAは、政府による「AI事業者ガイドライン(第1.0版)」など事業者による自主的な取組を基調とするAIガバナンスの潮流を踏まえて、「AIガバナンスの民主化」を掲げて民間の自主取組のハブとして、AIガバナンス実装の知見蓄積・制度への提言を行っている。
AIリスクへの制度的対処に関する意見書の公表は、8月2日に第1回会合が召集されたAI制度研究会が、今秋に中間取りまとめを公表することから、それに先んじて政策枠組みに対する基本的な考え方、および論点について意見集約と発信を行うべく実施された。
同意見書では、AIGAの現状認識と基本姿勢に基づいて、大方針として以下の3点を求めている。
- 技術中立性
- リスクベースアプローチ
- 国際的なイコールフッティング
「技術中立性」としては、保護するべき権利・利益は既存法で保護されていることから、人が侵害した場合と同様にAIが規律される必要はあるものの、過剰な規制を受けることは避けるよう訴える。
「リスクベースアプローチ」としては、ユースケースやモデルの性質によってAI活用のもたらすリスクは大きく異なることから、大味で議論を行うことなくどのような類型がハイリスクであるかを慎重に検討すべきであると指摘した。あわせて、ユースケース単位のリスクについては、必ずしも企業規模の大小とリスクの大小が一致しないことにも留意すべきであり、ハイリスク類型は法規制を検討する一方でローリスク類型については民間認証や自己宣言に委ねるなど、柔軟な規制手法の選択を求めている。
「国際的なイコールフッティング」としては、基盤モデル含めてAIモデル・サービスが国境を超えた市場であることから、日本企業がグローバルに活躍するためにも海外制度との相互運用性の確保を求める。さらに、何かしらの規律を設ける際には日本企業だけが重い負担を負って競争力を削がれるといった事態は避け、海外企業にも実効的な制度とすることによって、内外の企業のレベルプレイングフィールドを確保するよう訴えている。
これらの大方針に基づいて、基盤モデルのリスク対策・学習データの概要などに関する透明性確保や、インシデント発生時などの事後対応を基調とした制度設計といった、AIのみを対象とした規律について考えられる方向性や規制一辺倒の議論ではなく、AIのビジネス活用を後押し・支援する施策も両輪で進めていく必要性などについて取りまとめた。
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です