Googleは2月12日(現地時間)、AIモデルの開発や運用における責任ある取り組みの実状をまとめた「責任あるAI進捗報告書」の最新版を公表した。
副社長のLaurie Richardson氏(Trust & Safety担当)とHelen King氏(Google DeepMind責任担当)名義で発表された本報告書では、AI原則の導入から運用までを貫くマルチレイヤー型ガバナンス体制や、AIのリスク検証・緩和策の強化について詳述している。
報告書によると、2025年にはAIがより高度でパーソナライズされ、マルチモーダルな技術へと進化し、人々や企業が日常生活やビジネスの中でAIを組み込む動きが加速した。Googleは25年以上にわたるユーザー信頼の知見と、自動化された対抗的テストを組み合わせることで、高度なAIシステムの安全性確保と専門家による監督強化を図ったと説明している。
AI原則に基づく研究開発や製品運用、リリース後の監視と改善までカバーするガバナンスは、AIライフサイクル全体に適応されている。さらに、AI技術がもたらす社会的課題の解決や幅広い利活用を推進する責任についても強調された。公的機関、学術、シビルソサエティとの連携や、ツール・知見の公開にも積極的な姿勢を示している。
- 関連リンク
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
