Shoeisha Technology Media

CodeZine(コードジン)

特集ページ一覧

Google、AIアプリケーションの7原則を発表

  • LINEで送る
  • このエントリーをはてなブックマークに追加
2018/06/11 15:50

 米Googleの最高経営責任者(CEO)であるサンダー・ピチャイ氏は、同社・公式ブログの6月7日(現地時間)付エントリにおいて、同社が考えるAIアプリケーションの原則を発表した。

 Googleが掲げたAIアプリケーションの原則は以下の通り。

  1. 社会的に有益であること
  2. 不公正なバイアスの作成や強化をしない
  3. 安全のために作成・テストすべし
  4. 人々に対して責任を持つ
  5. プライバシー原則を備える
  6. 科学的に高い水準を維持する
  7. 原則に合致する用途に利用する

 「社会的に有益であること」では、AIアプリケーションの開発にあたって幅広い社会的・経済的要因を考慮し、予測可能なリスクや欠点を大幅に上回る利益があると判断した場合に開発を進める、としている。

 「不公正なバイアスの作成や強化をしない」は、AIアプリケーションによって人種、民族、性別、国籍、所得、性的指向、能力、政治的または宗教的信念など、特定の属性を持つ人々に不当な影響を与えないよう努めることを意味する。

 「安全のために作成・テストすべし」では、AIアプリケーションによる意図しない被害を避けるべく、適切な設計やテスト、およびリリース後の監視を行っていく。

 「人々に対して責任を持つ」では、AIアプリケーションの開発にあたって、フィードバックを受けたり、必要な説明を行ったり、意見を受け付けたりする適切な機会を設けることを宣言している。

 「プライバシー原則を備える」では、AIアプリケーションの設計に際して、ユーザーに通知を行うとともに同意を得ること、プライバシー保護手段を備えたアーキテクチャの推奨によって、データ使用の透明性とコントロールを提供する。

 「科学的に高い水準を維持する」は、科学的に卓越した、高い水準のAIアプリケーションを開発していくとともに、AIアプリケーション開発に有用な教材や用例、研究の提供を通して、AI研究を共有していく。

 「原則に合致する用途に利用する」では、AIアプリケーション開発の際に、その技術が有害な用途に使用されないか、独自性が高く、より一般的な用途に利用可能な技術を提供しているか、社会にどのような影響を与えるか、などを評価する。

 一方で、同社は社会的に有害な、あるいはその可能性がある場合や、人々に直接危害を与えたり、それにつながる武器や関連する技術、国際法や人権に反する分野へのAIアプリケーション開発は行わないという。

 なお同エントリでは、兵器のためのAI開発は行わないものの、他の多くの分野では政府や軍と引き続き協力していく、とも述べている。

関連リンク

  • LINEで送る
  • このエントリーをはてなブックマークに追加
All contents copyright © 2005-2018 Shoeisha Co., Ltd. All rights reserved. ver.1.5