Sustainable Japan | 世界のサステナビリティ・ESG投資・SDGs

【アメリカ】グーグル、武器や過渡な監視に資するAI技術の活用を自主的に禁止

 IT世界大手米グーグルは6月7日、人工知能(AI)の活用に関する原則を発表した。AIが人間社会に悪影響を及ぼす可能性になるという指摘もある中、自主的にAIの活用分野を限定する動きに出た。

 グーグルの活用原則ではまず、以下の観点でAI応用分野の評価を行う。

  • 社会的な便益:社会・経済的便益が社会・経済的リスクを上回る分野でAI技術を活用する
  • 不公平な偏見:人種、民族、ジェンダー、国籍、所得、性的指向、能力、政治・宗教的信念に関する偏見生成を避ける
  • 安全性の構築:AI安全性研究のベストプラクティスに沿った開発を行う
  • 人間に対する説明責任:人間がコントロールできるAIを開発する
  • プライバシー:AI技術の開発や使用でプライバシー原則を適用する
  • 科学の発展:様々なステークホルダーと協働し、科学的知見を学界等に共有する
  • 活用制限:損害や悪用の恐れのある目的でAI技術が活用されないかの事前確認を実施する

 それに伴い、以下の分野に対しては、AI技術の活用を禁止した。

  • 危害を加える可能性の高い技術
  • 武器
  • 国際的な規範に違反する監視
  • 国際法や人権原則に違反する技術

【参照ページ】AI at Google: our principles

 IT世界大手米グーグルは6月7日、人工知能(AI)の活用に関する原則を発表した。AIが人間社会に悪影響を及ぼす可能性になるという指摘もある中、自主的にAIの活用分野を限定する動きに出た。

 グーグルの活用原則ではまず、以下の観点でAI応用分野の評価を行う。

  • 社会的な便益:社会・経済的便益が社会・経済的リスクを上回る分野でAI技術を活用する
  • 不公平な偏見:人種、民族、ジェンダー、国籍、所得、性的指向、能力、政治・宗教的信念に関する偏見生成を避ける
  • 安全性の構築:AI安全性研究のベストプラクティスに沿った開発を行う
  • 人間に対する説明責任:人間がコントロールできるAIを開発する
  • プライバシー:AI技術の開発や使用でプライバシー原則を適用する
  • 科学の発展:様々なステークホルダーと協働し、科学的知見を学界等に共有する
  • 活用制限:損害や悪用の恐れのある目的でAI技術が活用されないかの事前確認を実施する

 それに伴い、以下の分野に対しては、AI技術の活用を禁止した。

  • 危害を加える可能性の高い技術
  • 武器
  • 国際的な規範に違反する監視
  • 国際法や人権原則に違反する技術

【参照ページ】AI at Google: our principles

 IT世界大手米グーグルは6月7日、人工知能(AI)の活用に関する原則を発表した。AIが人間社会に悪影響を及ぼす可能性になるという指摘もある中、自主的にAIの活用分野を限定する動きに出た。

 グーグルの活用原則ではまず、以下の観点でAI応用分野の評価を行う。

  • 社会的な便益:社会・経済的便益が社会・経済的リスクを上回る分野でAI技術を活用する
  • 不公平な偏見:人種、民族、ジェンダー、国籍、所得、性的指向、能力、政治・宗教的信念に関する偏見生成を避ける
  • 安全性の構築:AI安全性研究のベストプラクティスに沿った開発を行う
  • 人間に対する説明責任:人間がコントロールできるAIを開発する
  • プライバシー:AI技術の開発や使用でプライバシー原則を適用する
  • 科学の発展:様々なステークホルダーと協働し、科学的知見を学界等に共有する
  • 活用制限:損害や悪用の恐れのある目的でAI技術が活用されないかの事前確認を実施する

 それに伴い、以下の分野に対しては、AI技術の活用を禁止した。

  • 危害を加える可能性の高い技術
  • 武器
  • 国際的な規範に違反する監視
  • 国際法や人権原則に違反する技術

【参照ページ】AI at Google: our principles

ここから先は有料登録会員限定のコンテンツとなります。有料登録会員へのアップグレードを行って下さい。

 IT世界大手米グーグルは6月7日、人工知能(AI)の活用に関する原則を発表した。AIが人間社会に悪影響を及ぼす可能性になるという指摘もある中、自主的にAIの活用分野を限定する動きに出た。

 グーグルの活用原則ではまず、以下の観点でAI応用分野の評価を行う。

  • 社会的な便益:社会・経済的便益が社会・経済的リスクを上回る分野でAI技術を活用する
  • 不公平な偏見:人種、民族、ジェンダー、国籍、所得、性的指向、能力、政治・宗教的信念に関する偏見生成を避ける
  • 安全性の構築:AI安全性研究のベストプラクティスに沿った開発を行う
  • 人間に対する説明責任:人間がコントロールできるAIを開発する
  • プライバシー:AI技術の開発や使用でプライバシー原則を適用する
  • 科学の発展:様々なステークホルダーと協働し、科学的知見を学界等に共有する
  • 活用制限:損害や悪用の恐れのある目的でAI技術が活用されないかの事前確認を実施する

 それに伴い、以下の分野に対しては、AI技術の活用を禁止した。

  • 危害を加える可能性の高い技術
  • 武器
  • 国際的な規範に違反する監視
  • 国際法や人権原則に違反する技術

【参照ページ】AI at Google: our principles