Sustainable Japan | 世界のサステナビリティ・ESG投資・SDGs

【国際】英政府、ブレッチリー宣言発表。28ヶ国・地域署名。AI安全性での国際協調

 英政府は11月1日、バッキンガムシャーのブレッチリー・パークで、AIの安全性に焦点をあてた世界初のサミット「AI安全サミット」を開催。各国政府、主要なAI企業、NGO、アカデミアを招聘し、AIのリスクについて議論した。また「ブレッチリー宣言」を発表し、28ヶ国・地域が署名した。

【参考】【イギリス】オンライン安全法成立。AI安全では大手7社がポリシー制定。市場リード狙う(2023年10月31日)

 ブレッチリー宣言は、特に開発フェーズでのAIリスクについて各国政府での共通認識を確認したもの。同宣言では、AIは社会にポジティブインパクトをもたらしうると認識しつつ、日常生活の領域を含め、重大なリスクももたらしうることを確認。観点とし、人権の保護、透明性と説明可能性、公平性、説明責任、規制、安全性、適切な人的監視、倫理、偏見の緩和、プライバシー、データ保護を挙げた。ディープフェイクや偽情報、欺瞞的な生成コンテンツ等のリスクも重視した。

 このような安全性リスクが発生する分野は、非常に能力の高い汎用AIモデルや特定の狭いAI(「フロンティアAI」と呼称)とし、意図的な誤用と意図しない問題の双方の懸念があるとした。また、これらのAI能力の向上は予測が困難で、サイバーセキュリティやバイオテクノロジー等の領域や、偽情報に関し重大なリスクとなりうるとした。そのため、同分野ではマルチステークホルダーでの国際協調が必要とした。また、フロンティアAIの開発事業者には、安全性テストの仕組み、評価、その他の適切な手段を含め、これらのAIシステムの安全性を確保するための特に強い責任があることを確認した。

 同宣言では、今後の重要アジェンダとして2つを設定した。

  • AIインパクトを理解するための、より広範でグローバルなアプローチとの関連において、共有される懸念のあるAIの安全リスクを特定し、これらのリスクに関する科学的かつエビデンスに基づく共通理解を構築し、能力が増大し続ける中でその理解を維持すること
  • そのようなリスクに照らして安全性を確保するため、各国間でそれぞれのリスクに基づく政策を構築し、各国の状況や適用される法的枠組みによってアプローチが異なる可能性があることを認識しつつ、適宜協力する。これには、フロンティアAIの能力を開発する民間主体による透明性の向上、適切な評価指標、安全性テストのためのツール、関連する公共部門の能力と科学的研究の開発が含まれる。

 同宣言に署名したのは、英国、米国、カナダ、日本、韓国、中国、EU、ドイツ、フランス、イタリア、スペイン、オランダ、アイルランド、スイス、ウクライナ、イスラエル、オーストラリア、シンガポール、インドネシア、フィリピン、インド、サウジアラビア、アラブ首長国連邦(UAE)、トルコ、ブラジル、チリ、ケニア、ナイジェリア、ルワンダ。

同宣言は今後、既存の国際フォーラムやその他の関連するイニシアチブを含め、フロンティアAIの安全性に関する科学的研究の国際的に包括的なネットワークを支援することでも合意。半年後に英国と韓国が共催でミニ・バーチャルサミットを開催し、2024年の本サミットはフランスで行われる。

【参照ページ】Countries agree to safe and responsible development of frontier AI in landmark Bletchley Declaration
【参照ページ】The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023

ここから先は登録ユーザー限定のコンテンツとなります。ログインまたはユーザー登録を行って下さい。

 英政府は11月1日、バッキンガムシャーのブレッチリー・パークで、AIの安全性に焦点をあてた世界初のサミット「AI安全サミット」を開催。各国政府、主要なAI企業、NGO、アカデミアを招聘し、AIのリスクについて議論した。また「ブレッチリー宣言」を発表し、28ヶ国・地域が署名した。

【参考】【イギリス】オンライン安全法成立。AI安全では大手7社がポリシー制定。市場リード狙う(2023年10月31日)

 ブレッチリー宣言は、

ここから先は登録ユーザー限定のコンテンツとなります。ログインまたはユーザー登録を行って下さい。

 英政府は11月1日、バッキンガムシャーのブレッチリー・パークで、AIの安全性に焦点をあてた世界初のサミット「AI安全サミット」を開催。各国政府、主要なAI企業、NGO、アカデミアを招聘し、AIのリスクについて議論した。また「ブレッチリー宣言」を発表し、28ヶ国・地域が署名した。

【参考】【イギリス】オンライン安全法成立。AI安全では大手7社がポリシー制定。市場リード狙う(2023年10月31日)

 ブレッチリー宣言は、

ここから先は登録ユーザー限定のコンテンツとなります。ログインまたはユーザー登録を行って下さい。

ここから先は有料登録会員限定のコンテンツとなります。有料登録会員へのアップグレードを行って下さい。

 英政府は11月1日、バッキンガムシャーのブレッチリー・パークで、AIの安全性に焦点をあてた世界初のサミット「AI安全サミット」を開催。各国政府、主要なAI企業、NGO、アカデミアを招聘し、AIのリスクについて議論した。また「ブレッチリー宣言」を発表し、28ヶ国・地域が署名した。

【参考】【イギリス】オンライン安全法成立。AI安全では大手7社がポリシー制定。市場リード狙う(2023年10月31日)

 ブレッチリー宣言は、特に開発フェーズでのAIリスクについて各国政府での共通認識を確認したもの。同宣言では、AIは社会にポジティブインパクトをもたらしうると認識しつつ、日常生活の領域を含め、重大なリスクももたらしうることを確認。観点とし、人権の保護、透明性と説明可能性、公平性、説明責任、規制、安全性、適切な人的監視、倫理、偏見の緩和、プライバシー、データ保護を挙げた。ディープフェイクや偽情報、欺瞞的な生成コンテンツ等のリスクも重視した。

 このような安全性リスクが発生する分野は、非常に能力の高い汎用AIモデルや特定の狭いAI(「フロンティアAI」と呼称)とし、意図的な誤用と意図しない問題の双方の懸念があるとした。また、これらのAI能力の向上は予測が困難で、サイバーセキュリティやバイオテクノロジー等の領域や、偽情報に関し重大なリスクとなりうるとした。そのため、同分野ではマルチステークホルダーでの国際協調が必要とした。また、フロンティアAIの開発事業者には、安全性テストの仕組み、評価、その他の適切な手段を含め、これらのAIシステムの安全性を確保するための特に強い責任があることを確認した。

 同宣言では、今後の重要アジェンダとして2つを設定した。

  • AIインパクトを理解するための、より広範でグローバルなアプローチとの関連において、共有される懸念のあるAIの安全リスクを特定し、これらのリスクに関する科学的かつエビデンスに基づく共通理解を構築し、能力が増大し続ける中でその理解を維持すること
  • そのようなリスクに照らして安全性を確保するため、各国間でそれぞれのリスクに基づく政策を構築し、各国の状況や適用される法的枠組みによってアプローチが異なる可能性があることを認識しつつ、適宜協力する。これには、フロンティアAIの能力を開発する民間主体による透明性の向上、適切な評価指標、安全性テストのためのツール、関連する公共部門の能力と科学的研究の開発が含まれる。

 同宣言に署名したのは、英国、米国、カナダ、日本、韓国、中国、EU、ドイツ、フランス、イタリア、スペイン、オランダ、アイルランド、スイス、ウクライナ、イスラエル、オーストラリア、シンガポール、インドネシア、フィリピン、インド、サウジアラビア、アラブ首長国連邦(UAE)、トルコ、ブラジル、チリ、ケニア、ナイジェリア、ルワンダ。

同宣言は今後、既存の国際フォーラムやその他の関連するイニシアチブを含め、フロンティアAIの安全性に関する科学的研究の国際的に包括的なネットワークを支援することでも合意。半年後に英国と韓国が共催でミニ・バーチャルサミットを開催し、2024年の本サミットはフランスで行われる。

【参照ページ】Countries agree to safe and responsible development of frontier AI in landmark Bletchley Declaration
【参照ページ】The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023

ここから先は登録ユーザー限定のコンテンツとなります。ログインまたはユーザー登録を行って下さい。