Skip navigation
サステナビリティ・
ESG金融のニュース
時価総額上位100社の97%が
Sustainable Japanに登録している。その理由は?

【国際】AIソウル・サミット、閣僚声明に28カ国署名。16社もAIリスク評価に自主コミット

 英政府と韓国政府は5月21日、22日、韓国ソウル特別市で「AIソウル・サミット」を開催した。「安全性」「イノベーション」「インクルージョン」の3つを主要議題とし、官民双方の関係者が集まった。

【参考】【国際】英政府、ブレッチリー宣言発表。28ヶ国・地域署名。AI安全性での国際協調(2023年11月2日)

 同サミットでは、まず、ソウル閣僚声明を採択。28カ国とEUが署名した。安全性に関しては、AIの開発・導入を通じて起こりうる悪影響を評価し、防止し、緩和し、是正することを重要視し、透明性、解釈可能性、説明可能性、プライバシーと説明責任、有意義な人的監視、効果的なデータ管理と保護を確保していくことで合意。各国政府は、商用又は公共で利用されるフロンティアAIモデルまたはシステムの設計、開発、搭載、使用によってもたらされるリスクを管理するための枠組みを確立すべきとした。フロンティアAIとは、前回採択されたブレッチリー宣言において、「非常に能力の高い汎用AIモデルや特定の狭いAI」と定義されている。

 悪影響のリスク評価では、企業、市民社会、アカデミア、国際社会と連携することも強調。フロンティアAIモデルやシステムがもたらすリスクを評価する基準には、ケーパビリティ、限界、傾向、悪意のある敵対的な攻撃や操作に対する頑健性を含むセーフガードの実装、予見可能な用途と誤用、AIモデルが統合される可能性のある広範なシステムを含む導入状況、到達範囲、その他の関連するリスク要因の考慮が含まれるとした。

 深刻なリスクをもたらす可能性のあるモデルやシステムに関しては、内容を定義し、測定することも掲げた。深刻なリスクには、化学兵器及び生物兵器の開発、生産、獲得、使用、輸送や、人間による監督を回避するAIを例示した。

 AIリスクの評価では、各国のAI安全性研究所等を通じ、ベストプラクティスや評価データセットを共有し、安全性試験ガイドラインの策定で協力していくことも確認した。

 イノベーションに関しては、経済と社会に対するAIの潜在的な利益を最大化することを目的とし、イノベーションとAIセクターのエコシステムの発展を促進するガバナンス・アプローチの重要性を認識。その中で、政府の役割としは、AIイノベーションのための財政投資、研究開発、人材育成に加え、AIの安全、安心かつ信頼できる開発・展開のために、個人情報、著作権、その他の知的財産権の保護を含む法的・制度的枠組みを含むガバナンスの枠組みを検討することにも焦点を当てた。中小企業、スタートアップ、学術機関、大学、個人がAI関連リソースにアクセスしやすくすることで、AI主導のイノベーションを促進する環境整備も政府の役割とした。環境サステナビリティのために、AIの開発者及び導入者が、エネルギーや資源の消費等の潜在的な環境フットプリントを考慮することも奨励した。

 インクルージョンに関しては、人権及び基本的自由の保護、社会的セーフティネットの強化、災害及び事故を含む様々なリスクからの安全を確保することを確認しつつ、社会的弱者を含む全ての人々がAIの恩恵を享受できるようにすべきとした。そのため、AIシステムに関するキャパシティ・ビルディングやデジタル・リテラシーの向上を通じたAI教育の推進にコミット。国家間及び国家内のAI及びデジタル・デバイドを解消していくとした。社会文化的、言語的多様性が反映され、促進されることも確保していく。気候変動、グローバルヘルス、食料・エネルギー安全保障、教育等のグローバル課題を解決するためにAI技術の進歩を支援することも掲げた。

 同声明に署名したのは、英国、韓国、米国、フランス、ドイツ、イタリア、スペイン、オランダ、スイス、ウクライナ、カナダ、オーストラリア、ニュージーランド、日本、シンガポール、フィリピン、インドネシア、インド、サウジアラビア、アラブ首長国連邦(UAE)、トルコ、イスラエル、ケニア、ルワンダ、ナイジェリア、メキシコ、チリ、EU。

 27カ国は、次回「AIアクション・サミット」をフランスで開催することでも合意。その前に、先端AIの安全性に関する国際科学報告書を最終発表する計画。深刻なリスクをもたらす可能性のあるフロンティアAIモデルやシステムの能力を定義し、検討のための提案も作成していく。国際科学報告書の作成では、すでに第4次進捗報告書が5月に公表されている。

【参考】【イギリス】AI安全研究所、サンフランシスコ事務所開設へ。生成AI安全性テストの進捗結果も公表(2024年5月21日)

 また10カ国とEUは別途、AIの安全性に関する科学の進歩を加速させるための国際ネットワークを創設することでも合意した。合意したのは、英国、韓国、米国、カナダ、フランス、ドイツ、イタリア、オーストラリア、日本、シンガポール、EU。英国が発足した世界初のAI安全性研究所をモデルに、各国でAI安全性研究所を政府が支援しながら創設し、相互連携していく。

 企業からは、16社が「フロンティアAI安全性コミットメント」に署名した。内容は大きく3つ項目で構成されている。

  • 成果1. 組織は、フロンティアAIモデルとシステムを開発・展開する際に、リスクを効果的に特定、評価、管理する。以下のことを実践する。
    1. フロンティアAIモデルやシステムがもたらすリスクを、モデルやシステムを導入する前や、必要に応じて訓練前や訓練中等、AIのライフサイクル全体にわたって評価する。リスク評価は、モデルの能力、開発及び導入の背景や、予見可能な使用及び誤用に関連するリスクを低減するために実施された緩和策の有効性を考慮する。また、独立した第三者評価機関、自国政府、その他自国政府が適切と考える機関等、適宜、内部評価や外部評価の結果も考慮する。
    2. モデルまたはシステムがもたらす深刻なリスクが、適切に緩和されない限り、耐えられないと判断される閾値を設定する。モデルまたはシステムが閾値にどの程度近づいているかをモニタリングすることを含め、当該閾値を超えたかどうかを評価する。これらの閾値は、適宜、組織のそれぞれの自国政府を含む信頼される関係者からのインプットを得て定義する。また、自国政府が加盟している国際協定と整合させる。また、閾値がどのように決定されたかについての説明や、モデルやシステムが耐え難いリスクをもたらすような状況の具体例を添える。
    3. 定義された閾値内にリスクを抑えるために、どのようにリスク軽減策が特定され、実施されるかを明示する。これには、システム挙動の修正、未発表モデル重み付けに対する強固なセキュリティ管理の実施等、安全性及びセキュリティに関連するリスク軽減策が含まれる。
    4. モデル又はシステムが事前に定義された閾値を満たす又は超えるリスクをもたらす場合、当該モデルまたはシステムが従う予定の明確なプロセスを設定する。これには、残存リスクが閾値未満にとどまると評価される場合にのみ、システムやモデルをさらに開発・展開するプロセスも含まれる。極端な場合、リスクを閾値以下に抑えるための緩和策を適用できない場合、組織はモデルやシステムの開発や配備を一切行わないことを約束する。
    5. リスクの評価と特定、閾値の定義、緩和策の有効性等、上記のコミットメントを実施する能力を向上させるための投資を継続的に行う。これには、緩和策の適切性を評価・監視し、リスクが事前に定義された閾値未満を確実に維持するために必要な追加的緩和策を特定するプロセスも含まれる。また、AIリスクの特定、評価、緩和に関する新たなベストプラクティス、国際基準、科学に貢献し、考慮する。
  • 成果2. 組織は、最先端のAIモデルとシステムを安全に開発し、展開する責任を負う。以下のことを実践する。
    1. 社内の説明責任とガバナンスの枠組みを開発し、継続的に見直し、役割、責任、十分なリソースを割り当てることを含め、成果1のコミットメントを遵守する。
  • 成果3. フロンティアAIの安全性に対する組織のアプローチを、政府を含む外部の関係者に対して適切に透明化する。以下のことを実践する。
    1. 成果1と2の実施について、社会的利益に不釣り合いな程度にリスクを増大させたり、商業上の機密情報を漏らしたりする場合を除き、公的な透明性を確保する。それでもなお、公に共有できないより詳細な情報は、必要に応じて、それぞれの自国政府または指定された機関を含む、信頼できる関係者と共有する。
    2. AIモデルやシステムのリスク、上記の安全性の枠組みの適切性、その枠組みの遵守を評価するプロセスに、政府、市民社会、アカデミア、一般市民等の外部アクターが関与している場合は、その手法を説明する。

 署名したのは、マイクロソフト、OpenAI、グーグル、IBM、アマゾン、メタ・プラットフォームズ、ネイバー、サムスン電子、Anthropic、Cohere、G42、 Inflection AI、Mistral AI、Technology Innovation Institute、xAI、Zhipu.ai(智譜AI)の16社。米国、欧州、中国、韓国、UAE等の主要企業が署名した形だが、日本企業からの署名はなかった。

【参照ページ】New commitment to deepen work on severe AI risks concludes AI Seoul Summit 【参照ページ】Global leaders agree to launch first international network of AI Safety Institutes to boost cooperation of AI 【参照ページ】Historic first as companies spanning North America, Asia, Europe and Middle East agree safety commitments on development of AI

author image

株式会社ニューラル サステナビリティ研究所

この記事のタグ

Sustainable Japanの特長

Sustainable Japanは、サステナビリティ・ESGに関する
様々な情報収集を効率化できる専門メディアです。

  • 時価総額上位100社の96%が登録済
  • 業界第一人者が編集長
  • 7記事/日程度追加、合計11,000以上の記事を読める
  • 重要ニュースをウェビナーで分かりやすく解説※1
さらに詳しく ログインする

※1:重要ニュース解説ウェビナー「SJダイジェスト」。詳細はこちら

"【ランキング】2019年 ダボス会議「Global 100 Index: 世界で最も持続可能な企業100社」"を、お気に入りから削除しました。