
総務省と経済産業省は4月19日、「AI事業者ガイドライン」の第1.0版を発行した。従来の「AI開発ガイドライン」「AI利活用ガイドライン」「AI原則実践のためのガバナンス・ガイドライン」を統合しつつ、昨今の諸外国でのルール形成や生成AI等の新技術の動向を考慮し、一つのガイドラインにまとめた。
同ガイドラインの対象は、事業活動でAIの開発者、提供者、利用者。同ガイドラインでの「AI」とは、「活用の過程を通じて様々なレベルの自律性をもって動作し学習する機能を有するソフトウェアを要素として含むシステム(AIシステム)自体、または機械学習をするソフトウェアもしくはプログラムを含む抽象的な概念」と定義した。また、生成AIは「高度なAIシステム」と定義された。
同ガイドラインでは、まず、基本理念として、「人間の尊厳が尊重される社会(Dignity)」「多様な背景を持つ人々が多様な幸せを追求できる社会(Diversity and Inclusion)」「持続可能な社会(Sustainability)」の3つを掲げ、これら3つの「実現を追求する社会を構築していくべき」と明記した。
それに基づく共通指針として、「人間中心」「安全性」「公平性」「プライバシー保護」「セキュリティ確保」「透明性」「アカウンタビリティ」「教育・リテラシー」「公正競争確保」「イノベーション」の10項目を掲げた。
「人間中心」の中では、偽情報等への対策という項目が置かれたが、詳細については総務省で別途2024年夏ごろにとりまとめられる予定。他に、自動化バイアスやフィルターバブル等への注意も盛り込まれた。特に、選挙、コミュニティでの意思決定等をはじめとする社会に重大な影響を与える手続きに関連しうる場合においては、AIの出力について慎重に取り扱うべきとした。
バイアス対策では、対処するためのプロセスを導入し、アンコンシャスバイアスも含めたバイアスに留意し、多様な背景、文化または分野のステークホルダーと対話した上で、方針を決定すべきとした。AIの出力結果が公平性を欠くことがないよう、AIに単独で判断させるだけでなく、適切なタイミングで人間の判断を介在させる利用を検討するよう伝えた。
環境への影響についても、AIシステム・サービスの開発・提供・利用で、ライフサイクル全体で地球環境への影響も検討すべきとた。環境へ危害を及ぼす可能性がある場合は、講ずべき措置について事前に整理し、ステークホルダーに関連する情報を提供するよう伝えた。
これらに加え、高度なAIシステムに関係する事業者への共通指針として、レッドチーム等の手法を組み合わせた高度な安全性確保や、高度な AI システムの能力、限界、適切・不適切な使用領域の公表、モニタリング結果の報告書やセキュリティや安全性のリスクに関する関連文書等の開示を掲げた。
生成AIで作成されたコンテンツに対しては、技術的に可能な場合は、AI利用者及び業務外利用者が識別できるよう、電子透かし等を含め、信頼できるコンテンツ認証及び来歴のメカニズムを開発、導入すべきとした。
【参照ページ】「AI事業者ガイドライン案」に関する意見募集の結果及びガイドラインの公表
Sustainable Japanの特長
Sustainable Japanは、サステナビリティ・ESGに関する
様々な情報収集を効率化できる専門メディアです。
- 時価総額上位100社の96%が登録済
- 業界第一人者が編集長
- 7記事/日程度追加、合計11,000以上の記事を読める
- 重要ニュースをウェビナーで分かりやすく解説※1
さらに詳しく
ログインする
※1:重要ニュース解説ウェビナー「SJダイジェスト」。詳細はこちら