
総務省と経済産業省は4月19日、「AI事業者ガイドライン」の第1.0版を発行した。従来の「AI開発ガイドライン」「AI利活用ガイドライン」「AI原則実践のためのガバナンス・ガイドライン」を統合しつつ、昨今の諸外国でのルール形成や生成AI等の新技術の動向を考慮し、一つのガイドラインにまとめた。
同ガイドラインの対象は、事業活動でAIの開発者、提供者、利用者。同ガイドラインでの「AI」とは、「活用の過程を通じて様々なレベルの自律性をもって動作し学習する機能を有するソフトウェアを要素として含むシステム(AIシステム)自体、または機械学習をするソフトウェアもしくはプログラムを含む抽象的な概念」と定義した。また、生成AIは「高度なAIシステム」と定義された。
同ガイドラインでは、まず、基本理念として、「人間の尊厳が尊重される社会(Dignity)」「多様な背景を持つ人々が多様な幸せを追求できる社会(Diversity and Inclusion)」「持続可能な社会(Sustainability)」の3つを掲げ、これら3つの「実現を追求する社会を構築していくべき」と明記した。
それに基づく共通指針として、「人間中心」「安全性」「公平性」「プライバシー保護」「セキュリティ確保」「透明性」「アカウンタビリティ」「教育・リテラシー」「公正競争確保」「イノベーション」の10項目を掲げた。
「人間中心」の中では、偽情報等への対策という項目が置かれたが、詳細については総務省で別途2024年夏ごろにとりまとめられる予定。他に、自動化バイアスやフィルターバブル等への注意も盛り込まれた。特に、選挙、コミュニティでの意思決定等をはじめとする社会に重大な影響を与える手続きに関連しうる場合においては、AIの出力について慎重に取り扱うべきとした。
バイアス対策では、対処するためのプロセスを導入し、アンコンシャスバイアスも含めたバイアスに留意し、多様な背景、文化または分野のステークホルダーと対話した上で、方針を決定すべきとした。AIの出力結果が公平性を欠くことがないよう、AIに単独で判断させるだけでなく、適切なタイミングで人間の判断を介在させる利用を検討するよう伝えた。
環境への影響についても、AIシステム・サービスの開発・提供・利用で、ライフサイクル全体で地球環境への影響も検討すべきとた。環境へ危害を及ぼす可能性がある場合は、講ずべき措置について事前に整理し、ステークホルダーに関連する情報を提供するよう伝えた。
これらに加え、高度なAIシステムに関係する事業者への共通指針として、レッドチーム等の手法を組み合わせた高度な安全性確保や、高度な AI システムの能力、限界、適切・不適切な使用領域の公表、モニタリング結果の報告書やセキュリティや安全性のリスクに関する関連文書等の開示を掲げた。
生成AIで作成されたコンテンツに対しては、技術的に可能な場合は、AI利用者及び業務外利用者が識別できるよう、電子透かし等を含め、信頼できるコンテンツ認証及び来歴のメカニズムを開発、導入すべきとした。
【参照ページ】「AI事業者ガイドライン案」に関する意見募集の結果及びガイドラインの公表
無料会員に登録すると、
有料記事の「閲覧チケット」を毎月1枚プレゼント。
登録後、すぐにご希望の有料記事の閲覧が可能です。
無料登録してチケットを受け取る
【無料会員向け】有料記事の閲覧チケットの詳細はこちら
または
有料会員プランで
企業内の情報収集を効率化
- 2000本近い最新有料記事が読み放題
- 有料会員継続率98%の高い満足度
- 有料会員の役職者比率46%
有料会員プランに登録する