
コーポレートガバナンス推進の国際機関投資家団体ICGNは3月5日、責任あるAIの観点から、機関投資家から企業への要望をまとめたガイドを発行した。
同ガイドは、「AIにはリスクや課題もあり、企業の取締役会や経営陣はそれを理解し、対処する必要がある。投資家は、企業がAIに関連する課題を効果的に克服する一方で、AI統合のメリットを最大化することを期待している」と言及。責任あるAIを進めるうえでの要点をまとめた。
同ガイドは、観点として「取締役会の監督」「責任あるAIの実践」「リスクマネジメント」「透明性と説明責任」「規制遵守」の5つを挙げた。
取締役会の監督では、責任あるAIの開発と利用について取締役会に監督責任があると明記。取締役会は、会社の経営陣が、新技術の競争力ある展開と、潜在的なリスク(人や社会に対するリスクを含む)とのバランスを取ることを確認する必要があり、取締役会は、投資家に対して、AIのリスクと機会をどの程度考えており、また、ビジネスモデルの一部としてAIを統合するための短期、中期 、長期の計画を説明できるようにすべきとした。
さらに、取締役がAIを過大評価もしくは過小評価する傾向にあることも示し、AIに関連する重要なリスクや機会を特定し、評価する上で、実効性を確保するためには、専門知識を高める必要があるとも指摘。取締役会自身の知見を高めるため、研修、アドバイザリー機関、外部専門家との連携、継続的な意識向上プログラム等を活用すべきとした。
責任あるAIの実践では、AIを開発・育成する企業は、サードパーティのAIソリューションを利用する企業とは異なるリスクに直面し、自社のシステム・プログラミングが安全で倫理的な結果を促進することを保証する責任を負うと明言。企業は、包括的な声明や一連の原則の中でAIに対するアプローチを明確にすべきであり、行動規範、情報セキュリティ、データ倫理、データプライバシー、ベンダー評価方針等の既存の方針の中に責任あるAIを組み込むべきとした。
同時に、AIが雇用に与える影響を見据え、各社が潜在的な影響を分析したうえで、アップスキルやリスキルのアクションも実践すべきとした。また、AIがエネルギー消費量を高めることも踏まえ、電力や半導体製造での環境フットプリントも考慮することを求めた。
リスクマネジメントでは、偏ったデータや設計に依存した自動化システムが差別的な結果を生み出す「望まないバイアス」、ハルシネーション、誤情報・偽情報、知的財産権の侵害、データセキュリティ侵害、誤作動、サードパーティ製AIの適切なリスク評価を重大リスクとして挙げた。また、不正確なデータ、時代遅れのデータ、あるいは目的にそぐわないデータで学習したAIシステムにもリスクがあるとした。
透明性と説明責任では、経営陣は、自社が開発または使用するAIシステムがどのように設計され、訓練され、テストされ、スケールアップされ、人間の価値観や意図とどのように合致しているかを、取締役会に説明できなければならないとした。また、AIを開発・訓練する企業は、モデルがどのようなデータに基づいて訓練されたのかについて透明性を持たなければならないとした。個人情報の収集、使用、保存に関する透明性にも言及した。
規制遵守に関しては、経済協力開発機構(OECD)のAI原則、国連教育科学文化機関(UNESCO)のAIの倫理に関する勧告、 国際標準化機構(ISO)のISO/IEC421001:2023を例示した。
【参照ページ】ICGN Investor Viewpoint - Artificial Intelligence: An engagement guide
Sustainable Japanの特長
Sustainable Japanは、サステナビリティ・ESGに関する
様々な情報収集を効率化できる専門メディアです。
- 時価総額上位100社の96%が登録済
- 業界第一人者が編集長
- 7記事/日程度追加、合計11,000以上の記事を読める
- 重要ニュースをウェビナーで分かりやすく解説※1
さらに詳しく
ログインする
※1:重要ニュース解説ウェビナー「SJダイジェスト」。詳細はこちら