Sustainable Japan | 世界のサステナビリティ・ESG投資・SDGs

【国際】WHO、生成AIの医療分野活用で倫理・ガバナンス・ガイダンス発行。リスクに対処

 世界保健機関(WHO)は1月18日、ヘルスケア領域での生成AIの登場に対処するため、「大規模マルチモーダルモデル(LMM)倫理・ガバナンス・ガイダンス」を発行した。責任あるAI活用のため、政府、企業、医療提供者が考慮すべき40以上の推奨事項をまとめた。

 同ガイダンスでは、生成AIのヘルスケア領域での応用分野として、「診断と臨床ケア」「治療法調査や患者ガイダンスに基づく利用」「電子カルテの記録・要約及び事務作業」「医療・看護教育」「新薬開発や科学研究」の5つを特定した。

 同ガイダンスは、生成AIには、誤った、不正確な、偏った、不完全な情報を提供するリスクがあると認識。さらに、人種、民族、先祖、性別、性自認、年齢等の偏ったデータで過学習するリスクもあるとした。サイバーセキュリティリスクにも言及した。

 政府向けの主な勧告としては、

  • 公共、民間、非営利セクターの開発者がアクセス可能な計算能力や公共データセットを含め、非営利または公共のインフラへの投資または提供を行う
  • ヘルスケアや医療に用いられる生成AIが、AI技術に関連するリスクや便益の如何に関わらず、例えば人の尊厳や自律性、プライバシーに影響する倫理的義務や人権基準を満たしていることを保証するため、法規制や政策を導入する。
  • リソースが許す限り、医療やヘルスケアに使用することを意図した生成AIの評価と承認を、既存または新たな規制機関のミッションとする
  • 生成AIが大規模に導入された場合、データ保護や人権を含め、独立した第三者によるリリース後の監査と影響評価を義務化する。監査と影響評価は公表され、年齢、人種、障害別等、利用者のタイプ別に集計された結果と影響に関する内容も盛り込まれる

 生成AI開発者への主な勧告としては、

  • 生成AIは、科学者や技術者だけで設計すべきでなく、潜在的なユーザ、医療提供者、科学研究者、医療専門家、患者を含む直接的・間接的なステークホルダーが、AI開発の初期段階から、構造化された包括的で透明性の高い設計に参加し、倫理的な問題を提起したり、懸念を表明したり、検討中のAI アプリケーションに意見を提供する機会を与える
  • 生成AIは、医療システムの能力を向上させ、患者の利益を増進させるために必要な精度と信頼性を備えた、明確に定義されたタスクを実行するように設計されるべき。開発者はまた、潜在的な二次的結果を予測し、理解する必要がある

【参照ページ】WHO releases AI ethics and governance guidance for large multi-modal models

ここから先は登録ユーザー限定のコンテンツとなります。ログインまたはユーザー登録を行って下さい。

 世界保健機関(WHO)は1月18日、ヘルスケア領域での生成AIの登場に対処するため、「大規模マルチモーダルモデル(LMM)倫理・ガバナンス・ガイダンス」を発行した。責任あるAI活用のため、政府、企業、医療提供者が考慮すべき40以上の推奨事項をまとめた。

 同ガイダンスでは、

ここから先は登録ユーザー限定のコンテンツとなります。ログインまたはユーザー登録を行って下さい。

 世界保健機関(WHO)は1月18日、ヘルスケア領域での生成AIの登場に対処するため、「大規模マルチモーダルモデル(LMM)倫理・ガバナンス・ガイダンス」を発行した。責任あるAI活用のため、政府、企業、医療提供者が考慮すべき40以上の推奨事項をまとめた。

 同ガイダンスでは、

ここから先は登録ユーザー限定のコンテンツとなります。ログインまたはユーザー登録を行って下さい。

ここから先は有料登録会員限定のコンテンツとなります。有料登録会員へのアップグレードを行って下さい。

 世界保健機関(WHO)は1月18日、ヘルスケア領域での生成AIの登場に対処するため、「大規模マルチモーダルモデル(LMM)倫理・ガバナンス・ガイダンス」を発行した。責任あるAI活用のため、政府、企業、医療提供者が考慮すべき40以上の推奨事項をまとめた。

 同ガイダンスでは、生成AIのヘルスケア領域での応用分野として、「診断と臨床ケア」「治療法調査や患者ガイダンスに基づく利用」「電子カルテの記録・要約及び事務作業」「医療・看護教育」「新薬開発や科学研究」の5つを特定した。

 同ガイダンスは、生成AIには、誤った、不正確な、偏った、不完全な情報を提供するリスクがあると認識。さらに、人種、民族、先祖、性別、性自認、年齢等の偏ったデータで過学習するリスクもあるとした。サイバーセキュリティリスクにも言及した。

 政府向けの主な勧告としては、

  • 公共、民間、非営利セクターの開発者がアクセス可能な計算能力や公共データセットを含め、非営利または公共のインフラへの投資または提供を行う
  • ヘルスケアや医療に用いられる生成AIが、AI技術に関連するリスクや便益の如何に関わらず、例えば人の尊厳や自律性、プライバシーに影響する倫理的義務や人権基準を満たしていることを保証するため、法規制や政策を導入する。
  • リソースが許す限り、医療やヘルスケアに使用することを意図した生成AIの評価と承認を、既存または新たな規制機関のミッションとする
  • 生成AIが大規模に導入された場合、データ保護や人権を含め、独立した第三者によるリリース後の監査と影響評価を義務化する。監査と影響評価は公表され、年齢、人種、障害別等、利用者のタイプ別に集計された結果と影響に関する内容も盛り込まれる

 生成AI開発者への主な勧告としては、

  • 生成AIは、科学者や技術者だけで設計すべきでなく、潜在的なユーザ、医療提供者、科学研究者、医療専門家、患者を含む直接的・間接的なステークホルダーが、AI開発の初期段階から、構造化された包括的で透明性の高い設計に参加し、倫理的な問題を提起したり、懸念を表明したり、検討中のAI アプリケーションに意見を提供する機会を与える
  • 生成AIは、医療システムの能力を向上させ、患者の利益を増進させるために必要な精度と信頼性を備えた、明確に定義されたタスクを実行するように設計されるべき。開発者はまた、潜在的な二次的結果を予測し、理解する必要がある

【参照ページ】WHO releases AI ethics and governance guidance for large multi-modal models

ここから先は登録ユーザー限定のコンテンツとなります。ログインまたはユーザー登録を行って下さい。