【EU】欧州委、人工知能(AI)開発のための倫理ガイドラインの試験運用開始。国際規範目指す 2019/04/13 最新ニュース

 欧州委員会は4月8日、「信頼できる人工知能(AI)開発のための倫理ガイドライン」策定において試験導入段階に入ると発表した。企業、研究所、政府当局等から参加機関を募り、フィードバックを得る。最終的には、国際的なAIガイドラインに発展させる考え。

 欧州委員会は2018年4月にAI戦略を発表。今後10年間で官民双方から毎年200億ユーロ(約2.5兆円)の投資を目指し、EUをAI大国にする構想を掲げた。AIは、医療、エネルギー、自動車の安全性、農業、気候変動、金融リスクマネジメント、犯罪防止、サイバーセキュリティ対策等に役立つと捉えられている一方、使い方を間違えると社会悪になる危険性もある。そのためEUは、AI開発に適用する倫理ガイドライン制定を急いでいる。

 EUの「AIハイレベル専門家会合(AI HLEG)」が2018年12月に策定し今回試験導入する倫理原則は、現在7つで構成。

  • 人間の代理機能・人間による監督:人間の代理や基本的権利を支持する役割を担い、人間の自立性を損なわない
  • 堅牢性と安全性:AIのライフサイクルを通じてエラーや非一貫性を対処するための安全、信頼、堅牢性が担保されたアルゴリズム
  • プライバシーとデータガバナンス:市民が自分のデータを完全に管理でき、懸念されるデータは活用されない
  • 透明性:AIシステムの透明性を確保
  • ダイバーシティと差別禁止:人間の活動、スキル、要求を十分考慮し、アクセスできる状態にする
  • 社会・環境ウェルビーイング:社会と環境の観点からプラスの効果を生むものにする
  • アカウンタビリティ:AIシステムと結果に関する責任とアカウンタビリティを確保

 参加機関は、EUが発足した「欧州AI連合(European AI Alliance)」に登録する。登録はEU域外の企業や政府からの参加も歓迎。試験導入の結果は、2020年前半にAI HLEGがレビューを実施。最終的には、カナダ、日本、シンガポール等の同様の関心を持つ国と協力し、G7やG20の場で採択を目指す。

【参照ページ】Artificial intelligence: Commission takes forward its work on ethics guidelines
【参照ページ】Draft Ethics guidelines for trustworthy AI
【参照ページ】The European AI Alliance

株式会社ニューラル サステナビリティ研究所

Facebookコメント (0)

ページ上部へ戻る