Sustainable Japan | 世界のサステナビリティ・ESG投資・SDGs

【国際】世界経済フォーラム、機械学習の人権侵害リスクを報告。尊重すべき原則を策定

 世界経済フォーラム(WEF)は3月13日、機械学習(マシンラーニング)が差別等の人権侵害を引き起こすことを防止するための白書「How to Prevent Discriminatory Outcomes in Machine Learning」を発行した。世界経済フォーラムは、年次総会「ダボス会議」で有名だが、社会課題や環境問題への対策を検討するため「グローバル未来委員会(Global Future Council)」の活動も展開している。グローバル未来委員会には14の委員会で構成されており、今回の白書を発行したのは人権委員会。

 機械学習が差別を助長した事例はすでに発生している。例えば、融資の与信審査アルゴリズムにおいて、インターネット利用者の多い都市部データで学習が行われることで、農村部の人が正しく評価されなくなってしまう。司法アルゴリズムでも、差別的な観点を含む過去の判例を元にしたアルゴリズム開発は新たな差別につながりかねない。人材採用でも、学歴フィルターを機械学習技術を用いて開発した場合、低所得者層を不当に差別することにつながる。

 白書では、機械学習を用いる上でのリスクを示し、開発者が尊重すべき原則をまとめた。原則には、「アクティブ・インクルージョン」「フェアネス」「理解する権利」「救済措置へのアクセス」の4つがある。

【参照ページ】World Economic Forum Unveils New Principles to Make Machine Learning More Human
【レポート】How to Prevent Discriminatory Outcomes in Machine Learning

 世界経済フォーラム(WEF)は3月13日、機械学習(マシンラーニング)が差別等の人権侵害を引き起こすことを防止するための白書「How to Prevent Discriminatory Outcomes in Machine Learning」を発行した。世界経済フォーラムは、年次総会「ダボス会議」で有名だが、社会課題や環境問題への対策を検討するため「グローバル未来委員会(Global Future Council)」の活動も展開している。グローバル未来委員会には14の委員会で構成されており、今回の白書を発行したのは人権委員会。

 機械学習が差別を助長した事例はすでに発生している。例えば、融資の与信審査アルゴリズムにおいて、インターネット利用者の多い都市部データで学習が行われることで、農村部の人が正しく評価されなくなってしまう。司法アルゴリズムでも、差別的な観点を含む過去の判例を元にしたアルゴリズム開発は新たな差別につながりかねない。人材採用でも、学歴フィルターを機械学習技術を用いて開発した場合、低所得者層を不当に差別することにつながる。

 白書では、機械学習を用いる上でのリスクを示し、開発者が尊重すべき原則をまとめた。原則には、「アクティブ・インクルージョン」「フェアネス」「理解する権利」「救済措置へのアクセス」の4つがある。

【参照ページ】World Economic Forum Unveils New Principles to Make Machine Learning More Human
【レポート】How to Prevent Discriminatory Outcomes in Machine Learning

 世界経済フォーラム(WEF)は3月13日、機械学習(マシンラーニング)が差別等の人権侵害を引き起こすことを防止するための白書「How to Prevent Discriminatory Outcomes in Machine Learning」を発行した。世界経済フォーラムは、年次総会「ダボス会議」で有名だが、社会課題や環境問題への対策を検討するため「グローバル未来委員会(Global Future Council)」の活動も展開している。グローバル未来委員会には14の委員会で構成されており、今回の白書を発行したのは人権委員会。

 機械学習が差別を助長した事例はすでに発生している。例えば、融資の与信審査アルゴリズムにおいて、インターネット利用者の多い都市部データで学習が行われることで、農村部の人が正しく評価されなくなってしまう。司法アルゴリズムでも、差別的な観点を含む過去の判例を元にしたアルゴリズム開発は新たな差別につながりかねない。人材採用でも、学歴フィルターを機械学習技術を用いて開発した場合、低所得者層を不当に差別することにつながる。

 白書では、機械学習を用いる上でのリスクを示し、開発者が尊重すべき原則をまとめた。原則には、「アクティブ・インクルージョン」「フェアネス」「理解する権利」「救済措置へのアクセス」の4つがある。

【参照ページ】World Economic Forum Unveils New Principles to Make Machine Learning More Human
【レポート】How to Prevent Discriminatory Outcomes in Machine Learning

ここから先は有料登録会員限定のコンテンツとなります。有料登録会員へのアップグレードを行って下さい。

 世界経済フォーラム(WEF)は3月13日、機械学習(マシンラーニング)が差別等の人権侵害を引き起こすことを防止するための白書「How to Prevent Discriminatory Outcomes in Machine Learning」を発行した。世界経済フォーラムは、年次総会「ダボス会議」で有名だが、社会課題や環境問題への対策を検討するため「グローバル未来委員会(Global Future Council)」の活動も展開している。グローバル未来委員会には14の委員会で構成されており、今回の白書を発行したのは人権委員会。

 機械学習が差別を助長した事例はすでに発生している。例えば、融資の与信審査アルゴリズムにおいて、インターネット利用者の多い都市部データで学習が行われることで、農村部の人が正しく評価されなくなってしまう。司法アルゴリズムでも、差別的な観点を含む過去の判例を元にしたアルゴリズム開発は新たな差別につながりかねない。人材採用でも、学歴フィルターを機械学習技術を用いて開発した場合、低所得者層を不当に差別することにつながる。

 白書では、機械学習を用いる上でのリスクを示し、開発者が尊重すべき原則をまとめた。原則には、「アクティブ・インクルージョン」「フェアネス」「理解する権利」「救済措置へのアクセス」の4つがある。

【参照ページ】World Economic Forum Unveils New Principles to Make Machine Learning More Human
【レポート】How to Prevent Discriminatory Outcomes in Machine Learning