【国際】フェイスブック、不適切コンテンツに関する対策状況をまとめた同社初の報告書を発行 2018/05/20 最新ニュース

 IT世界大手米フェイスブックは5月15日、不適切コンテンツに関する対策状況をまとめた同社初の報告書を発行した。同社は4月、フェイスブック上のコンテンツ基準を正式に制定し公表。今回はその基準に基づき、同社が実施した内容を一早く世に知らせ、ユーザーに対応の当否の判断を仰いだ形。

 フェイスブックが設定したコンテンツ基準「Community Standards」には、暴力、犯罪行為、安全、ヘイトスピーチ等の不快なもの、詐欺や誤解を与えるもの、知的財産侵害に関連しているコンテンツをルール違反と設定した。さらにユーザーからの削除通知依頼制度も設けた。同基準は、全世界で適用される。

 今回発表したデータは主に3つ。まず、ユーザーがルール違反コンテンツにどのくらい晒されているか。同社のアルゴリズムを用いた推計では、2017年10月から12月までの3ヶ月では0.15%強だったが、2018年1月から3月まででは0.2%を超えるところまで上昇している。次に、同社のルール違反コンテンツの削除対応数。2017年10月から12月までで100万を超える程度だったが、2018年1月から3月では300万を超えている。最後に、同社のルール違反コンテンツ検知への取組。同社はユーザーからの通知よりも早く、該当情報を検知するためアルゴリズムを開発。ユーザーより早い検知率は2017年10月から12月は75%をやや下回る状況だったが、2018年1月から3月では90%に迫っている。

 同社は、削除したコンテンツのうち、ほぼ大半はフェイクニュースによるものだったと発表。アダルトコンテンツに関するもの、ヘイトスピーチに関するものも多かった。同社は、大きな網をかけるアプローチをとっており、実際にはルール違反ではないという可能性があるものも、漏れがないことを優先し、削除対応をとっている。同社は今後も実施手法の変更がある可能性に言及した。

【参照ページ】Facebook Publishes Enforcement Numbers for the First Time
【参照ページ】Reinforcing Our Commitment to Transparency
【基準】Community Standards
【報告書】Facebook Transparency Report

株式会社ニューラル サステナビリティ研究所

Facebookコメント (0)

ページ上部へ戻る