
英金融行動監督機構(FCA)の元職員ミック・マカティア氏は、銀行のテクノロジーの進化は、立場の弱い顧客を差別のリスクに晒すと懸念を示した。英紙ガーディアンが11月12日、報じた。背景には、米アップルが新たに開始したApple Cardの与信アルゴリズムに性差別疑惑の注目が集まったことがある。
従来から機関機関では、住宅ローンやクレジットカード与信等の際に、顧客の区別を行ってきた。テクノロジーの進歩により、融資元や発行体は、より正確に収益を見込めない顧客を選別できるようになる。しかしマカティア氏は、ブラックボックス化したアルゴリズムの下、ビッグデータ活用による分析が行われることで、バイアスを増長し、社会の分断を招くと警鐘を鳴らしている。
ガーディアンによると、Apple Cardの新規発行時に、夫婦の間でも、夫のほうが20倍も高い与信枠が設定されるケースがあったという。同課題について、アルゴリズムを共同開発した米ゴールドマン・サックスは、性差別をした事実はなく、今後も行われないとしている。しかし、現在同アルゴリズムに対しては、米当局による捜査が入っている。
英国では、性別や人種、身体能力等で差別することが禁じられている。しかし、支出慣習や収入等のデータを分析することで、禁止されている属性での顧客分類が容易に実施できてしまう。FCAは2018年、発行体が顧客の人種や民族を特定可能な情報を取得することに懸念を表明。いくつかの金融機関は自主的にデータ削除を行ったが、「顧客の与信設定上の適切な手段」としてデータ取得の正当性を主張する企業もあったと同氏は語った。
人工知能(AI)のアルゴリズムのブラックボックス化やビッグデータ活用分析等によるバイアスについては、今回の事件に限らず、昨今注目を集めている。2019年のPRI in Personでも人工知能(AI)とESG投資はテーマの一つとして扱われており、金融機関も適切な対応を探る状況。
【参考】【金融】新段階を迎えるESG投資と機関投資家の迫力 〜PRI in Person 2019参加レポート
無料会員に登録すると、
有料記事の「閲覧チケット」を毎月1枚プレゼント。
登録後、すぐにご希望の有料記事の閲覧が可能です。
無料登録してチケットを受け取る
【無料会員向け】有料記事の閲覧チケットの詳細はこちら
または
有料会員プランで
企業内の情報収集を効率化
- 2000本近い最新有料記事が読み放題
- 有料会員継続率98%の高い満足度
- 有料会員の役職者比率46%
有料会員プランに登録する