世界経済フォーラム(WEF)は3月13日、機械学習(マシンラーニング)が差別等の人権侵害を引き起こすことを防止するための白書「How to Prevent Discriminatory Outcomes in Machine Learning」を発行した。世界経済フォーラムは、年次総会「ダボス会議」で有名だが、社会課題や環境問題への対策を検討するため「グローバル未来委員会(Global Future Council)」の活動も展開している。グローバル未来委員会には14の委員会で構成されており、今回の白書を発行したのは人権委員会。
機械学習が差別を助長した事例はすでに発生している。例えば、融資の与信審査アルゴリズムにおいて、インターネット利用者の多い都市部データで学習が行われることで、農村部の人が正しく評価されなくなってしまう。司法アルゴリズムでも、差別的な観点を含む過去の判例を元にしたアルゴリズム開発は新たな差別につながりかねない。人材採用でも、学歴フィルターを機械学習技術を用いて開発した場合、低所得者層を不当に差別することにつながる。
白書では、機械学習を用いる上でのリスクを示し、開発者が尊重すべき原則をまとめた。原則には、「アクティブ・インクルージョン」「フェアネス」「理解する権利」「救済措置へのアクセス」の4つがある。
【参照ページ】World Economic Forum Unveils New Principles to Make Machine Learning More Human
【レポート】How to Prevent Discriminatory Outcomes in Machine Learning
Sustainable Japanの特長
Sustainable Japanは、サステナビリティ・ESGに関する
様々な情報収集を効率化できる専門メディアです。
- 時価総額上位100社の96%が登録済
- 業界第一人者が編集長
- 7記事/日程度追加、合計11,000以上の記事を読める
- 重要ニュースをウェビナーで分かりやすく解説※1
さらに詳しく ログインする※1:重要ニュース解説ウェビナー「SJダイジェスト」。詳細はこちら