Amazonが開発していた採用AIシステム、知らずのうちに男性優遇をしていたため廃止に

  • author ヤマダユウス型
Amazonが開発していた採用AIシステム、知らずのうちに男性優遇をしていたため廃止に
Image: Alex Wong/Getty Images

ブルータス、お前もか。

国内では東京医大の女性受験者に対する一律減点措置が話題になりましたが、Amazon(アマゾン)でも似た話があったようです。Amazonが開発していた採用AIシステムが、男性ばかりを選ぶ傾向にあったため運用廃止となりました。

過去10年のバイアスが浮かび上がる

才能ある人材を見つけるために生み出されたこのAI採用システムは、2014年から研究が行なわれていました。AIは候補者を5点でランク付けし、それを参考に担当者が採用を決定します。しかし、そのシステムにはジェンダー的な中立性がないことが2015年までにわかります。

AIが女性採用を避ける(男性を選ぶ)性格になってしまった原因は、学習に使われた過去10年の履歴書のパターン。これらはほとんど男性で、ハイテク業界が男性優位であることを示しています。10年も経てば、業界の男性女性比率も変わってきますよねぇ。

AIの柔軟性のなさ

結果として、たとえば履歴書から「女性のチェス部の部長」といった、「女性の」という文字を見つけた場合は評価を下げてしまうような、ジェンダーに中立的ではないシステムに仕上がったというわけ。Amazonは性差が評価につながらないようプログラムを修正しましたが、他の差別をもたらす仕組みがないとも限らないとし、2017年はじめに開発チームは解散しました。

これ、AIだからこそわかっちゃう小さな共通項が、結果の偏りを促すかもしれないって話でもありますよね。「なるほど過去には○○が多いのか、じゃあ○○を重視していこう」って。男女の差は顕著でしたけど、他にも出身地や人種、年齢、学歴などなど、紐付けられる項目はたくさんありますし。

なお、実際にこのシステムが採用に使われたことはないとのことです。リクルーティングは、まだまだ人間の柔軟さが活きる領域なのかも。

Source: Reuters

    あわせて読みたい

    powered by

    こちらもおすすめ