米AmazonのAIによる履歴書判定システム、男性有利な判定が判明して開発中止になっていた 9
ストーリー by headless
判定 部門より
判定 部門より
米Amazonが求職者の履歴書に自動でランキング付けするAIシステムを研究していたが、一部の職種で男性に有利な判定をすることが判明して開発を中止していたとReutersが報じている(Reutersの記事、
The Guardianの記事、
Mashableの記事、
V3の記事)。
Reutersの情報提供者によると、開発が始まったのは2014年。このシステムはAmazonのレビューと同様に星5つで履歴書をランキングするものだったという。しかし、ソフトウェア開発者やそのほかの技術職では性別によってかたよった判定をすることが翌年までに判明する。学習に使用したデータは過去10年にAmazonに送られた履歴書であり、そのほとんどが男性求職者の履歴書だったことが原因とみられる。その結果、「women's」などの語句を含む履歴書や、女子大学2校の卒業者の履歴書は減点の対象になっていたそうだ。
Amazonは特定の語句についてニュートラルな判定をするようプログラムを調整したが、差別的処理が行われていることを判別できない方法をAIが見つけ出さないとも限らないため、昨年初めに開発チームは解散したとのこと。AmazonはReutersに対し、技術的困難に関する質問に回答しなかったが、人事担当者が実際に使用したことはないと述べたという。ただし、AIが生成した判定結果を人事担当者が見たかどうかについては否定しなかったとのことだ。
Reutersの情報提供者によると、開発が始まったのは2014年。このシステムはAmazonのレビューと同様に星5つで履歴書をランキングするものだったという。しかし、ソフトウェア開発者やそのほかの技術職では性別によってかたよった判定をすることが翌年までに判明する。学習に使用したデータは過去10年にAmazonに送られた履歴書であり、そのほとんどが男性求職者の履歴書だったことが原因とみられる。その結果、「women's」などの語句を含む履歴書や、女子大学2校の卒業者の履歴書は減点の対象になっていたそうだ。
Amazonは特定の語句についてニュートラルな判定をするようプログラムを調整したが、差別的処理が行われていることを判別できない方法をAIが見つけ出さないとも限らないため、昨年初めに開発チームは解散したとのこと。AmazonはReutersに対し、技術的困難に関する質問に回答しなかったが、人事担当者が実際に使用したことはないと述べたという。ただし、AIが生成した判定結果を人事担当者が見たかどうかについては否定しなかったとのことだ。
まだ早すぎる? (スコア:1)
Re:まだ早すぎる? (スコア:1)
今のAIはAIといっても所詮データから統計学的に結果を導き出すだけなのだから
今回の場合は単純に過去の採用結果に男性偏重という傾向があって、
今まで人間が色々理由つけてあるいは人間自身も気づかないうちに男性に偏って採用していたのをAIが暴いただけだと思う。
元のデータが政治的に正しくないことを判断し、政治的に正しい回答を出させるのはもう1ステップ先の技術だろうから
政治的に正しくない回答を許容するぐらいの度量見せないと、人間を評価するのにAIを使う試みは当分停滞すると思う。
Re: (スコア:0)
そもそも意図通りに学習したか、普通の人間にとってはブラックボックス状態。
相関関係は有っても、実際は因果関係が無い危険なアルゴリズムの可能性が有る。
また、限られた既存の学習データで学ばせているから過去は良くても、未来に向いてるかはまた別問題。
今後はAI(という名のブラックボックス)をリバースエンジニアリングして有用なアルゴリズムを抽出するのが花形なお仕事になるのかも。
Re: (スコア:0)
過去合理的だったものが、未来も合理的かどうかという問題と思いました。
短絡的な方法としては、学習時に時間のパラメータを重視するようにすれば、
10年前と去年を比べて、女子比率が高まっていれば、女子を優遇するとか?
でも、それで問題の解決になっている気がしない・・・
Re: (スコア:0)
永遠にできないから心配しなくていい
学習データが間違っていたっていうだけでしょ (スコア:1)
ただ単に過去10年間のデータのうち
・履歴書データに男性が多かった
・従業員割合として男性が多い
そのため、女性を原点としたわけで別に差別的だったわけじゃなくって
学習のさせ方と学習データが間違っていた
法律とか (スコア:0)
AIにまず法律とか学ばせて、どんなことが差別になるか学ばせれば良いのでは。
当然それは国によって異なるものになる。
Re: (スコア:0)
この場合には法律知識は関係ない。
差別的扱いしても奴隷扱いして殺しても、法規制をすり抜けるAIが欲しいんじゃなくて、
性別とか人種宗教と言った色眼鏡を外して真に優秀な人材を見抜くAIが欲しいんだよ。
これが日本政府なら、ベトナム人奴隷を技能研修生名目で効率良く過労死させるAIを
欲しがるかもしれないけど、Amazonの目的はそれじゃなかろう。
AIが分かっていない (スコア:0)
> 差別的処理が行われていることを判別できない方法をAIが見つけ出さないとも限らない
AI使おうというのになぜこんなことを考えるのか。