パスワードを忘れた? アカウント作成
13743737 story
人工知能

米AmazonのAIによる履歴書判定システム、男性有利な判定が判明して開発中止になっていた 9

ストーリー by headless
判定 部門より
米Amazonが求職者の履歴書に自動でランキング付けするAIシステムを研究していたが、一部の職種で男性に有利な判定をすることが判明して開発を中止していたとReutersが報じている(Reutersの記事The Guardianの記事Mashableの記事V3の記事)。

Reutersの情報提供者によると、開発が始まったのは2014年。このシステムはAmazonのレビューと同様に星5つで履歴書をランキングするものだったという。しかし、ソフトウェア開発者やそのほかの技術職では性別によってかたよった判定をすることが翌年までに判明する。学習に使用したデータは過去10年にAmazonに送られた履歴書であり、そのほとんどが男性求職者の履歴書だったことが原因とみられる。その結果、「women's」などの語句を含む履歴書や、女子大学2校の卒業者の履歴書は減点の対象になっていたそうだ。

Amazonは特定の語句についてニュートラルな判定をするようプログラムを調整したが、差別的処理が行われていることを判別できない方法をAIが見つけ出さないとも限らないため、昨年初めに開発チームは解散したとのこと。AmazonはReutersに対し、技術的困難に関する質問に回答しなかったが、人事担当者が実際に使用したことはないと述べたという。ただし、AIが生成した判定結果を人事担当者が見たかどうかについては否定しなかったとのことだ。

関連リンク

  • by momo_4th (39293) on 2018年10月14日 17時41分 (#3497588) 日記
    AIが”合理的に”判断した結果を、人類は受け入れられる準備が整っているんですかね。 今回はいろいろ不十分だったので助かったようですが。
    ここに返信
    • by Anonymous Coward on 2018年10月14日 18時07分 (#3497602)

      今のAIはAIといっても所詮データから統計学的に結果を導き出すだけなのだから
      今回の場合は単純に過去の採用結果に男性偏重という傾向があって、
      今まで人間が色々理由つけてあるいは人間自身も気づかないうちに男性に偏って採用していたのをAIが暴いただけだと思う。

      元のデータが政治的に正しくないことを判断し、政治的に正しい回答を出させるのはもう1ステップ先の技術だろうから
      政治的に正しくない回答を許容するぐらいの度量見せないと、人間を評価するのにAIを使う試みは当分停滞すると思う。

    • by Anonymous Coward

      そもそも意図通りに学習したか、普通の人間にとってはブラックボックス状態。
      相関関係は有っても、実際は因果関係が無い危険なアルゴリズムの可能性が有る。

      また、限られた既存の学習データで学ばせているから過去は良くても、未来に向いてるかはまた別問題。

      今後はAI(という名のブラックボックス)をリバースエンジニアリングして有用なアルゴリズムを抽出するのが花形なお仕事になるのかも。

    • by Anonymous Coward

      過去合理的だったものが、未来も合理的かどうかという問題と思いました。
      短絡的な方法としては、学習時に時間のパラメータを重視するようにすれば、
      10年前と去年を比べて、女子比率が高まっていれば、女子を優遇するとか?
      でも、それで問題の解決になっている気がしない・・・

    • by Anonymous Coward

      永遠にできないから心配しなくていい

  • ただ単に過去10年間のデータのうち
    ・履歴書データに男性が多かった
    ・従業員割合として男性が多い

    そのため、女性を原点としたわけで別に差別的だったわけじゃなくって
    学習のさせ方と学習データが間違っていた

    ここに返信
  • by Anonymous Coward on 2018年10月14日 18時08分 (#3497606)

    AIにまず法律とか学ばせて、どんなことが差別になるか学ばせれば良いのでは。
    当然それは国によって異なるものになる。

    ここに返信
    • by Anonymous Coward

      この場合には法律知識は関係ない。

      差別的扱いしても奴隷扱いして殺しても、法規制をすり抜けるAIが欲しいんじゃなくて、
      性別とか人種宗教と言った色眼鏡を外して真に優秀な人材を見抜くAIが欲しいんだよ。

      これが日本政府なら、ベトナム人奴隷を技能研修生名目で効率良く過労死させるAIを
      欲しがるかもしれないけど、Amazonの目的はそれじゃなかろう。

  • by Anonymous Coward on 2018年10月14日 18時17分 (#3497608)

    > 差別的処理が行われていることを判別できない方法をAIが見つけ出さないとも限らない
    AI使おうというのになぜこんなことを考えるのか。

    ここに返信
typodupeerror

人生の大半の問題はスルー力で解決する -- スルー力研究専門家

読み込み中...