Tweets

You blocked @HiromitsuTakagi

Are you sure you want to view these Tweets? Viewing Tweets won't unblock @HiromitsuTakagi

  1. Retweeted
    4 hours ago

    [日本経済新聞] リクナビ情報提供、購入企業も調査対象 厚労相が見解

    Undo
  2. 3 hours ago

    システムを提供して利用させた場合は、利用した企業の責任であることが明確であり、個人データ利用も当該企業の行いとして法遵守が問われるが、今回は、リクルート主導で行われ、採用企業は言われるまま無責任に行動した点が問題の核心であり、それが法違反として現れている。

    Show this thread
    Undo
  3. 3 hours ago

    今回の問題は多重にあって、システムを企業に提供して利用させることが生む問題は上記の点に共通する問題であるが、今回はその他に、そうした問題を正常化するための行政規制のルールに違反していたという問題性がある。

    Show this thread
    Undo
  4. 3 hours ago

    判断の責任を負いたくない人間が「コンピュータの方が正確である」を理由として責任を放棄してしまう傾向がある旨も、前掲の1975年国連事務総長報告書にも記載されている。

    Show this thread
    Undo
  5. 3 hours ago

    仮にデータを用いるのがやむを得ないとしても最後は人の判断を通す(人が責任を持つ)というのも、EUのデータ保護法の理念の一つであり、GDPRでは自動意思決定を規制している。

    Show this thread
    Undo
  6. 3 hours ago

    プロの人間は何百人もいてそれぞれ「学習済みモデル」が異なる。ところが機械(データ処理)の普及は、得てして寡占的となり、数個程度の「脳」が広範に普及することとなり、結果、逃げ場のない負け組の人々が出てくる。これを人権侵害とするのがデータ保護法の元々の理念。

    Show this thread
    Undo
  7. 3 hours ago

    機械(データ処理)による判断は画一的で結果に偏りが生じて外れ値となった人間の尊厳が阻害されるというのが1970年代の懸念で、データ保護法につながった。 奥平康弘・戸松秀典「国連事務総長報告書(抄)人権と科学技術の開発」ジュリスト 589号(有斐閣, 1975.6.15)105頁

    Show this thread
    Undo
  8. 4 hours ago
    Show this thread
    Undo
  9. 4 hours ago

    リクナビも、不採用にするのでなく内定後の支援(フォロー)のためと称していたけども、他の事例でそういった用途のものがあるのを見聞きして、そういうことにすれば(自分たちが作ったものを)正当化できると思ったのかなあ。

    Show this thread
    Undo
  10. Retweeted
    4 hours ago

    AIが人間の目に見えるようなアルゴリズムは出力しないで出した答え,というものを「説明はできませんがこう出ました」と言って使えるのか,やっぱり理由は説明しないといけないのか。そのときAIの判断を記述するための「概念」はAiが作るのか人間が作るのか,などなど。

    Undo
  11. Retweeted
    4 hours ago

    しかし信頼性は高いが妥当性の低いテストはいくらでも作れるのである。

    Undo
  12. Retweeted
    4 hours ago

    ただまあ「同じ情報が入力されたら同じ結果が出る」という意味での信頼性は必要なところではとても重要になる。面接を心理テストに置き換えようと考えたのも主にその理由なんだし。

    Undo
  13. Retweeted
    4 hours ago

    人間が面接して得られるのと同じ情報からAIが判断するなら(これは「心理テストが判断するなら」でも同じ),機械の方が(心理テストでいう意味の)信頼性は向上するだろうが妥当性は面接ととくに変わらないのではないか。

    Undo
  14. Retweeted
    4 hours ago

    ただ現在のAIとか機械学習をめぐる言説では(人間と同じことをやるのだが)「人間よりも正確あるいは妥当な判断ができる」という含意があったり,あるいはそれを導入しようとする人が「人間より優れている」と言いたがるところも引っかかっているのだと思う。

    Undo
  15. Retweeted
    4 hours ago

    採用試験の心理検査みたいなものについてもやってることはようは「面接の代行」なので,面接で判断していいことを機械が判断したらいけないと言うことはないわけで,価値判断は(機械がやるかどうかではなく)「どういう性質のデータからどういう性質の判断をしているか」で決まるのではないラジか。

    Undo
  16. Retweeted
    4 hours ago

    いくらでも機械学習できてしまう今では,企業も研究者も,ちゃんと機械に学習させて価値のある,物事の間に関連のある質の高いデータをもつところに価値が生じる時代だと思います。ゴミを入れてもゴミを出すことしか学習されませんので。

    Undo
  17. Retweeted
    4 hours ago

    こういう話が,「仕事がAIに奪われる」という話にもつながると思っています。そこに本当に何か関連があって人間の判断もある程度当たるのであれば,そのデータだけを抽出することができれば,機械に任せて判断させることもできる。

    Undo
  18. Retweeted
    4 hours ago

    リクルートの話も同じで,「リクナビの動きから辞退予測ができる」プロのアナリストをリクルートが各社に派遣する事業を展開したら,それは問題視されるでしょうか。データを提供,プログラムを提供,判断できるプロの人間を提供,の違いです。

    Undo
  19. Retweeted
    4 hours ago

    推薦試験の面接も同じで,受け答えを人間が判断しているだけですよね。その回答と退学に本当に関連があって,そのデータを人間が学習するか機械が学習すれば予測に使えます。人間の場合「こういう受け答えをする受験生は退学するんだよね」みたいな曖昧な直感になり,機械に学習させると確率を出す。

    Undo
  20. Retweeted
    4 hours ago

    大学がたとえば推薦入試で「退学予測」をして退学しそうな学生を不合格にするとか言ったら同じ問題になるのかなあ。

    Undo

Loading seems to be taking a while.

Twitter may be over capacity or experiencing a momentary hiccup. Try again or visit Twitter Status for more information.