グーグルのAI倫理研究チーム責任者の解雇をきっかけに、AIが持つバイアスの問題に注目が集まっている。大量のテキストから学習するAIは、人種やジェンダーに関する過去のバイアスを取り込んでしまうという。より公正な判断をするAIの開発には、時間と資金を犠牲にしてでも人間のチェックを介在させる必要がある。
米国の政治科学者バージニア・ユーバンクス氏は、2010年代に「人工知能(AI)を組み込んだコンピューター・プログラムは貧しい人々に被害を与えているか」というテーマで研究に着手し、ピッツバーグやロサンゼルスなどで調査を実施した。
その成果をまとめた著書『オートメーティング・インイクオリティ(自動化する不平等)』(2018年)を読むと、背筋が凍る思いがする。ユーバンクス氏によると、医療や給付金、治安関連の業務で用いられるAIシステムは、官民問わず、偏ったデータと人種的・ジェンダー的なバイアスに基づいて、不安定で有害な判断を下すという。
もっと悪いことに、AIシステムは判断に至るまでの思考回路がブラックボックス化されているため、たとえ判断結果が間違っていても、それを確認したり、異議を申し立てたりするのが難しい。「モラルや懲罰を振りかざして貧困層を管理・監督しようと考える人の『犠牲者』ならば、なおさら声を上げづらいだろう」とユーバンクス氏は指摘する。
この本が出版されたとき、同氏の発する警告は世間の注目をほとんど集めなかった。だが今、遅ればせながら、AIが持つバイアスの問題がシリコンバレーで議論を巻き起こしている。だが、議論に火を付けたのは貧しい人々からの声ではなく、米グーグルで巨額の報酬を受け取る技術者たちの間で起こった激しい対立だった。
AIの危険性を警告して解雇か
2月19日、グーグルでAIの倫理を研究するチームの共同責任者だったマーガレット・ミッチェル氏が解雇された。グーグルによると、解雇理由は「ビジネス上の極秘文書とほかの従業員の個人情報をひそかに流出」させたためだという。この表現が何を意味するかについてグーグルは説明していないが、どうやらミッチェル氏は、同社がティムニット・ゲブル氏を不当に扱った証拠を探っていたようだ。ゲブル氏はミッチェル氏と共同でAI倫理研究チームを率いていた人物で、20年12月に離職を余儀なくされた。
この件はグーグルにとって非常に悩ましい出来事だ。ゲブル氏は非常にまれな才能とキャリアを持つ人物である。経験豊富な黒人女性技術者であり、業界団体「ブラック・イン・AI」を通じて人種やジェンダーのバイアスと闘ってきた。さらに厄介なことに、ゲブル氏はグーグルを離れる前に、AIを使った野放図な技術革新の危険性を警告する研究論文を発表しようとしていた。これがグーグル幹部の怒りを買ったと見られている。
この攻撃的な論文は、あいにくあまりにも専門的過ぎて一般の人々には注目されなかった。だが、論文の中で力点が置かれていたのは、大量のテキストを解析する自然言語処理プラットフォームが、ユーバンクス氏が警告したようなバイアスを持ち得るとの指摘だった。
ゲブル氏がグーグルを離職した後、ミッチェル氏はグーグルの同僚たちに、ゲブル氏が標的にされたのは、「悪意ある者に扱われると、我々のAIシステムも人種差別的・性差別的な判断をしてしまう構造基盤がある」せいだと話している。
ミッチェル氏は筆者に「私は自分の立場を行使して、グーグルに人種と男女の不平等に関する疑念を提起しようとしたのだ。こうして解雇されたことにぼうぜんとしている」と語った。
ゲブル氏も同様に語る。「AIの設計と倫理に関して判断を下す決定権を誰が握るか。誰が名声と報酬を得るか。残念ながら、それは黒人女性ではなかったということだ。社内には、私の存在に我慢がならない人がたくさんいた」
グーグルはこうしたゲブル氏らの見方を否定し、ゲブル氏が同社を去ったのは、研究に関する内規に違反したためだと説明する。その証拠として同社は、刷新されたAI倫理研究チームの責任者として別の黒人女性のマリアン・クローク氏を任命したことを挙げる。同社のスンダー・ピチャイCEO(最高経営責任者)は、社員に謝罪もした。
だが今後の同社の多様性に対する取り組みは、ビジネス的な表現をするのであれば「途上にある」というのがふさわしいだろう。