AIと「バイアス」:顔認識に高まる批判

コメントする

09/01/2018 by kaztaira

AIによる顔認識に、改めて批判の声が強まっている。

直近のきっかけは、アマゾンの顔認識AI「レコグニション」が上下両院28人の議員の顔を犯罪者と誤認識し、しかも黒人議員らの誤認識の割合が高かったという問題だ。

16836491502_e0d0b1316d_o

By Sheila Scarborough (CC BY 2.0) Using tech to flip facial recognition in video stories from Iran, at SXSWi

これ以前から、顔認識AIの誤認識、特に有色人種や女性の誤認識率が高いという「バイアス(偏見・差別)」の存在は指摘されてきた。

AIに潜む「バイアス」は、それによって就職やローン審査など実生活の場面で不利益を被る可能性がある一方、その判断の根拠がブラックボックス化してしまうという課題を抱える。

欧州連合(EU)で5月に施行された新たなプライバシー保護法制「一般データ保護規則(GDPR)」では、こういったAIなどによる「自動判定」を受けない権利を規定するなど、対処の取り組みも出ている。

顔認識AIに対しては、米マイクロソフトからも米国内法での規制を求める声明も発表されており、急速にマイナスイメージが拡大することへの危機感もあるようだ。

●「不平等を悪化させる危険性」

相次いで明らかになっている証拠によれば、これらのテクノロジーは、すでにある警察活動における人種の違いをめぐる不平等をさらに悪化させ、固定化してしまう危険性がある。

人種問題について強い影響力を持つ連邦議会黒人幹部会(CBC)の元議長で下院議員のエマニュエル・クリーバー氏(民主)は、8月15日、司法次官補代理のジョン・ゴア氏に宛てた公開書簡で、そう指摘した

その上でクリーバー氏は、司法省公民権局に対し、捜査機関における顔認識AIの利用が、公民権侵害、特に捜査における差別的な扱いを引き起こしていないか、調査するよう求めている。

グリーバー氏が指摘する「相次いで明らかになっている証拠」の一つが、アマゾンが提供している顔認識AI「レコグニション」をめぐる騒動だ。

●連邦議会議員28人を犯罪者と誤認識

アマゾンの顔認識AI「レコグニション」が、28人の連邦議会議員を逮捕歴のある人物として誤認識した――。

米自由人権協会(ACLU)は7月26日、公式ブログでそんな実験結果を明らかにしている。

aclu_rekognition_test

from ACLU

実験に使ったのは、ネットから入手した2万5000人分の逮捕写真。これを「レコグニション」に入力して「犯罪者データベース」を構築。

このデータベースに、535人の上下両院の連邦議会議員の顔写真を判定させたところ、28人が「犯罪者」と認識されたという。

この中には、公民権運動で知られる有力下院議員、ジョン・ルイス氏(民主)ら連邦議会黒人幹部会のメンバー6人も含まれており、有色人種の割合は39%。

議会における有色人種の割合20%の倍の割合だった、としている。

この結果を受けて、誤認識された28人のうち、いずれも民主党の上院議員のエドワード・マーキー氏と、下院議員のルイス・グティアレス氏、マーク・デソールニアー氏の3氏は連名で、アマゾンCEOのジェフ・ベゾス氏宛の公開書簡を送り、「レコグニション」の精度と、「バイアス」の検証について問い質している。

マーキー氏とやはり民主党上院のロン・ワイデン氏、クリス・クーンズ氏、さらに民主党下院で司法委員会のメンバーでもあるコーリー・ブッカー氏とジェロルド・ナドラー氏の5人は7月31日、連名で議会の補佐機関である会計検査院(GAO)に対し、政府機関における顔認識テクノロジーの使用状況と問題点について、調査を要求

また、マーキー氏ら上院の3人は、39の法執行機関に対しても、顔認識の使用状況について問い合わせている。

米自由人権協会の指摘に対して、アマゾン側は反論の声明を出している。

それによると、捜査機関での「レコグニション」の利用は、あくまで補助的なものであり、AIのみによる人物特定は行われていない、と説明。

さらに、米自由人権協会は顔識別の精度をデフォルトの80%で行っているが、このような用途では精度設定を95%に上げた上で使うことを推奨している、としている。

ただ、「レコグニション」の説明サイトでは、従業員の顔とIDカードとの照合に使うケースで「80%」という精度レベルを例示していた(現在は「99%」という例示に修正してある)。

●「顔認識」をめぐる反発

「レコグニション」をめぐる懸念が噴出したのは今年5月。

米自由人権協会など41の人権保護団体が、アマゾンCEOのジェフ・ベゾス氏に対して「レコグニション」の政府への提供をやめるよう求める公開書簡を送ったことで、注目を集めた。

※参照:「顔認識で監視」「アレクサが会話を盗み聞き」アマゾンAIに相次ぐ懸念(05/26/2018)

これは、米自由人権協会が情報公開によって入手した文書やアマゾンのマーケティング資料などによれば、アマゾンは2017年、オレゴン州ワシントン郡保安官事務所やフロリダ州オーランド市と契約。

ワシントン郡保安官事務所では、「レコグニション」を使って30万人分の容疑者の顔写真データベースを構築。保安官が顔写真照会ができるよう、モバイル用アプリも開発した、と郡保安官事務所の担当者がアマゾンAWSのブログで紹介していた。

アマゾンのサイトの説明によると、1枚の画像から最大100人の顔認識が可能になっているという。

「レコグニション」の法執行機関への提供に対しては、社内からも反発の声が上がり、社員有志が提供停止を求めるジェフ・ベゾス氏宛ての書簡をとりまとめる事態になっていた。

※参照:「テクノロジーで人権侵害に加担するな」社員の抗議、グーグルからマイクロソフト、アマゾンに拡大(06/23/2018)

これ以前にも、グーグルが同社のオープンソース機械学習基盤「テンソルフロー」を、国防総省のAI化計画「プロジェクト・メイブン」における画像認識のために提供していたことが3月に発覚。

社員4000人の反対署名や抗議退職を受けて、契約更新を見送る、という騒動もあった。

※参照:「軍事」と「邪悪」:グーグルがAIの軍用提供を中止する理由(06/02/2018)

●「画像認識は女性、有色人種の精度が低い」

顔認識AIへの懸念は、誤認識による人権侵害。なかでも性別や人種により、そもそもの認識精度に大きな開きが出てしまうという「バイアス」の問題が大きい。

この問題を端的に示す研究が今年2月に明らかにされていた。

マサチューセッツ工科大学メディアラボのジョイ・ブオラムウィニ氏らの研究によると、顔認識のシステムでは、有色人種や女性の誤認識率が高いことが判明したという。

ブオラムウィニ氏らは、性別、人種のバランスを考慮し、ルワンダ、セネガル、南アフリカのアフリカ3カ国と、アイスランド、フィンランド、スウェーデンの欧州3カ国の議会議員1270人の顔写真をサンプルとして使用し、性別と肌の色(白い、黒い)で分類。

マイクロソフト、IBM、さらに中国の顔認識サービス「フェイス++」の3つのサービスの認識精度を比較している。

それによると、3つのサービスの誤認識率は、いずれも男性より女性の方が高く、白い肌より黒い肌の方が高かった。

さらに、性別と肌の色の組み合わせでは、いずれも誤認識率が最も高かったのは肌の黒い女性。マイクロソフトでは20.8%、フェイス++では34.5%、IBMでは34.7%だった。

逆に誤認識率が最も低かったのはマイクロソフト(0.0%)とIBM(0.3%)で白い肌の男性。フェイス++では肌の黒い男性(0.7%)。肌の黒い女性との格差が大きいことが確認された、という。

●AIに潜む「バイアス」

このようなAIによる「バイアス」が大きな注目を集めたのが、2016年5月に調査報道サイト「プロパブリカ」が明らかにした、「再犯予測プログラム」の問題だった。

※参照:見えないアルゴリズム:「再犯予測プログラム」が判決を左右する(08/06/2016)

米ウィスコンシン州などでは、判決の参考データとして、被告の再犯可能性を予測する「再犯予測プログラム」が使われている。

「再犯予測プログラム」では被告に137問の質問に答えさせ、過去の犯罪データとの照合により、再び犯罪を犯す危険性を10段階の点数として割り出す。

だがプロパブリカが独自に検証したところ、機械学習によると見られるこの「再犯予測プログラム」が、黒人に対し、高い再犯予測をすることが明らかになったという。

こういった「バイアス」がAIに入り込む主な原因は、AIが学習する元データにある。

人種や性別による差別があった環境のデータをAIが学習することで、その価値観を埋め込まれたモデルがつくり出され、それがAIによる予測や判定に反映してしまう。

しかも、予測や判定の当事者には、そこに「バイアス」があるかどうかもよくわからない。

だが、一方では採用選考やローン審査など、身近な場面でAI導入が進んでいる。

●「バイアス」と可視化

この現状への取り組みも始まっている。

5月に施行されたEUの新たなプライバシー保護法制「一般データ保護規則(GDPR)」では、AIによる判断など「プロファイリングを含む個人に対する自動化された意思決定」(22条)について、こう規定している。

データ主体は、当該データ主体に関する法的効果を発生させる、又は、当該データ主体に対して同様の重大な影響を及ぼすプロファイリングを含むもっぱら自動化された取扱いに基づいた決定の対象とされない権利を有する。

また、このような場合には「データ保護影響評価」(35条)が必要とされ、「自動化された意思決定」のプロセスやロジックの開示といった説明なども想定されている

つまりGDPRには、すでにAIのブラックボックス化及び、そこに潜む「バイアス」に取り組むことが盛り込まれているのだ。

このようなAIの可視化への動きは他にもある。

国防総省の国防高等研究計画局(DARPA)は、機能を維持しながら人間に理解可能なAIを目指す「説明可能なAI(XAI)」のプロジェクトを推進。

さらに、「バイアス」の”検出ツール“や、”アルゴリズム監査“など、新たなサービスも登場してきている。

●法規制を求めるマイクロソフト

一連の顔認証AIの騒動を受けて、IT業界側から法規制を求める動きも出ている。

声を上げているのはマイクロソフトだ。

グーグルやアマゾンと同様、マイクロソフトでも、100人を超す社員が、顔認証AIの政府への提供に関するサティア・ナデラCEO宛の公開質問状を、社内掲示板に投稿していた。

トランプ政権が進めた2000人以上の不法移民の子どもたちの、親との「引き離し政策」が社会問題化する中で、不法移民の取り締まりにあたる国土安全保障省の移民税関執行局(ICE)とマイクロソフトとの契約に注目が集まったのだ。

マイクロソフトは今年1月、公式ブログの中で、米国政府機関向けのクラウドサービス「アジュール・ガバメント」がICEに採用されていることを公表していた。

そして、「アジュール・ガバメント」には顔認識AIの機能も実装されていることから、社員の反発を招いたようだ。

マイクロソフトは、ICEとの契約には顔認識AIの機能は含まれていない、との立場をとっている。

そして、同社のブラッド・スミス社長名で7月13日に公式ブログを発表。

その中で、スミス氏はこう述べている。

企業が自社製品に対する政府の規制を求めるのことは、奇異に映るかも知れない。しかし、周到な規制が消費者、生産者の双方にとってより健全な活性化をもたらしている市場はたくさんある。(中略)製品に対する強固な規制が、有効に機能しつつ潜在的な問題もはらむ世界は、法的な基準のない世界に勝るのだ。

このまま社内外の批判の圧力ばかりが高まっていくことへの危機感もあるようだ。

一方で、ニューヨーク・タイムズによれば、マイクロソフトのほか、フェイスブック、グーグル、IBMなどのIT大手は、米国には存在していない連邦法としてのプライバシー保護法新設に向けて働きかけを始めている、とも言う。

これは今年6月に成立、2020年1月施行となる、カリフォルニア州消費者プライバシー保護法が視野にあるという。

強固な保護措置で知られる同州のプライバシー保護法を、新たに連邦法をつくることで上書きし、骨抜きにする狙いではないか――との同紙の見立てだ。

EUのGDPRのインパクトは強く、同様の保護法が、各州に次々と広がっていくことへの懸念が、IT業界には強いという。

そんな、「防波堤」としての法規制の推進という文脈が、マイクロソフトの顔認識AI規制のキャンペーンにもあるのかもしれない。

——–
■新刊『信じてはいけない 民主主義を壊すフェイクニュースの正体』(朝日新書)

「信じてはいけない」書影帯あり

■デジタルメディア・リテラシーをまとめたダン・ギルモア著の『あなたがメディア ソーシャル新時代の情報術』(拙訳)全文公開中

※このブログは「ハフィントン・ポスト」にも転載されています。

広告
Report this ad
Report this ad

コメントを残す

アーカイブ

ブログ統計情報

  • 706,277 ヒット
%d人のブロガーが「いいね」をつけました。
:)