テック企業が「中国で倫理的であること」の難しさを、アップルの対応が浮き彫りにしている

プライヴァシー重視の姿勢を打ち出しているアップル。こと中国においては、香港のデモ隊が利用するアプリや台湾の旗の絵文字の削除、コンテンツ制作において中国のネガティヴな描写を避けるなど、そのポリシーに沿わない動きを見せている。巨大市場である中国においては、その倫理観を貫き通すことは難しいのか。

HONG KONG

ANTHONY WALLACE/AFP/AFLO

フェイスブックがケンブリッジ・アナリティカを巡るスキャンダルに対処していた2018年10月。アップルの最高経営責任者(CEO)のティム・クックはブリュッセルで講演し、自社と競合企業の違いを明確に示そうとした。

クックは「データ産業複合体」のことを激しく非難した。そしてグーグルやフェイスブックといった企業がユーザーから個人情報を収集し、それをユーザーに対する“兵器”として利用していると批判したのだ。

「これは監視なのです」とクックは言った。「わたしたちはこれを非常に不愉快に思うべきであり、不安に感じるべきなのです」

このときの講演の狙いは、ほかの企業がユーザーのデータを利用して利益を得ている反面、積極的に保護してきた企業としてのアップルのシリコンヴァレーにおける“プライヴァシーの守護者”の地位を再確認することにあった。

多くの意味で、その評価は自らの手で築き上げてきたものだ。なにしろアップルは、2015年に発生したサンバーナーディーノ銃乱射事件で、容疑者のひとりが所有していたiPhoneのロック解除のために、FBIから協力を要請されても拒否したほどである。

アップルのデヴァイスの安全性は世界最高レヴェルであり、さらに自社アプリ内でのデータ追跡も積極的に制限してきた。ところが、アップルの中国における最近の動向を見ると、そのプライヴァシー、セキュリティ、人権に対する高い倫理観には限界があることが浮き彫りになっている。同社の倫理観は、必ずしも中国の国境を越えられるとは限らないのだ。

中国でアプリを削除したアップル

アップルは2019年10月初旬、香港民主化のデモ隊が警察の動きを追跡するために使用していたアプリ「HKmap.live」を、「App Store」から削除した。これは中国共産党の機関紙『人民日報』に、同アプリを批判する論説が掲載されたあとのことだった。さらに、ビジネスニュースサイト「Quartz」が香港でのデモ活動を大々的に報道したあとには、中国のApp Storeから同サイトのアプリを削除している。

また時期をほぼ同じくして、アップルは香港とマカオのユーザーのデヴァイスから台湾の旗の絵文字を削除し始めた。中国共産党は「ひとつの中国」という原則に基づき、台湾が正式に中国の一部であると主張している(それ以前は、台湾の旗の絵文字が使えないのは中国本土のみだった)。

アップルは、HKmap.liveを削除した理由を、中国から圧力を受けたからではなく、同アプリが安全上のリスクをもたらしたからだと主張している。「懸念を抱いた香港の多数のお客さまから問い合わせを受け、ただちに調査を開始しました」と、アップルの広報担当者は声明で述べている。

「このアプリは警察のいる位置を表示するもので、警察を標的とした待ち伏せ攻撃を行ったり、公共の安全を脅かしたり、警察がいない地域の住民に犯罪者が危害をもたらしたりするために利用されてきたことを、当社は香港サイバーセキュリティ・テクノロジー犯罪局から確認しました」

番組制作者にも圧力?

ティム・クックはアップルの従業員に向けた社内メッセージのなかで、HKmap.liveが「個々の警察官を暴力の標的にするために悪意をもって利用されていた」と信じるに足る確かな理由があると繰り返し強調した。ところがデモ活動のリーダーや、香港立法会議員でITを専門とする莫乃光(チャールズ・モック)は、同アプリはクラウドソーシングによる情報に依存しており、かつ個々の警察官を特定することはなく、危険性をもたらすと考えるのは合理的でないと異議を唱えた

また有名なアップル評論家のジョン・グルーバーは、クックの書簡について「これほど簡単にぼろが出てくるようなアップルのメモや声明は、これまでなかったと思います」と指摘している。「普段なら実行に移す前に数えきれないほどの評価を重ねる企業であることを考えると、悲しいと同時に驚きでもあります」

さらにニュースサイト「Buzzfeed News」が10月上旬に報じたところによると、アップルは2018年、一部の「Apple TV+」の番組制作者に対して、過去にほかのスタジオがしてきたような中国のネガティヴな描写は避けるようにとの指示を出したという。

「これはつまり、(中国の)検閲が中国の国外の視聴者にまで及んでいるということです」と、非営利国際人権組織ヒューマン・ライツ・ウォッチのリサーチャーとして中国を研究する王亜秋(ワン・ヤーチウ)は言う。「これらの番組は中国国民だけが視聴するものではありません。ですから米国人も懸念すべきなのです」。アップルはBuzzfeedの報道についてコメントしていない。

民主主義的な価値観と利益との板挟みに

これらの決定には、いずれも中国指導部を怒らせることに対するアップルの強い懸念が現れている。「過去数年間、アップルは言論の自由とプライヴァシーの保護の領域で数々の譲歩をしてきました」と王は言う。「譲歩するたびに、中国政府に服従を受け入れる意思があるというメッセージを送っていることになります」

アップルは2018年、中国の国内法に準拠して中国のiCloudアカウントのデータと暗号化キーを中国国内で保存するようになったことから、中国政府にとっては国民の情報が入手しやすくなった。また2017年、アップルは中国のApp Storeから『ニューヨーク・タイムズ』のアプリと、数百に及ぶVPN(仮想プライヴェートネットワーク)アプリを削除している。

これらのアプリは、中国のインターネットの検閲によって遮断されているコンテンツに、中国のユーザーがアクセスすることを可能にするものだった。だが、それは中国では違法とされている。

中国への参入に大きく失敗した米国のほかの巨大テック企業とは異なり、アップルの事業は中国に強く依存している。同社のiPhoneやその他のガジェットの大部分は中国で生産や組立てが行われているほか、2019年6月までの12カ月における中国での同社の売上額は、およそ440億ドル(約4.8兆円)にのぼった。

中国、香港そして台湾を合わせた市場は、同社にとって米国に次いで2番目の規模である。だが、民主化デモ運動が香港で数カ月にわたり続くなか、アップルは自らが表明する民主主義的な価値観と、利益の高い事業とのはざまで板挟み状態にある、数多くの国際的企業のひとつとなっている。

弾圧に利用されていた脆弱性

グーグルもまた、そこに含まれる企業のひとつだ。同社は10月半ば、「Google Play ストア」から香港のデモ運動を支持するモバイルゲーム「The Revolution of Our Times」を削除したことで、社内の従業員から批判を浴びたと報じられた。

また2019年はじめには、長期にわたる従業員からの反発と連邦議員による調査を受け、検閲に対応した中国向け検索エンジンの開発を断念している。だが、たとえアップルの従業員が同じように中国における経営者の行動に異議を唱えたとしても、同社は中国から簡単に手を引くことはできないだろう。アップルにとって中国は必要な存在となっており、そのせいで同社は本質的に厄介な立場に陥っているからだ。

8月にはこんなこともあった。まずグーグルのリサーチャーが驚くべきiPhoneの脆弱性の数々を明らかにした。特定のウェブサイトにアクセスすると、ほぼ即時にそのiPhoneから情報が漏洩するというものだ。

さらに複数のニュースメディアで、この脆弱性を利用した攻撃が中国の少数民族であるウイグル族を標的に用いられていたことが報じられた。現在、100万人以上のウイグル族が西部の新疆ウイグル自治区の収容施設で拘留されている。

アップルがこの脆弱性についてようやく発表した声明では、ウイグル族が標的とされていたことは認めたものの、そのなかで「中国」や「人権」という言葉が用いられることはなかった。また、長年にわたり中国のイスラム教の少数グループや、その他の宗教的・民族的少数グループが、厳しい監視技術に苦められてきたことについて認識を示すこともなかった。

あの中国企業との密接な関係

さらに最近は、セーフブラウジング機能を巡る批判もある。これはユーザーが悪質なウェブサイトにアクセスしている可能性があるときに警告を発する機能で、アップルが自社のウェブブラウザー「Safari」内で10年以上にわたり用いてきたものだ。

世界中のほとんどの場合において、Safariユーザーが利用しているセーフブラウジング機能は、グーグルに依存している。悪質あるいは有害な可能性があると特定されたウェブサイトのリストを管理するのはグーグルだ。

ユーザーが悪質あるいは有害なウェブサイトにアクセスした可能性があるとアップルが判断すると、グーグルのデータベースにそのURLを照会する。そして一致するURLが見つかった場合、アップルは警告を表示するわけだ。

しかし、中国のSafariユーザーが利用するセーフブラウジング機能は、中国政府とつながりをもつ中国のインターネット企業テンセント(騰訊控股)が蓄積したデータベースに依存している。この2社のつながりについては、米国では10月半ばまであまり知られていなかった。

「ある日突然、テンセントの名前が出てきたんです。それが懸念を引き起こしました」と、ジョンズ・ホプキンス大学の暗号研究者マシュー・グリーンは言う。なお、アップルは2017年に中国メディア組織とのパートナーシップを開始した当時、関連する発表を行っている。

グリーンが懸念しているのは、テンセントがセーフブラウジング機能を利用して、中国のiPhoneユーザーが特定のウェブサイトにアクセスしたかどうかを監視することが可能である点だ。これは同社が“悪質URLのリスト”となるものを最終的に管理する立場にあるからである。

中国政府は、すでにほかの手段を用いて国民のデジタル行動を広く監視している。ユーザーが悪質とされるウェブサイトにアクセスした場合、そのユーザーのIPアドレスだけでなく、それに伴う位置情報もテンセントに共有されることをアップルは認めている。アップルの広報担当者は声明のなかで、「アクセスしたウェブサイトのURLそのものが、セーフブラウジング用データのプロヴァイダーに共有されることは決してありません。また、この警告機能をオフにすることも可能です」と述べている。

テック企業が中立性を保つことは、もはや不可能に?

中国の込み入った政治問題は、アップルなどのテック企業だけでなく、中国の消費者の機嫌を伺うあらゆる企業に問題を引き起こしている。10月はじめには、NBAのヒューストン・ロケッツでゼネラルマネージャーを務めるダリル・モーリーが発信した香港のデモ活動を支持するツイートが、強制的に削除させられた。

その後、テンセントと中国国営メディアがNBAプレシーズンマッチのデジタルストリーミングを停止し、モーリーとNBAは謝罪を発表した。またその2日後には、ゲーム会社のアクティヴィジョン・ブリザードが、同様に香港での民主化運動への支持を示したeスポーツのプロ選手で香港出身のBlitzchungこと呉偉聡(ン・ワイチョン)選手を出場停止処分にしている。

だがアップルの場合、単なる広告関係以上の利害が絡んでいる。中国の国民は、生活にかかわるほぼすべてのデータをiPhoneに保存しているからだ。

「テック企業が中立性を保つことは、もはや不可能になっているのです。中立などありません。もはや問題は、『世界最大級の市場でデモ側につくのか、それとも警察や中国政府の側につくのか』ということなのです」と、シンクタンクのニュー・アメリカでサイバーセキュリティ政策および中国のデジタル経済を研究するフェローのサム・サックスは言う。「これはほぼ“Lose-Lose(どちらの側も不利になる)”の状況です」

アップルに関して言えば、中国における自社の存在について「開放性の向上を促進する助けとなり、アイデアや情報の自由な流れを円滑にする」と主張している。これは2017年に、アップルのヴァイスプレジデントで公共政策および政府関連業務を担当するシンシア・ホーガンが、米国上院議員のパトリック・リーヒとテッド・クルーズに宛てた書簡に記した内容だ。

「アップルは特定国の法律に同意できない場合であっても、積極的に関与することによって表現の自由に対する権利を含む基本的権利を促進することができると確信しています」

※『WIRED』によるアップルの関連記事はこちら

RELATED

SHARE

AIによる人物写真のラベリングは、どこまで適切なのか? ある実験が浮き彫りにした「偏見」の根深い問題

今年の9月にネットで話題になった「ImageNet Roulette」というプロジェクト。画像データベースによるディープラーニングに基づいて人物の写真をラベリングするという実験的な試みだったが、その狙いはAIに潜む偏見(バイアス)の存在を浮き彫りにすることにあった。

TEXT BY GREGORY BARBER
TRANSLATION BY RYO OGATA/GALILEO

WIRED(US)

Monitoring technology is seen at the exhibition hall at the Huawei

BILLY H.C. KWOK/GETTY IMAGES

Twitterユーザーたちが9月、奇妙なラベル付けがされた自分の写真を投稿し始めた。そこには「顔」といった当たり前すぎてかえって当惑するようなラベルが貼られている一方で、なかなかつらい真実を再認識させられるラベルもあった。ちなみにわたしは「何の影響力もない人物」。とるに足らない、“誰でもない”人間であると宣告されたのである。

それはともかく、もっと問題のあるラベルもたくさんあった。「強姦の容疑者」や「債務者」といった表記、そして「黒人」だけでなく「ニグロ」や「ネグロイド」というラベリングまで見られたのだ。

これらはすべて、「ImageNet Roulette」というプロジェクトによるものだった。アーティストのトレヴァー・パグレンと研究者のケイト・クロフォードによる取り組みで、人工知能AI)に欠陥のあるデータを与えることの危うさを示すことが狙いである[編註:このプロジェクトはすでに終了している]

偏見が含まれる2,395ものラベリング

プロジェクトの“標的”は、AI分野における重要なリソースのひとつである「ImageNet」だった。ImageNetは1,400万件の画像が登録されたデータベースで、自律走行車から顔認識まであらゆるものに使われているディープラーニング(深層学習)の可能性を引き出すものとされている。

このほど話題になったImageNet Rouletteのラベリングのアルゴリズムは、ImageNetに登録された画像によって訓練されていた。ImageNetに登録されていた人物の写真は2,395ものカテゴリーによってラベリングされており、そのラベルは「だらしない女(slatterns)」から「ウズベク族(Uzbeks)」まで多岐にわたる。

「ImageNetの“中身”をこじ開けて、そこに登録された人物写真に人々の目を向けたかったのです」と、パグレンは語る。公開されるやいなやネット上で注目された今回の実験は、多く課題を浮き彫りにした。そもそも、なぜこんなラベルがつくられたのか。また、なぜそれが残っていたのかという疑問だ。

ImageNet

「ImageNet Roulette」のスクリーンショット。『WIRED』US版のエディターである著者の画像は、「ImageNet」によって「心理言語学者」とラベリングされた。IMAGE BY GREGORY BARBER/IMAGENET ROULETTE

これらの疑問への答えは、未熟な科学だったAIが日常的なツールへと急速に進化したことに加えて、大量のデータのなかにバイアスになりかねない情報が潜んでいることに根ざしている。そしてこの問題は、最近になってAI分野の研究者たちから注目され始めている。

そこにはImageNetの開発者たちも含まれる。開発者たちは自分たちがつくったデータベースの欠陥について十分に認識しており、この1年以上は「人」関係のラベルにおける問題の解決に取り組んできたのだという。開発者たちは、人物の写真が研究者たちに利用されることはめったにないとしながらも、データセットから「バイアスの除去」を進めているのだと語る。

アルゴリズムのルーツは80年代にあり

こうしたバイアス除去の取り組みの一環として、1,400万枚あった画像の大半が2019年1月、スタンフォード大学のサーヴァーから削除された。ImageNetの運営チームによって侮辱的とみなされるカテゴリーが見直され、画像分類の多様化が進められた結果だ。

さらに運営チームは、「非視覚的(nonvisual)」と判断したカテゴリーを削除する計画だ。これは不思議なことではない。画像認識の文脈における何らかの“不正”や潜在的なバイアスがなければ、いったいどうやってアルゴリズムが人物の写真を「バハマ人(Bahamian)」や「債務者(debtor)」であると認識するのだろうか。なお、ImageNetの運営チームは今年8月、こうした改善の手法を説明した文書を査読のために提出している。

それでも今回の問題は、ほとんど忘れられたようなデータ元から、いかにバイアスが拡散しうるのかを物語っている。ImageNetの場合は、そのルーツは1980年代半ばにプリンストン大学で取り組まれていた「WordNet」というプロジェクトにあった。WordNetは、心理学者と言語学者が「概念的な辞書」を提供するための取り組みであり、そこでは言葉がそれぞれ関連する意味の階層構造によって整理されていた。

この仕組みに基づけば、例えば動物から脊椎動物、犬、ハスキー犬へと導かれるかもしれない。途中で分岐して、ネコ、トラネコへと進むかもしれない。このデータベースは「メリアム=ウェブスター大学辞典」より幅広い範囲をカヴァーしており、謎のデザートから時代おくれのスラングまでが含まれていた。

「当時は社会において適切と考えられていた多くの言葉が、いまでは完全に不適切とみなされるようになっています」と、ウォータールー大学で計算機科学を研究する教授のアレクサンダー・ウォンは指摘する。

タスク全体の規模が大きいことに原因?

プリンストン大学の研究者として2009年当時、ImageNetの開発に携わった李凱(カイ・リー)や李飛飛(フェイフェイ・リー)といったAIの権威たちは、WordNetと同じような階層構造が画像にも適用できれば、物体の識別と分類の手法をAIに教えるうえで有効なツールになると考えた。そして実際に作成を目指したのである。

それは壮大な野望だった。WordNetをひな形にして、名詞の視覚的なライブラリーをつくろうというのである。しかし、画像に注釈を付けていく作業には時間とコストがかかった。特にプリンストンの学部生たちにアルバイトとして任せていたのが問題だった。

最終的にはアマゾンのクラウドソーシングサーヴィス「Mechanical Turk」を利用して、外部の人材を活用して作業規模を拡大することになった。画像に写っている物体の認識や不適切なものの削除は、これらの外部の人々が担うことになった。

ImageNetの研究者は、侮辱的だったり無神経だったりするカテゴリーが含まれていたのは、タスク全体の規模が大きいことに原因があると結論づけている。最終的に候補となった画像の数は1億6,000万枚にもなり、それを50,000人が評価したのだ。

データセットにおける問題

また研究者たちの指摘によると、「人物」の写真のうち実際に使われたものはごく一部だったという。というのも、ImageNetで参照されるデータとは、通常は「ImageNet Challenge」で使われる縮小版データセットのことだからだ。ImageNet Challengeとは、画像に写るオブジェクトを検出・分類するAIを研究者たちのチームが構築し、その能力を競うコンテストのことである。

100万枚強が用意される画像に対して、本来ならオブジェクトの種別は20,000種類ほどある。ところがコンテストでは、1,000種類に限定されていた。そのうち「人物」のカテゴリーには、スキューバダイヴァー、新郎、野球選手という3つしかなかった。こうした限定されたデータセットを使って訓練されたモデルのうち最良のものは、通常ほかの研究や現実世界のアプリケーションで使われている。

今回話題になったImageNet Rouletteを開発したパグレンは、ImageNetからバイアスをなくす取り組みについては前進だが、10年にわたってデータが吟味されていなかったことが明らかになったと語っている。「データを構築した人々は、中身についてまったく考えていなかったようです」とパグレンは指摘する。なお、ImageNetのチームは、バイアスをなくすプロジェクトについて、機械学習をより公平なものにする「進行中の取り組み」の一環だとしている。

これらの不注意な点についてImageNetにおけるバイアスを研究したウォータールー大学のウォンは、構築当時の研究者らは、オブジェクトを検出するアルゴリズムを機能させる基礎の部分に集中していたからだろうと指摘する。

ディープラーニングが大成功したことは、AIの研究者たちにとっても驚きだった。「いまやAIは実用段階に入っています。そしていま、その社会的な影響に人々が目を向けているのです」とウォンは言う。

画像の削除が論争の的に

ImageNetの開発者らは、当初の品質管理が十分に効果を発揮できていなかったことを認めている。すでに説明した通り19年1月にはImageNet Challengeの画像を除くすべての画像が削除されたが、それまでは完全なデータセットがネットに残っていた。今後改めて公開されるものは、人物の画像が当初の半分以下になる予定だ。

また、侮辱的な画像やカテゴリー分類についてはユーザーが警告できるようになる。「侮辱的であるかどうかの定義は主観的であり、絶えず変化するものです」と、ImageNetのチームは述べている。

画像の削除は、それ自体が論争の的になった。「大量の画像データが、いきなり1月になって消えたことには驚きました」と、パグレンは言う。「これは歴史的に重要なデータベースなのです」

パグレンは、これらのデータはダウンロードされた状態であちこちのサーヴァーや家庭のコンピューターに残されていると指摘する。このため元データを削除したところで、かえってバイアスの再現や研究が難しくなるだけだと、彼は言う。

人物以外のカテゴリーの対応にも課題

バイアスをなくすプロジェクトの一環としてデータが削除されたことを知って、研究者たちですら驚いた。ウォータールー大学のウォンの下で学ぶ大学院生のクリス・ダルハンティは今年、ImageNetのチームに連絡してデータの提供を求めたが、返答はなかったという。

ダルハンティの考えによると、データが削除されたのは、ImageNetのサイトの老朽化が進んだことによる技術的な問題が影響している可能性があるという。なお、ImageNetのチームはデータ削除の判断に関する質問には回答しなかったが、再度入手できるようにする可能性についてはほかの研究者たちと議論すると答えている。

パグレンとクロフォードはImageNet Rouletteに関する論文において、ImageNetからの画像の削除は、ほかの機関による同じような対応にも似ていると指摘している。例えばマイクロソフトは、「MS-Celeb」というデータベースを19年6月に削除している。これは『フィナンシャル・タイムズ』による調査報道のあとのことだ。

ImageNetによるバイアスをなくす取り組みについて、ウォンは「よい第一歩である」と言う。その一方で彼は、ImageNetがさらに計画を進め、人のカテゴリー以外のバイアスにも目を向けることを期待している。ウォンによると、「人ではない」画像の約15パーセントにおいて、実際にはフレーム内に人が含まれている。

これにより、ラベル同士の不適切な結びつきにつながる可能性があると、ある研究チームは指摘している。例えば、「黒人」と「バスケットボール」を関連づけたり、コンピューターを若い白人男性と結びつけたりといった具合だ。こうしたバイアスは、「人物」のラベルに含まれるモデルより、さらに広く使われるモデルに組み込まれてしまう可能性が高い。

中立的な方法は存在しない?

パグレンは、バイアスをなくす試みは成功しないかもしれないと指摘する。「情報を整理する中立的な方法なんて、ありません」と彼は言う。彼とクロフォードは、ほかの最近のデータセットを例に挙げる。このデータはセンシティヴなラベルに対して、さらに多くのニュアンスが含まれたアプローチがとられている。

またパグレンによると、IBMは顔の寸法を測定することで、顔に関してより「多様性」をもたらそうと試みているという。この試みが人による判断を改善することをふたりは期待してはいるが、そこには新たな問題が生じるとも指摘している。例えば、肌の色も測定したほうがいいのだろうか、といった疑問だ。その答えは、変わっていく社会の価値観を反映するものになることだろう。

「どのような分類のシステムであっても、そのときしか通用しないものになるでしょう」と、パグレンは言う。彼は、こうした領域においてAIがまったくの無知であることを示す展示会を企画した。まずは「これはリンゴではない」とラベリングされたマグリットのリンゴの絵からだ。果たしてAIのアルゴリズムに、この絵を理解させることはできるのだろうか。

※『WIRED』による人工知能(AI)の関連記事はこちら

RELATED

SHARE