テクノロジーっていいよね。
テキストメッセージが送れるってすごいことだし、Netflixのシリーズだって悪くない。でも、テクノロジーにはまだまだ克服せねばならない部分がたくさんありますよね。ハード面では、たとえば使える量子コンピュータは果たしてできるのかとか、インターネットにはびこる過激派をなんとかできないものかとか。ソーシャルメディアをうまく操作して戦争を起こさないようにすることはできないのかとか。AIが進化してるけど、不正や差別を止めることや悪化を防ぐことはできないのかとか。
今回のGiz Asksでは、フューチャリスト、エンジニア、人類学者、プライバシーとAIの専門家たちに、テクノロジーの前に立ちはだかる大きな壁にはどのようなものがあり、それらをどう克服していくかについて、ずばり聞いてみました。
ダニエラ・ルス(ロボット工学博士)
マサチューセッツ工科大学(MIT)の電気工学およびコンピューターサイエンス学科の教授であり、同大学のコンピューターサイエンスおよび人工知能研究所のディレクターでもあるダニエラ・ルスの回答。
AIにはまだまだたくさんの課題があります。その課題には重要なものも含まれ、エキサイティングな壁も立ちはだかっています。
私が重要と考える課題をここにご紹介しましょう:
1)子供と教師が 1対1のバーチャル教育。これができるようになれば、生徒の個性と成長に合わせた教育ができるようになります。
2)完全に個人化されたヘルスケア。患者の個体に合わせてカスタマイズされた医療行為が可能となります。
3) 気候変化の逆行。気候変化のマッピングどころではなく、環境への被害を修復する方法を模索できるようになるかも。たとえば、光合成のリバースエンジニアリング。これをスマートシティに組み込むことができれば、環境汚染を改善できます。
4) 生態間でのコミュニケーション。これにより、他の生態を理解することができます。たとえばクジラが鳴き声を使ってどうほかのクジラたちと対話をしているのかなど、コミュニケーションを図ることができるようになります。
5)体をモニタリングしてよりよい生活が送れるようにしてくれるインテリジェントな衣類の発明。病気になる前に病気になることを予測してくれるような衣類があったらいいな。
技術的な困難の例:
1) 機械学習の解釈可能性と説明可能性
2) 機械学習システムの堅牢性
3) スモールデータを使った学習
4) 立証可能な保証付きのシンボリック意思決定
5) 一般化可能性
7) 立証可能な保証つきの機械学習
8) 教師なし機械学習
9)自然に近い機械学習の新しいモデル
スコット・アトラン(人類学者)
人類学者であり、フランス国立科学研究センター、ジャン・ニコ研究所のリサーチディレクター、オックスフォード大学の「解決困難な紛争の解決センター」(Centre for the Resolution of Intractable Conflict)の共同創設者であり、『Talking to the Enemy: Faith, Brotherhood and the (Un)Making of Terrorists』の著者。
現実と虚偽の違いを見つけること。よいことと悪いことの違いを見つけられるようになること。有害で虚偽(フェイク)な活動を防いで、真実でよいものだけを前面に出すにはどうしたらよいのか。
悪意あるソーシャルメディアエコロジー(ヘイトスピーチや偽の情報拡散、二極化・過激化キャンペーンなど)は、どれも対処が難しいものです。ボトムアップ型とトップダウン型があり、両方が絡み合った相乗効果が発生します。
認知バイアスや文化的信念の悪用防止
これらの問題には、複雑に絡み合った認知バイアスの悪用(たとえば、人には自分が信じているものに適合するメッセージを信じる傾向と、そうでないメッセージを信じない傾向が見られる)、および文化的信念( 西洋では正確性、客観性、検証および能力に対し信頼が得られるが、西洋以外のほとんどの国では尊敬、認知、栄誉、尊厳に基づき信頼が得られる)、文化的な好み(家族、共同体、民族主義、伝統的な慣習 VS 普遍的、多文化、合意があるか、進歩的価値があるか)の悪用が多く見られます。
悪意あるキャンペーンは、国家の社会文化的な環境において認知バイアスと政治的な脆弱性を悪用するもので、政治的権威や同盟に抵抗したり、強化したり、権威や同盟を再構成するための新たな手法です。そういったキャンペーンは、活動的な攻撃を倍増させるパワフルな力を持つものであり、経済に影響を与えます。国家の関連者がよくやる手法でもありますが、偽情報を流すツールは、今やネットさえあればどんな人間でもグループでも簡単に手に入れることができ、使用できてしまいます。民主主義の脆弱性を伴った、この影響操作の「民主化」を実現するには、社会が新しい形の回復力と抑止策を作り出さなくてはなりません。
大きなクラスタを正すには小さなクラスタから
ということは、悪意あるキャンペーンの多くには、自己修復する自己組織の「ボトムアップ」現象がかかわっているということです。特定のプラットフォーム(Twitter、Facebook、Instagram、VKontakeなどのSNS)を監視したり禁止したりすることは、完全に逆効果となる可能性があります。立ち入りを制限されても、ユーザーは常に「抜け道」を探すからです。国や大陸や言語という制限を超えて、結局は世界に「暗黒な場所」を作り出していくでしょう。こうやって結局は、不法で悪意あるネット活動が増えていくのです。 ヘイトスピーチや偽の情報を流すクラスタの大部分は、小さなオーガニッククラスタから発生しています。ということは、「大きなクラスタは、小さなクラスタをつぶすことにより発生を減らすことができる」ということです。 さらに、全ユーザーのうちの小さなクラスタ(10%ほど)をランダムに禁止することにより、同様のクラスタを禁止するリスクと、たくさんの人の反感を買うことのリスク、いずれも減らすことができるのです。
もちろん、オフラインでの活動が活発となる政府や犯罪組織は、思いのままに小さなクラスタを形成することができますから、小さなクラスタをつぶすことやランダムに選んだ個人をつぶすことだけが大事なのではないのですが。
それよりも重要な点は、憎悪や悪意ある影響をバイラルに繁殖させる小さなクラスタを特定することにあります。 情報カスケードは裾の重い分布(ヘビーテイル) となり、大規模な情報カスケードは相対的に起こり難く(100のシェアのうち2%)、カスケード中の50%のシェアは1時間以内に発生します。悪意あるカスケードの初期段階を特定して、1時間以内に対策を講じるための適切な戦略を見つけることが鍵となるのです。
オンライン上のレイヤリング戦略への対処法
国家が動員する、または不法なオンラインネットワークにおけるレイヤリング戦略が明らかになっています。レイヤリングとは、人気のブログ、フォーラム、ウェブサイト(環境、銃関連、健康、移民関連)やファンサイト(自動車、音楽、スポーツ、食、ドリンク)などのアクティビティに偽の情報源を埋め込んでしまう手口です。 これらのレイヤリングネットワークはニュースやメディアソースを装い、ビットコインの寄付を募ります。ブロックチェーンは匿名の援助者による数千ドルの支援を受けることになります。その後時間を経て、その支援は数千にも数万にも膨れ上がります。このレイヤリングネットワークはたびたび同じGoogle Adアカウントとリンクされたクラスタから訪問し、アカウントの所有者や運営者に広告収入をもたらします。ソーシャルメディアと広告代理店が、違法で悪意ある活動と結びついているアカウントの所有者の特定することは非常に困難なことが多くなっています。これは多くの場合にサイトが「自然発生的なもの」に見えることと、定期的に「わずかな真実」を発信している点にあります。
それでは、どのようにすれば「怪しい」レイヤリングネットワーク(Breitbart、One America News Networkなど)、シンボル(ロゴ、旗)、顔(政治家、リーダー)、不審な物(武器)、ヘイトスピーチや反民主主義組織を見つけることができるのでしょうか。
結局は、テクノロジーがマイニング、モニタリング、情報操作に使用するデータをトレーニングするためには心理的、文化的信条システムについての知識が必要です。悪意あるソーシャルメディアキャンペーンの克服は、究極的には人間の手による「核となる価値」の重要性や実行中の(政治的、社会的、経済的)キャンペーン、キャンペーンの実行者の相対的な強さなど、戦略的な側面の評価に頼らざるを得ません。社会科学の重要な役割はTwitter、Instagram、Facebookなどがプロパガンダ、偽情報、憎悪コンテンツを管理していたころのエンジニア、アナリスト、データサイエンティストの専門知識を大きく超えるようになっているのです。
もちろん、ここでいう「バイアス」と呼ばれるものの多くは、次善の論拠または論拠不足を反映するものではありませんが、協力や相互的防御に対する信念のサークルに他の人を引き入れる根拠を構成する「説得」に効果的に使われることが示唆されています。これにより、偽のまたはおかしな論拠を持つ「有害なメッセージ」と戦うには、論拠の不備に対する反論の論理性や実証的な一貫性を目標とするだけでは十分ではないのです。
偽情報に対する警告は効果なし
さらに、偽情報の警告を発することにはあまり効果がないという検証結果も最近では報告されています。事前の警告にもかかわらず、「NO」に投票しようキャンペーンの捏造スキャンダルを「記憶する」傾向にあるのは「YES」に投票した人たちで、「YES」に投票しようキャンペーンの捏造スキャンダルを「記憶する」傾向にあるのは「NO」に投票した人たちということがわかっているのです。
また、価値に推進される、倫理にフォーカスされた一般的な情報とソーシャルメディアは、信用獲得を推進するだけでなく、同時に信頼を獲得するための協力的な行動も推進されるという検証結果も報告されています。これに対抗しようとすると、真実と誠実さ、そして最終的には倫理の正統性を犠牲にしなくてはなりません。 また、別の戦略をとるならば、基礎となる社会(実践的でない場合は原則的に)にそびえる民主的な価値の真実を保ち、それを決して否定したり反論したりしないという手段もとることができるかもしれません
それでは、どのようにしたら、核となる価値を否定することのない、または他の人の核となる価値の脅威とならないような(寛容できる範囲で)真実に満ちた、根拠に基づく情報を前面に出しながら、一貫して誤解を招くような、偽の悪意ある情報を暴くことができるのでしょうか。
どのようにしたら、似たような考えを持つ人たちが、固定観念や与えられた観念を覆し、より広い意識または考えについて自由でオープンな公的討議に参加して、エコーチェンバー現象から逃れられるように人々を誘導できるのでしょうか。
セス・ロイド(量子機械工学博士)
マサチューセッツ工科大学の大学教授、専攻は機械工学。量子情報と制御理論について研究。
現在の時点における技術的な困難の代表的なものをふたつご紹介します。
(a) 良質な携帯ネットワークサービス
(b) エネルギー密度を利用したエクストラバージンオリーブオイルのバッテリー
(a)については説明するまでもないでしょう。(b) については、オリーブオイルの代わりにディーゼル燃料を使用できます(エネルギー密度が同じなので)。でもバッテリーがなくなったなと思ったら、コンピュータをオリーブオイルで充電する、と考えたほうがなんか気が楽じゃないですか。
量子コンピュータに興味がある人のためにコメントしておくね。
量子コンピュータは今とてもエキサイティングな段階にあるよね。でもちょっと怖いと言ってもいい。巨大な量子コンピュータを構築できるなら、ショアのアルゴリズムと言われる因数分解や、量子シミュレーションを使った創薬、通常のコンピュータではできないようなデータのパターン検出が量子コンピュータで可能となる機械学習など、さまざまな問題に対処するためにものすごく有用ではあるけど。
ここ20年くらいで、量子コンピュータは数量子ビットで数百の量子理論演算ができる弱々しい機器から、数百から数千の量子ビットで数千から数万の量子演算が可能なまでに進化しています。
今、まさに量子コンピュータは使える段階へとステップアップしようとしているのです。本当に使えるようになるのか? それとも完全な失敗に終わるのか?
これからの数年における主な技術的な課題は、複雑な超電導量子回路の開発と、イオントラップまたは量子光学機器のような量子システムを十分に正確に制御して、通常のコンピュータにはできないような演算ができるように拡張することではないでしょうか。テクノロジーは困難なものであり、製作と制御には難しい問題が横たわっていますが、これらの困難を乗り越えるために、うまく定義された戦略と経路があります。長期的にスケール可能な量子コンピュータを構築するためには、何千何百という物理的量子ビットを載せた、量子誤り訂正コードを実装することのできるデバイスが必要となります。
技術的な困難は壁のように立ちはだかっています。私に言わせれば、人類はこれを克服するだけのしっかりとした筋道をまだ見出していないんです。
エイミー・ウェブ(フューチャリスト・起業家)
フューチャリスト。フューチャー・トゥデイ・インスティテュート創設者。作家、未来学者。専門研究分野はAI(人工知能)ニューヨーク大学スターン・スクール・オブ・ビジネス教授、作家、最新著書は『The Big Nine: How the Tech Titans and Their Thinking Could Warp Humanity』。
この質問に答えるなら、私たちは次世代への影響を考えることなく、新しいテクノロジーを作り続けようとしているようなものであると言いたい。今まで人類は、繰り返し長期にわたるリスクを解決することなく短期的な解決策ばかりを優先させてきたのです。
「今を生きる」刹那的な文化は、現代のAIの開発に顕著に見られます。
安全よりもスピードを優先してきて、長期の商業的獲得よりも短期の戦略を優先させてきました。一方で、大切な問題を置き去りにしてきています。たとえば、一握りの人々によって構築された、すべての人のために決定を下すシステムに権力が与えられたとしたら、社会はどうなるでしょうか?
この答えは見かけより簡単ではありません。私たちは現実に毎日、このテクノロジーを調査、開発、生産、販売し、維持している一握りの企業に頼り切っているからです。これらの会社には、使える、商用のAIアプリケーションをできるだけ早く作り出さなくてはならないという大きなプレッシャーに苛まれています。
別のケースで考えてみましょう。倉庫と流通のように、AIシステムは認知作業の多くを独自に行っており、肉体労働を人間の労働者に委ねています。現在、米国、カナダ、欧州連合諸国、日本、中国その他の国で開発されたAIのための新しい規制が確立されています。米国を拠点とするアメリカ国立標準技術研究所のような機関は、AIの技術標準を打ち立てようとしています。しかし、他の国の似たような機関との協調がうまくいっていません。この間に、中国はAIで主導権を握りつつあり、世界中の新興市場をつなげてすばらしいグローバルネットワークを作るパートナーシップを進めています。大学では、倫理、価値、バイアスに対処するような意義あるスピーディな変化をカリキュラムに組み込もうとはしていません。
来る新たなテクノロジー時代に対峙できるようなデジタル寵児を生み出すことには注力せず、人々は怪しくても、楽しく見えるアプリをダウンロードすることに精を出していました。知らず知らずのうちに機械学習システムをトレーニングさせられていたのです。
ライフスタイル、位置情報、金銭的状況、生体情報すら、知らず知らずのうちに企業に差し出すはめになっているのです。
これは総体的な問題と言えます。政府、金融機関、大学、テック企業、そして今ここでギズモードの記事を読んでいるあなた方すべて...、すべての人たちが関与しているのです。わたしたちは今、これから来る未来を一丸となってよくしていかなくてはならないのです。これはAIを形作るための意義あるコラボレーションと世界規模のコーディネーションを通してのみ実現可能なことです。それだけでなく、透明性や説明責任、個人情報やプライバシーも優先させなければなりません。
ロリ・アンドリューズ(法学博士)
シカゴ=ケント・カレッジ・オブ・ロー・アット・イリノイ工科大学の教授であり、個人や関係性、コミュニティ、社会的な機関に与えるテクノロジーの影響について主に研究を行っています。
医療や輸送、職場で使うツールなどのテクノロジーは、大部分が男によってデザインされ、男がテストしていますね。男女中立でなく、男性指向の仕様で開発されたテクノロジーは、ときに女性には身体的な危害が及ぶだけでなく、金銭的な影響も発生します。
女性の心臓の鼓動は男性よりも速いので、それを考慮していないペースメーカー は多くの女性には不向きです。2011年まで、安全評価指標に使われたクラッシュダミーには男性のモデルが使われていました。シートベルトを装着していた女性の47%は自動車事故で深刻な怪我を負っていることがわかっています。男性と女性が求人サイトを訪問するとき、アルゴリズムは男性には給与の高い仕事を提示するようになっています。機械学習のアルゴリズムは、企業に現在いる優秀な人材のような人たちを雇用できるよう、企業の社員が男性で構成されている場合は知らず知らずのうちに女性を差別することがあるのです。
女性のホルモンは男性とは異なります。これにより薬によっては女性には効果が増幅される場合もあれば、効果が減少してしまう場合もあります。1997年から2000年の間に、FDAは10の処方箋薬を取り消しました。そのうちの8つは女性に健康被害がおよぶことが理由となっています。
女性には利益をもたらすものの、男性を主眼において試験が行なわれた場合には市場には出回らない治療薬もあります。ある治験に1000人が参加したと仮定しましょう。そのうちの100人が女性だった場合で、100人すべての女性には治療効果があるが、900人の男性にはなんの効果ももたらさないという結果が出たら? 治験の関与者は10%にしか効果がなかったとして、その薬品の開発をやめてしまうでしょう。追跡調査が女性を中心としたものであれば、女性と経済に利益をもたらす新薬の登場にもつながるでしょうが。臨床現場におけるテクノロジーもまた、男性モデルを中心としています。女性の外科医は、トップクラスの病院に所属していたとしても、腹腔鏡手術を行うようになるまでには並々ならぬ努力を強いられます。手の力が男性に比べ弱いため、男性が片手で扱える器具を両手で扱わなくてはならない場面が多いためです。女性の外科医は男性と比べ腰痛や首の痛み、手の痛みなどを多く訴えています。女性外科医の患者は男性外科医の治療よりも良好な結果を示しています。テクノロジーが女性と男性両方を対象にデザインされていたとしたら、患者が得られる健康的な利益は莫大なものとなるでしょう。
女性の戦闘機パイロットは、1960年にデザインされた男性用のGスーツを着用しています。このスーツは女性には大きすぎるし、飛行中にかかるGに対し女性を十分に保護してくれるものではありません。脳から流れ出る血流により、色彩障害を発症したり、気絶する危険すらあります。採尿器具を取り付けるためのジッパーも女性には使いづらいもので、そのために女性パイロットは任務の前に水分摂取を避けるようになり、これにより気絶や脱水症状の危険性につながります。その他の軍用機器も安全面や効果面で女性にリスクをもたらします。最新のパワードスーツなども設計するときには女性を考慮することにより、保護を強化して耐久力や強靭性が増強され女性も男性もメリットを享受できるのです。
革新を推進する「Moon Shot」というテクノロジーリサーチプログラムがあります。これは女性とテクノロジーにまつわる問題に立ち向かうものです。このようなプログラムがこれからもっと世に出回るといいなと思っています。
女性のためのイノベーションは経済を成長させ、万人のためのよりよい製品が生まれる契機となります。