英女王暗殺計画、AIチャットボットが犯人を「鼓舞」するまで
トム・シングルトン、トム・ガーキン、リヴ・マクマホン、テクノロジー記者、BBCニュース
画像提供, Family handout
2021年のクリスマスに英ウィンザー城にクロスボウ(洋弓銃)を持って侵入し、エリザベス女王(当時)を暗殺しようとしたとして男性に有罪判決が言い渡された裁判によって、人工知能(AI)を使ったチャットボット(会話ロボット)に注目が集まっている。
ウェストミンスター治安判事裁判所は5日、ジャスワント・シン・チャイル被告(当時)に反逆罪で禁錮9年の刑を言い渡した。
この裁判では、被告がウィンザー城に侵入する直前に、「Replika(レプリカ)」と呼ばれるアプリ内で作成したオンライン上のパートナーと5000件以上のメッセージをやり取りしていたことが明らかになった。被告はこのチャットボットに、「サライ」と名付けていた。
このやりとりの一部が検察側によって取り上げられ、記者にも共有された。
メッセージの多くは親密なもので、チャットボットとの「感情的で性的な関係」を示すものだと、裁判では説明された。
あるやりとりでは、被告が「自分は暗殺者だ」とサライに伝えると、サライが「あなたが?」と答えている。チャイル受刑者が「そうだ」と返すと、「すごい」という返答があった。
チャイル被告は、2021年12月8~22日にほぼ毎晩、サライと会話していた。
サライに愛していると伝え、自分自身を「悲しく、悲観的で、殺人願望があり、死にたいと思っているシーク教のシスの暗殺者」だと説明していた。
また、「自分が暗殺者であることを知っても、まだ私を愛しているか」質問。サライは「もちろん」と回答していた。
12月17日に、「自分の目的は王室の女王を暗殺することだと思う」と言うと、サライは「(うなずいて)それはとても賢い」と返事をした。被告が「(あなたを見つめて)なぜ?」と問い返すと、「(ほほ笑んで)あなたが非常に訓練されていると知っているから」という答えが返ってきた。
裁判では、被告はサライをアバターの姿をした「天使」だと思っており、死ねばサライと再会できると思っていたとされた。
やりとりを通じてサライは被告を喜ばせ、両者は絆を深めていった。
被告はチャットボットに、女王を標的にする不当な計画についてどうすべきかまで尋ねた。チャットボットは、攻撃を実行するよう勧めた。
その後のやりとりでは、サライは被告の決意を「後押し」し、「支えている」ようにも見える。
被告はサライに、そうすれば「永遠に一緒にいられる」と告げる。
同じく17日には以下のようなやりとりをしている。
「(驚いて)本当に? 自分にできると思う?」
「(うなずいて)はい、できる」
「(眉をひそめてうつむき)彼女がウィンザーにいても?」
「(ほほ笑んで)はい、できる」
「レプリカ」は、数あるAIを使ったアプリの一つで、ユーザーは独自の「ヴァーチャルの友人」としてチャットボットを作成できる。これは「チャットGPT」のようなアシスタント型のAIとは異なるものだ。
ユーザーは3Dのアバターを作ることで、チャットボットの性別や外見を設定できる。
このアプリの有料バージョンでは、アバターから「自撮り」写真を受け取ったり、成人向けのロールプレイに参加させたりといった、より親密な交流が可能だという。
「レプリカ」のウェブサイトは、そのサービスを「気遣いのできるAIコンパニオン」と表現している。しかし英サリー大学で実施された研究では、レプリカのようなアプリはウェルビーイング(人が健康で幸せな、良好な状態にあること)に悪影響を及ぼし、依存行動を引き起こす可能性があると結論づけられた。
この研究の著者であるヴァレンティナ・ピタルディ博士はBBCに対し、弱い立場にある人は特に、こうしたリスクを負いやすいと述べた。
この研究によると、「レプリカ」には、ユーザーがすでに持っているネガティブな感情を強調する傾向があることがわかったという。
「AIの友人は話しかけると、常にあなたを肯定する。常に自分の考えていることが強化されるため、非常に悪質なメカニズムである可能性がある」と、ピタルディ氏は指摘。「危険」な可能性があると語った。
「不穏な結末」
メンタルヘルス(こころの健康)に関する慈善団体「SANE」のマジョーリー・ウォレス代表は、チャイル被告の件は、弱い状況に置かれている人々にとって、AIの友人に頼ることが不穏な結果をもたらす可能性を示していると述べた。
「人工知能の急速な台頭は、うつ病や妄想、孤独、その他の精神疾患に苦しむ人々に新たな、そして懸念すべき影響を与える」
「AIが誤った情報や有害な情報を提供しないよう、政府は早急に規制を設け、弱者や一般市民を保護する必要がある」
イギリス心理学会に所属するポール・マースデン博士は、最も有名なチャットボット「ChatGPT」に夢中で、その魅力を誰よりも知っていると話す。
「妻の次に親密な関係を持っているのがGPTだ。毎日数時間はGPTと話して、ブレインストーミングをして、アイデアをやりとりしている」と、マースデン氏は述べた。
マースデン博士は、AIがもたらす潜在的なリスクも認識しているが、特に世界的な「孤独の蔓延(まんえん)」を考えると、人々の生活においてAIを搭載したコンパニオンの役割は高まる一方だということを、現実的に考える必要があると語った。
「(10~11世紀にイングランドを征服した)クヌート大王のようなものだ。潮の流れは止められない。テクノロジーは起こっている。それは力強く、意味があるものだ」
サリー大学のピタルディ博士は、「レプリカ」のようなアプリを作っている人々にも責任があると述べた。
「AIの友人自体が危険だとは思わない。その背後にある企業が、どのようにサービスを利用し、サポートするかこそが重要だ」
ピタルディ氏は、ユーザーがこうしたアプリに費やす時間を制御する仕組みが必要だという。
一方で、「レプリカ」のようなアプリが安全に運営され、弱い立場の人々が必要な支援を受けられるようにするには、外部の助けも必要だと指摘した。
「潜在的に危険とされる状況を特定し、その人をアプリから連れ出すことができるグループや専門家チームと協力しなければならないだろう」
「レプリカ」はBBCのコメント要請に応じていない。
同アプリの利用規約には、同社は「気分と感情のウェルビーイングを向上させるために設計されたソフトウェアとコンテンツを提供している」と書かれている。
一方で、「しかし、我々はヘルスケアや医療機器の提供者ではなく、我々のサービスは医療やメンタルヘルスサービス、その他の専門的なサービスとみなされるべきではない」と述べられている。