X搭載の「Grok」で広がる画像加工、勝手に水着姿に 被害相次ぐ
X(旧ツイッター)に搭載された生成AI(人工知能)「Grok(グロック)」を使い、実在する人物の写真を水着姿などの性的な画像に加工し、X上に公開する事例が相次いでいる。専門家によると、こうした行為は名誉毀損(きそん)や、肖像権やプライバシー権などの侵害にあたる可能性がある。Xの日本法人は6日、Grokを使って違法コンテンツを生成しないようユーザーへ警告を出した。
Grokは、米起業家イーロン・マスク氏が率いるAI企業「xAI」の対話型AIで、X上では無料ユーザーも使える。
Xでは昨年12月下旬、X上に投稿された画像をGrokで編集できる機能が追加された。他人が投稿した画像も手軽に加工できるため、著作権侵害を含む、悪用への懸念の声があがっていた。
その後、投稿された写真を、本人の同意なしに露出度の高い水着姿や下着姿などへの性的な加工を指示する投稿が世界各地で増加。X上には、「AIの悪用をやめて」「未成年や子どもも被害に遭っている」などと訴える声があがっていた。
ネットの問題に詳しい弁護士の清水陽平さんによると、Xに投稿された写真を第三者がAIで水着姿や裸に近い姿にするなどの行為は、名誉毀損や、肖像権やプライバシー権などの侵害にあたる可能性があるという。
「法的責任、追求されうるという想像力を」
Xの利用規約では、投稿されたコンテンツの使用は「ユーザーの自己責任」とされている。
清水さんは「最終的に法的責任を追及されうるという想像力を働かせてほしい。『明らかにネタだから大丈夫』という主張をする人もいるが、それは通らない」と語った。
日本語圏でも、ある女性アイドルのアカウントが、日常の姿を画像付きで投稿すると、そのリプライ(返信)欄では、第三者が衣服を水着に改変するようGrokに指示する文章を投稿した。
未成年とみられる画像の加工指示も
その指示通りにGrokが加…