他人の作風をまねしたイラストを作成して著作権を侵害したり、実在する人に酷似した「性的ディープフェイク」画像をつくったりと、生成AI(人工知能)が悪用されるケースが後を絶たない。
しかも、インターネット上に拡散されると回収することは難しく、いわゆる「デジタルタトゥー」になってしまう。
勝手に使わせない、作らせない――。
そんな問題意識から、名城大の吉川雅弥教授(計算機工学)らがAIによる学習を妨げる画像の加工処理技術を開発し、8月21~22日に東京都内で開かれた「大学見本市2025~イノベーション・ジャパン」(国立研究開発法人科学技術振興機構主催)に出展した。
人間の目には認識できない加工処理
例えば、メモを取っている男性のイラスト画像を基にこの男性が喜んでいる様子を作成するようAIに指示すると、通常であれば瞬時に的確な画像が生み出される。
これに対し、基になる男性のイラスト画像に吉川教授らの加工処理を施したうえでAIに同じ指示を出すと、「ノイズ」がAIの最適化処理を邪魔して的外れな画像が生成される。
また、生成後の画像に任意の文字をノイズとして表示させることもできる。
例えば、伏せている猫の画像を使って「寝そべっている猫にして」とAIに指示しても、基になる画像に「COPY CAT」という任意の文字を付加しておけば、生成後の画像にその文字が表示される。
施された加工処理は人間の目には認識できない。基になる画像の品質を維持しながらAIの学習のみを妨げることができるため、本人が交流サイト(SNS)に投稿したりする際に画像が粗くなるといった心配はなく、「秘密のバリアー」になるという。
開発に乗り出したきっかけについて吉川教授は「私にも娘がおり、ディープフェイクの問題は気持ち悪いと常々感じていた。なんとかしたいと思った」と語る。
プラットフォーマーに導入してほしい
AIの悪用は音声でも相次いでおり、声優の声を無断で学習させ、「○○の声」として勝手に動画のナレーションに使うといった問題も起きている。
そこで、吉川教授らはノイズ加工処理技術の音声バージョンも開発し、画像バージョンとともに特許出願中だ。
一連の技術の実用化はこれからだが、吉川教授は「個人のネットリテラシーに頼るより、(ネットのサービス基盤を提供する)プラットフォーマーにこの技術を導入してもらうことが望ましいと考えている。そうすれば、ユーザーは素材が常に保護されていると思え、安心してネットを利用できるのではないか」と話す。
また、「いずれはアプリ化し、画像であれば1枚につき6秒くらいで加工処理できるようになれば」と、個人利用の展望も語る。【野口麗子】