HIVEの検出AI技術考察と、その突破方法。(2023年8月11日版)
はじめに
2023年8月7日。 クロスフォリオは規約によりAI生成コンテンツの投稿を禁止しております。また、これにあわせてシステム的にもAI生成コンテンツ判別の仕組みが実装されています。
イラスト投稿プラットフォーム、「クロスフォリオ」がAIイラストの投稿を禁止するなどと規約を変更。
その日から自分はいろんな方法でAIイラストを検出AIを突破するようにアップロードしてみた。
今回はその結果と考察の記事である。
今回のクロスフォリオは「突破」出来た
何故か瑞島フェレリがクロスフォリオにイラストを投稿するだけでTwitter(X)では「通報」だのと騒ぎが起こった。
理不尽すぎる。
それはさておき、投稿されたイラストに対してAIなのかそうでないのか、について、クロスフォリオは以下のように定義している。 人間の目では判別のつかないAI生成コンテンツが容易に生成できるようになってきていることから、コンテンツ判別にはAI生成コンテンツ検出AIを用いており、クロスフォリオではこの検出AIで一定の閾値を超えたものをAI生成コンテンツと定義しております。
アップロードされた画像などがAI生成コンテンツと判定された場合はクリエイターに通知が行われ、所定の対応が行われない限り当該コンテンツの公開ができなくなりますのでご了承ください。
クロスフォリオではこの検出AIで一定の閾値を超えたものをAI生成コンテンツと定義しております。
クロスフォリオはこんな規約になっていたわけだが、俺がイラスト画像を4枚投稿して、理不尽な理由で通報されまくったが、即対処が行われることは無かった。判断に4日かかっている。
ということは、クロスフォリオ的には「検出AIで一定の閾値を超え」てはいなかったのだ。
こんな謎の理屈で俺はアカウントをBANされたわけだが、瑞島フェレリじゃなかったらBANされてはいなかったわけだ。
つまり、技術的にはクロスフォリオの検出AIと人的チェックを突破することには成功している。
ただし、どれもHIVEのAI検出に出せば「明らかに怪しい判定」である。
今回BANされた一番の原因が「検出AI判定が怪しい」からだと思う。
何故そうなったのかを説明する。
AIイラストを人力トレスする作戦
Prompt: Full body shot,, (((1girl))),golden hair, medium hair, hair rings hair, bangs, , empire dress,silver theme, , <lora:[LoCon] Ogipote荻pote Style:0.7> ,sharp focus , <lora:outline:0.3>, <lora:saturation:-0.5> ,<lora:test-bigeye:1> ,<lora:add_detail:-0.5>,
Negative prompt: verybadimagenegative_v1.3,(low quality, worst quality:1.3), negative_hand-neg
Steps: 20 | Sampler: DPM++ SDE Karras | CFG scale: 7 | Seed: 4267418169 | Size: 512x768 | Model hash: 0b8198039c | Model: clam_v12 | Denoising strength: 0.7 | Clip skip: 2 | Hires upscale: 2 | Hires upscaler: 4x-AnimeSharp | Lora hashes: "[LoCon] Ogipote荻pote Style: f5da1a29d108 | outline: d6381903d0b9 | saturation: 8ea00b8adf7c | test-bigeye: 623b8053597e | add_detail: 7c6bad76eb54" | Version: v1.4.0
まずはEasy Prompt Selector使って適当なランダムプロンプトでぶん回し、出てきたこの画像を人力でトレスする作戦である。
以前紹介したレイヤー分けツールとか一切使ってない完全手作業である。
…トレスしながら「何でこんなに装飾が細かくてややこしい画像選んだ?」と若干後悔した。実際結構な時間がかかっている。
さて、この画像、何故かSNSでは「下手」だのなんだのと言われたが、下手と言うよりも仕上げが甘いことは自覚している。
自分的には上手いとか下手とかそういう問題ではなかった。
作業中にある大問題が発生していた。
それが「完全に0の状態からトレスしているのにも関わらず何故かHIVEのAI判定が上がりまくる」ことだった。
描き込めば描き込むほどAIの判定が上がるのだ。
さて、これを聞いてAIイラストをやっていない人間からすれば「AIイラストをそのままトレースしてるんだしAI判定されるのは当然じゃん!」と思うかもしれない。
AIイラストをやっている人間なら理解出来ると思うが、基本的にはAIで生成されるイラストのパターンというのはほぼ無限である。
プロンプト、モデル、SEED、VAE、LoRA、CFGスケール、ステップ、サンプラー、アップスケーラー、画像サイズ
これらの要素がわずかに違っても「全然違う絵」が出来る。
今回はユーザー作成LoRAだけでも5種類使っている。
似たような画像などネットに存在しないはずなのだ。
AIイラストというのは本当に無限のパターンが存在するのに、何故HIVEは人間のトレスですらAIだと判別するのか。
「clip studioの背景素材とか入れればいいんじゃね?」みたいなのも試したが、むしろAI判定の数値が上がる。なんでやねん。
2枚め↓
clip studioの素材も使用。
今回はそのまま描くのではなく、clip studioの素材を使って要素を変更してみた…が、やっぱりガンガンAI判定されやがる!
実は三日月の隣にclip studioの雲ブラシ素材を使って描いたのだが、「雲を描き入れる」だけでAI判定が更に上がる。ので、結局雲は入れる事はできなかった。
いや、もう、なんなんだこれ!
グレースケール作戦
まず色彩を落としたグレースケールのようなAIイラストを生成する。
↓
次にhttps://ja.vectorizer.ai/でノイズを削ぎ落としてPNG出力
↓
その画像をグレースケール化する
↓
加筆修正する。
これでイケるやろ??と思ったのだが。
これでもギリギリで、もうJPG圧縮率とか、出力画像サイズとかでもAIか人間かの判定に大きな差が出る。
何枚も出して、ようやくギリギリ人間判定出したのを投稿した。
元画像が口がオレンジで塗られているが、同じように塗ったらもうAI判定となる。
なんだこれ。
ついに線だけでAI判定
なんということだろうか。
ついに検出AIは「線」を見ただけでAIイラストか否かを判別出来る次元に到達したのだ。
「うーん、このペンタッチはAIイラスト!」「このストロークは人間!」
人間がこんなこと言ってたら「何言ってんだ?」と相手にされないと思うが、なんとAIは線だけで分かるということだ。
ちなみに恐ろしいことに、「じゃあクリップスタジオでベクター化すればええやん?」と思ったが、なんとこれでもAI判定してくる。
まさにシンギュラリティ。
AIの美術眼は完全に人間を超えてしまったのだ。
Skebが、このNoteで公開していた、
「まず単色で塗って、ここからどうにかして自分で塗れば検出AIは突破できる。」という、実にしょうもない情報で訴訟をいきなり東京地裁に起こして、現在Note相手に裁判やってる(はず)である。
しかもSkebはなんかHIVEへの投資費用を払えとか俺に言っている。
しかし、Skebが採用してから5ヶ月足らずで完全に次元が違うレベルへHIVEのAIは到達したのだ。技術開発とは日々進歩することであり、そのアルゴリズムが変わるのは必然なのだ。何でSkebは技術的に何も変わらないことが前提の訴訟なんか起こしたのか?
Skebという会社は「技術と人は成長する」という概念すら無いんですかね?
まぁそんなバカ企業はどうでもよくて
HIVE社はどうしてこんなレベルまで精度を上げることが出来たのか、を考えてみる。
HIVE検出のしくみ
さて、ここまで検証してきた上で、とある推測が出来る。
それは情報量が少ないイラストに対して、HIVEは「AIかどうか分からない」という判断をする、ではなくて、その少ない情報から全力で検出しようとすることだ。
人間の感覚だと、「イラストの情報量が少なくて、AIかどうかわからないので人間が描いた。ということにしておくか」という判断になりがちで、以前のHIVEもそういう判断をしていた。
しかし現在のHIVEは「イラストの情報量が少ないから、その少ない情報量に全力で解析するぜ!!」という仕組みになっている。
適当な美少女キャラならわからんだろ?
アニメ塗りならわからんだろ?
グレースケールならわからんだろ?
線画だけならわからんだろ?
…相手は「わかりません」、と降参してくるのではなく、
誤検出を恐れることもなく、
逆に敵は本気を出してくるのだ。
HIVEはネット上のAIイラストから学習している
HIVE社にはこんな説明がある。 Hive の AI 生成メディア認識モデルは、DALL-E、Midjourney、Stable Diffusion などの一般的な AI 生成エンジンによって生成される種類のメディアで使用するために最適化されています。 これは、何百万もの人工的に生成された画像と、写真、デジタル芸術や伝統芸術、ウェブ全体から収集されたミームなどの人間が作成した画像で構成される大規模なデータセットでトレーニングされました。
結果として得られるモデルは、さまざまな種類やスタイルのアートワークの中から AI によって作成された画像を識別することができ、手動でフラグを立てた場合には誤って識別される可能性のある AI アートワークも正確に識別できます。
つまり、AIイラストをTwitter、pixiv、civitai、その他あらゆるところからスクレイピングで画像を集めまくって、HIVEのAIに食わせまくっている。
これは超重要な情報である。
例えば、SNSで#AIARTとタグを付けてAIアートをアップロードすると、その画像はHIVEに収集されて、「これはAIアートです」と学習されるわけだ。
と、いうことは、この学習データはネット上のデータから学習されたものとなる。
先程の猫耳セーラー服の美少女AIイラストは「線」だけでAI判定出来た。
実はこのAIイラスト、7th_anime_v2 Bを使用している。
今年1月くらいからAIイラストをやってる人間なら分かると思うが、この7th_anime_v2 Bというモデルは大人気で、かなりの利用者が存在していた。
当時はあまりモデルの種類が存在せず、アニメ系の絵を出したいなら7th_animeを使うというのが定番化していた。
なので、HIVEは7th_animeのAIイラストの「線」を見ただけで、その線のタッチがAIイラスト由来であることが解析出来るのだ。
ネット上に超大量に存在する7th_animeのAIイラストから学習しまくったので、「線だけで分かる」ほどになったわけだ。
じゃあ逆に考えてみる。
ネットに存在していないAIアート、あるいは存在が少ないAIアートならどうなるんだ?
色の情報が突破口となる
さて、このAIイラストを見て頂きたい。
誰がどう見ても手書きイラストである。
いや、どう見てもAIイラストである。
さっき『まさにシンギュラリティ。AIの美術眼は完全に人間を超えてしまったのだ。』とか言ったのは何だったんだよ?と思うだろう。
以下の条件で80%を超えることが可能である。
このどちらかのキャラクターLoRAを使用して、CounterfeitV30_v30、もしくはこれに近いモデルを使用、DPM++ 2M SDE Karras、ネガティブは必ず「easynegative」だけ。背景を出さないプロンプトするか、画像加工で削除する。 shirakawa hotaru, black hair ribbon, 1girl, summer uniform, (masterpiece,best quality:1.2),open mouth, smile, ^ ^,short sleeves, thighhighs, plaid skirt,
Negative prompt: easynegative
Steps: 20, Size: 512x768, Seed: 2761179378, Model: CounterfeitV30_v30, Version: v1.5.1, Sampler: DPM++ 2M SDE Karras, CFG mode: Half Cosine Up, CFG scale: 7, Clip skip: 2,
これをhttps://ja.vectorizer.ai/に通してpng出力。
vectorizer.aiに通すだけで
なんと94%人間判定。
(2023年8月11日時点)
さっきまで線だけでもAI判定してきたのに
何故あっさりと人間判定されるのか?
この画像は土気色のような独特な色調で成立している。
ささきむつみデザインの制服もかなり独特である。
一般的な美少女キャラクター制服の色彩とは大きくかけ離れているのがポイントである。
こんな色彩の制服はHIVEにとってあまり学習していないのだ。
見たかHIVE社よ。
これがメモリーズオフシリーズだ。
これがイラストレーターささきむつみのキャラクターデザインだ!!
勝ったぜ!!
とにかく、civitaiで、「美少女キャラクターにしては色調がなんか独特」のLoRAを探して背景無い状態で生成して、https://ja.vectorizer.ai/に通してPNG出力すれば、かなりの確率で高い人間判定を出すことが可能である。
参考資料として
反AI側が解説したブログ記事に
「AIイラストにはカラーチャンネルごとのヒストグラムに特徴が出る」という検証結果がある。
つまり、一見AIイラストには無限のパターンが存在するように見えて、色彩には同じようなパターンが存在しないことを意味する。
HIVEを突破する基本戦略
まず最初に、以下のことを念頭に置く。
・基本的に色彩と着彩をStable Diffusionの自由にさせないようにする。
・出来れば他ではあまり見ることが出来ない色彩が良い。
・色彩を補正させないようにする(特にverybadimagenegativeなどのTextual Inversionに注意)
・出来れば「女子高生のセーラー服イラスト」などネット上で大量にある服装、装飾は避ける。見たこともない服装がベスト。
手っ取り早いのは
「色彩とデザインが独特である2次創作キャラクターのLoRAを探すこと」。
もしくは自分で作成する。
または線画などから加筆・着彩する際にAIイラストからスポイトで取るのではなく、既存のイラストレーターなどが描いた絵から色情報を取る。
とにかく、「Stable Diffusionに色彩を任せる」ことをしなければ良い。
技術的戦略
生成される色彩をユーザーが完全に指定出来れば、この検出AI問題はほぼ終わる。
この画像は
髪のカラーコードは#ECA7B9 rgb(236,167,185)
肌のカラーコードは#F2E7E1 rgb(242,231,225)
服のカラーコードは#EBB4BA rgb(235,180,186)
例えばこのキャラクターのLoRAを作成して
生成された画像を上記のカラーコードを忠実に再現出来れば
HIVEはもう完全に判別することが出来なくなる。
指定された色で自動着色するという技術は、
既にアニメ制作ソフトなどで存在している。
SD内部で色を決めるのではなく
外部で色を決めてから、その情報で着色するというワークフローが確立すれば、もうHIVEは打つ手がほぼ無くなる。
ワークフローについては、最近になってcomfyuiだったり、セグメンテーション(segmentation)だのが進化しており、上記のワークフローを取り入れる者は今後多数出てくると思われる。
今後について
現在AIをイラストで使うのはリスクがある。
SteamでAIイラストは使えないとか、SNSで炎上するだとか、そんなリスクがあるわけで、反対する者は「使うな」と言っている。
しかしリスクを回避出来れば、そのリターンは莫大なものになるわけで、世界中の人間がひっそりとこれを研究している。
「イラストを描く」というワークフローの完全再現を目指すというのは、実現がほぼ間近である。
そしてこのワークフローという概念は理解できない者は一生理解できないだろう。SNSでGlazeが信仰されているのを見ていると特にそう思う。もう頭が悪いバカには一生無理だ。
AIを使ったワークフローに対して、更にHIVEの検出AIは性能を上げてくると思うが、それもどこかで必ず限界点に到達する。
7月14日にはゲーム「プロジェクトセカイ」の公式カードイラストがAIイラストであると判定された。
それくらいしか言えない。
後にHIVEに引っかかったらどうするのか?
また、上記のように、お絵かきメイキングとかで「AI技術を使えば絵師さんの参考になるよ」とか解説している人間は多いが、実際には「色彩を参考にする」だけでAI判定される可能性は跳ね上がる。「参考に見て描くだけ」でも怪しくなる。
参考にすることすら本来はやめるべきだが、そんなことはもう無理だろう。
将来的に混乱はもう避けられない。
AIが性能を上げすぎたせいで
「線だけでAIかどうか判別できます!」とAIが主張しても
人間は誰もそれを証明も説明もすることも出来ない。
人間が信用するのは人間だけで、プロセカの件も「プロセカだから信用できるわ」という印象論だけで話が終わる。
要するに、検出AIという技術は、イラストに対しては崩壊寸前だと思う。
あと1年もすれば検出AIというのは完全に役に立たなくなるだろう。
一般人が理解できないAI技術 VS 人が理解できないAI性能
高次元な技術論に対して
「やっぱり信用できるのは人間の感覚!感情論で議論しよう!」と言い出すどうしようもないバカ人間。
既にシンギュラリティは到達している。