絵藍ミツア、反AIに利用される
2024年12月17日、画像生成AIの育成をテーマにしたVTuberの絵藍ミツア(えらんみつあ)が、Fairly Trained Certificationを取得した画像生成AI「Mitsua Likes」を公開。
絵藍ミツアは、かつて反AIを反AIと呼称した事で反AI呼称罪に問われ、炎上した事もあるが、その後も堅調に学習を進めていたようである。
このニュースに対し、実際にAIを使っている人間が大した反応を示さない一方で、反AIだけがはしゃぎ始める。
反AIはミツアを利用して「既存のAIは無断学習罪によりダーティで、ミツアのような物だけがクリーン」と主張しているわけだが、その世界観がそもそも反AI固有のもので、無断学習罪が存在しない現実においては、客観的に合法か違法かという争点はあっても、主観的にクリーンかダーティかという争点はない。ミツアの評価は良くも悪くも「コンセプトモデル」であり、特別な存在とは言えず、誰も触れないように見えるとすれば、それは単にニュースバリューが足りないからである。
なお、Fairly Trained Certificationは、元Stability AI社員のEd Newton-RexがCEOを務める組織「Fairly Trained」が発行している認証で、「当該AIの学習素材全てが権利失効または100%著作者の許可済みである」事を保証したもの。結果として無断学習罪との親和性が高くなっているが、無断学習罪やAI使用罪は現実には存在しないため、Fairly Trained Certificationを取っても取らなくても、違法性には特に影響しない。


コメント
1生成 AI の技術にうとい者の疑問なのであるが、 Fairly Trained は具体的にどんな方法で特定の学習済みモデルが「クリーン」であると認定するのだらう。
別の言ひ方をすると、学習済みモデルとその学習に利用されたとされるデータのセットを比較して、そのデータセットの他に当該学習済みモデルの学習の用に供されたデータは無いと確めることが技術的に可能なのかといふ疑問である。アーカイブファイルを展開するのとはわけが違ふと思ふのだが、どうなのだらう。
全ての被学習データが認証団体に隠されることなく示されたかどうかがわからないと認証の信頼性が損はれる。