デマの温床petapi、サービス終了

 2023/7/12、5/30にサービス開始したAI絵専門の投稿サイトpetapiが、2ヶ月もたずにサービス終了。

 

 petapiは、サービス内容よりも「画風LoRAを使うとその作成者にキックバックが発生する構造をそのうち実装する」という、実際に作れてもいない構想だけの機能をアナウンスした事で注目され、結果として反AIに「盗品市場」「盗人市場」等と揶揄され、さらに「LoRAとは特定の絵柄を集中学習させることでその人の絵柄で無限に画像生成できる代物」「作家の絵柄などを狙い撃ちで画像生成AIで再現するためのもの」等のデマを流させるきっかけを作った。現在でも「LoRA=画風LoRA」だと勘違いしている反AIは多い。

 

 真に恐れるべきは、有能な敵ではなく無能な味方だという事である。

児童相談所の失言に便乗

 2023/07/10、三重県児童相談所が、5月に発生し、既に母親が逮捕されている女児傷害致死事件について、県議会の全員協議会で「AIが出した必要性39%という数字も参考にして保護を見送った」と発言。「AIを過信するな」「自分たちのミスをAIに責任転嫁するな」等として炎上(参考にしたと言っているだけで、別に過信・責任転嫁しているわけでもないのだが)。

 

 この騒ぎに反AI主義者が便乗。「AIを使っている奴はAIに責任転嫁する奴ばかり」「AIなんか使っているから事故が起きる」「AIを規制すべき」と大体いつもと同じ感じの事を言う。

 

 なお、ここで言っている「AI」は、保護の必要性を判定するために作られた児童相談所専用のAIらしいが、児相がそう言っているだけで、本当にAIと呼べるような高度なシステムなのかは不明。

反AI主義者が流した代表的なデマ

代表的なデマについて解説する。

 

「生成AIには無断学習で作られたデータが混じっているので存在自体が違法である」

 

 著作権法第30条の4の規定により、学習は無断が原則かつ無断でも合法なので、法的にはそもそも「無断学習」という概念自体が存在しない。そのようにして作られた学習データが「存在自体が違法」という事もない。

 もちろん「存在自体が違法になって欲しいと思っている人」はいる。

 

「画像生成AIの学習データは収集した画像を圧縮したものであり、Promptに応じてそれらを復元・合成する一種の検索エンジンである」

 

 そのような稚拙な構造で生成AIを作る事は難しい。

 

「無断学習が合法なのは法整備が追いついていないだけで、今後違法になる」

 

 現実は逆で、「自分にとって都合のいい法解釈が乱立して開発者が足を引っ張られ手が止まることが目に見えていたため、先手を打って2019年に第30条の4を作り、機械学習を合法化しておいた」のである。

 また、インターネット黎明期にレコード会社や出版社の顔色を伺って規制だらけにした結果、検索・配信分野の開発を誰もやらなくなり、AppleGoogleに国単位で完全敗北したという過去の反省も踏まえている。

 もちろん「法整備が追いついていない事にしたい」と思っている人はいる。

 

「AIで生成した画像には著作権がないので転載・二次利用し放題」

 

 2023/6/19に文化庁が「創作意図と創作的寄与があればAI絵にも著作権は認められる」と公式に発表し、この主張を否定している。

 デマの発生源は2023/3/17にアメリカ合衆国著作権局が出した見解で、これはその後裁判沙汰になり、2023/8/18に判決が出ている。概ね以下のような問題がある。

 

 ①Stephen ThalerのCreativity Machine裁判は、一般的にイメージされるような「生成AIを制御した人間が作品を登録しようとして拒否された」という事件ではなく、「生成AIそのものを著作権者として登録しようとして拒否された」という非常に特殊な事件である。

 ②出力後の人的な修正が一切無い、いわゆる「ポン出し」だけを議題にしている。

 ③ControlNetすら存在しない時代に発生した事件であり、非常に古い。

 

 Creativity Machine裁判から得られる知見はほぼ無い。

 ほとんど全てのAI絵は生成時点では何かが破綻しており、人的修正を加えなければ人に見せられるようなレベルの絵にならないため、文化庁基準では実質的にほぼ全てのAI絵に著作権があると言っているに等しい。

 ただし厳密には「日本国内での判例がないので分からない」。

Steam、AIイラストを使った作品を登録拒否

 2023/6/29、baobaozi89なる人物が、「AI生成イラストを素材として用いたゲームをSteamに提出したら登録拒否された」という記事をRedditにポスト。Steam運営元のValve社は、登録拒否の理由を「最終出力結果だけでなく、学習データの段階から完全な権利所有を保証できなければAI生成素材は使用できない」と説明した、とされる。

 

 ただしこれらはbaobaozi89なる人物が1人で言っている事であり、Valve社が公式にそう言ったわけではない。

 

 著作権法第30条の4により、機械学習が明確に合法となっている日本とは異なり、Valve社のあるアメリカでは現在も「フェアユースの範囲内ならOK」という曖昧な基準で運用を行っている。そのため各個人・法人が自分にとって有利になるように都合よく法解釈を行っており、現時点では無断学習が合法なのか違法なのか誰にも分からない。Valveはイデオロギーで動くような甘い会社ではないが、米国内での訴訟リスクを考慮して、積極的にAIを取り込もうとしているAdobeやUnityとは真逆の判断をしたとみられる。

 

https://www.reddit.com/r/aigamedev/comments/142j3yt/valve_is_not_willing_to_publish_games_with_ai/

瑞島フェレリ、逃走

 2023/6/30、2023/4に反AI過激派「小鳥遊ヲトリ」にi2i攻撃をした事でNHKニュースに取り上げられ、「悪質なAI絵師」のワラ人形として活用されていた「瑞島フェレリ」なる人物が、度重なるskebへの嫌がらせ(AI検知システムの回避)の末にskebから情報開示請求を受け、回避手段を記した記事を消して逃走。

 

 フェレリはGen-AI業界で何か特別な存在感があったわけではなく、ただ単に「イラストレータに嫌がらせをする人間」として目立っていただけの存在、つまりどちらの陣営にとっても目障りな存在だったので、非常に珍しい事に、このニュースはいずれの陣営にも好意的に受け入れられた。

 

skeb公式のアナウンス

https://medium.com/skeb-jp/cidr-4eabf0f1a76

反AI、表現規制派と合流

 2023/6/29、英BBCが、「AI生成された児童性的虐待画像の違法取引が暴露される」というタイトルの記事をリリース。

 

 この記事の趣旨は、タイトルから受ける印象とは異なり、「AI画像だけを選択的に規制しろ」という反AI論ではなく、AIを大義名分にした「欧州基準で未成年に見える絵は全て禁止しろ」という旧来通りの表現規制論だったのだが、反AIは「AIが規制できるなら何でもいい」として同調。結果的に「反AIが表現規制派と一体化して手描き絵師を背中から撃ち始める」という図式となる。

 

 「反AIが表現規制派と一体化する」という動きはこれ以後何度も繰り返される事になるが、これが第一号として記録されている。

NovelAIリーク問題、今さら燃える

 2023/6/23、「かたらぎ(Twitter ID: redraw_0)」という人物が、NovelAI(以下NAI)公式から「NAIリークモデルの使用を見かけたら訴えるかもしれない」という言質を取得。いくつかの学習モデルが訴訟を恐れて非公開となる。

 

 前後して、元々「Hello Asuka」「アスカチャレンジ」等と呼ばれ、プログラミング業界のHello World程度の意味しかなかった「簡素なpromptでアスカを表示する」というミームが、「マージ元にNAIリークモデルが混じっているか判定できるテストである」というデマが広がり、「アスカテスト」という別の名前で呼ばれ始める。

 

 NAIが言及したのはリークモデルそのものに対してのみであり、それを含んだマージモデルに対してどう対応するかは依然として不明である事に加え、そのマージモデルにも本当にNAIのデータが含まれているかどうか誰にも分からない状況であるにも関わらず、著名なマージモデルを公開していた複数の作者がパニックに陥り、「アスカテストでNAIと似た絵が出たから」という漠然とした理由で公開を取り下げていった。

 

 NAIがクラッキングを受けたのは2022/10/8であり、リークモデルの問題はこの時から約8ヶ月に渡りずっと存在していた。しかし、被害者であるNAIの方針がはっきりせず、訴訟どころかクラックされた事に対する公式声明すら出さなかったため、有耶無耶になっていた。

 

 結局騒動は長続きせず、短期間で終息。その後Stable Diffusionのバージョンが上がり、NAIリークモデルは使用不能になったため、結果的にこの問題は解決した。NAIリーク問題はStable Diffusion v1.5固有の問題であり、それ以降のバージョンに「NAIリーク問題がある」と発言した場合、それはデマという事になる。

 

以下、NAIの返信全文

 

 リークモデルを使用することは、カスタマーサポート、ドキュメンテーション、UXと一般的な品質基準、私たちのサービスの標準である暗号化を提供できません。また、これらのモデルはNovelAIを正確に反映したものではなく、私達はリークモデルを使用しないことを強く勧めます。自身のパソコンへのインストールやオンラインホストバージョンは、セキュリティとプライバシーのリスクを引き起こすかもしれません。 リークモデルを見かけた場合、法的措置を取る場合もあります。

 

https://twitter.com/novelaiofficial/status/1672077089233838080