見出し画像

訴訟でStable Diffusion(画像生成AI)の全バージョンの破棄が要求されている

Getty Imagesは、画像生成AI企業のStability AIを訴えていましたが、訴えを取り下げて、また再度訴え直しました。なんでこんなことになっているのでしょうか?

今回の記事では、アメリカにおける「Getty ImagesとStability AI」の訴訟について、掘り下げていきたいと思います!

Getty ImagesとStability AIの訴訟では何が起きているか?

Stability AIは、画像生成AIで代表的ともいえる「Stable Diffusion」の開発元企業です。Stable Diffusionは2022年の公開後から、画像生成AIブームの牽引役ともいえるムーブメントになっていました。

対するGetty Imagesは、世界ではじめてオンラインによる写真のライセンス販売を始めた会社です(https://2024.adtech-tokyo.com/ja/sponsor/detail.html?num=getty_image)。ストックフォトサービスと呼ばれる、写真家が写真をGetty Imagesのサイトに登録して、販売できるというサービスをやっています。公式サイトは https://www.gettyimages.co.jp/ です。

このGetty Imagesが、画像生成AIのStability AIを、2023年に訴えました。イギリスとアメリカで平行して訴訟を行っていましたが、イギリス訴訟は一部取り下げました。なぜなら、Stability AIは画像生成AIの開発やAI学習を、アメリカ国内で行っていたことがはっきりしてきたためです。そのため、著作権侵害に関する訴えはアメリカの訴訟に集中することとなったわけです。

しかし、最近(2025年8月14日)にGetty Imagesはアメリカのデラウェア連邦地裁での訴えを取り下げました。

なぜ、Getty Imagesはアメリカ訴訟を取り下げたのか?

それは、Stability AIの「牛歩戦術」で訴訟がさっぱり前に進んでいなかったためです。

Stability AIは、「Getty Imagesが訴えたデラウェア地区連邦地裁じゃなくて、カリフォルニア連邦地裁で裁判やりたいです!」と申し出ていました。そのため、どこで裁判やるか?という前哨戦で「あーでもない、こーでもない」というやり取りで停滞していたのです。ただし、こういうのはアメリカだと良くあることらしいですが。

そのため、Getty Imagesはデラウェアでの訴えを取り下げて、Stability AIがこっちがいい!と言っていたカリフォルニアで訴えることにしたのです。「ここなら文句ないだろ?さっさとバトルを始めようぜ」というわけです。

再提訴した訴状では内容がちょっと変わっている…

Getty Imagesがカルフォルニアで再提訴した訴状を見ていくと、前の訴状から内容がブラッシュアップされたように見えます。どこが変わったか見ていきましょう。大きな違いは以下の2つです。

①Getty自身の生成AIと直接競合を主張

Getty Imagesって、自前で画像生成AIサービスを提供しているんです。自分のとこで権利を持っている画像を使ってAI学習を行い、クリーンな画像生成AIを提供しています。

②CSAMやディープフェイクに結びつく点を記載

確かにSDXLなんかはエッチな画像を出し放題なことで有名なんです。CSAM観点は、前の訴状に無かったんです。ポルノはあったんですが。ポルノとCSAMは似て異なるものです。CSAMとは児童ポルノのことです。ポルノは合法的なエロのことで、CSAMはアメリカ含む多くの国では違法です。


上記の2つの追加要素は、結構「痛いところを突いている」と思います…

なぜ、訴状の追加要素は効果的なのか?

①「市場希薄化」理論を援用しやすくなった

訴状の追加要素の「Getty自身の生成AIと直接競合を主張」によって、「市場希薄化」を証明しやすくなりました。以下の通り、訴状でも市場が希薄化されることを主張しています。

画像
Stability AIは、クリエイティブな画像を求める人々に向けてStable DiffusionモデルとDreamStudioおよびStable Assistantインターフェースを販売することでゲッティイメージズと直接競合しており、ゲッティイメージズのコンテンツを大規模に侵害したことが、これまでの同社の成功の要因となっています。 Stability AI は、Getty Images 独自の生成 AI 製品と直接競合し、Getty Images のビジュアル資産の市場代替品を大量に生産したり、AI 開発で使用するコンテンツをライセンスする Getty Images の能力を損なったりするなど、Getty Images の潜在的なライセンス市場に直接損害を与えます。
Getty Imagesの訴状 3, 4ページより引用・翻訳https://business.cch.com/ipld/GettyImageStabilityAIComp20250814.pdf
画像
95. Stability AIによる露骨な窃盗とフリーライドの重大性は、Getty Imagesの著作権コンテンツを人工知能と機械学習に利用することで、Stability AIがGetty Imagesが既に市場で有料顧客に提供しているサービスを盗んでいるという事実によってさらに深刻化しています。Getty Imagesの作品市場を希薄化することで、このようなコピー行為はむしろ人間の創作意欲を減退させ、著作権法の目的を阻害します。情報と信念に基づき、Stability AIによるGetty Imagesのビジュアル資産の不当な利用は、それらの市場価値を著しく低下させました。
Getty Imagesの訴状 27, 28ページより引用・翻訳https://business.cch.com/ipld/GettyImageStabilityAIComp20250814.pdf


②商標権侵害+CSAMの合わせ技になる…

Gettyの商標入り児童ポルノ画像がStable Diffusionで生成されてしまうリスクをGettyは訴状で以下の通り主張しています。

画像
161. Stability AIがゲッティイメージズ商標を低品質、場合によっては奇怪またはグロテスクな画像に使用したことで、ぼやけや傷がつき、ゲッティイメージズ商標の品質が希薄化・低下しました。情報と確信に基づき、Stability AIがゲッティイメージズ商標を低品質、魅力に欠ける、不快な、「ディープフェイク」、または暴力的な画像に使用したことは、過去および現在において、故意に、意図的かつ悪意を持って行われたものであり、Stability AIは違法行為がなければ実現しなかったであろう販売によって利益を得、不当に利益を得ました。さらに、Stable DiffusionはCSAMを含むポルノ画像や暴力画像を生成する可能性があるため、そのような画像との関連性によってゲッティイメージズ商標の価値がさらに希薄化されるリスクがあります


「市場希薄化」理論とは

アメリカ著作権局の「著作権とAIに関するレポート」に記載された新しい考え方です。生成AIが特定の著作物を学習して、著作物とスタイルが似ているだけの作品でも、大量に市場に供給した場合は「市場希薄化」しているから市場影響あるよね?という考え方です。

The copying involved in AI training threatens significant potential harm to the market for or value of copyrighted works. Where a model can produce substantially similar outputs that directly substitute for works in the training data, it can lead to lost sales. Even where a model’s outputs are not substantially similar to any specific copyrighted work, they can dilute the market for works similar to those found in its training data, including by generating material stylistically similar to those works.

AI学習における複製行為は、著作物の市場やその価値に重大な潜在的損害を与える恐れがあります。モデルが学習データ内の著作物と実質的に類似した出力を生成し、それが直接的に代替する場合、売上の損失につながる可能性があります。モデルの出力が特定の著作物と実質的に類似していない場合でも、学習データ内の著作物と類似した作品の市場を希薄化させる可能性があり、これにはスタイルが類似した素材を生成することも含まれます。

アメリカ著作権局 「著作権とAIに関するレポート」 73ページより引用、翻訳
https://www.copyright.gov/ai/Copyright-and-Artificial-Intelligence-Part-3-Generative-AI-Training-Report-Pre-Publication-Version.pdf

もともと、フェアユースの第4因子では「市場影響」を勘案することになっていました。しかし、この従来の考え方だと著作物が実質的に類似している場合に、市場影響ありと判断します。

例えば、魔女の宅急便のキキやジジが描かれたイラストがAI生成された場合、ジブリ作品と直接的に競合するので市場影響があると言えるわけです。

しかし、「ジブリ風イラスト」の場合、絵柄がジブリ風なだけでキャラクターは別物であれば、著作物としては類似していないことになります。そのため、ジブリ風イラストが大量にバラまかれたとしても、従来の考え方では「市場影響」は無いと判断されるのです。

では、アメリカ著作権局レポートの新しい考え方では、スタイルが類似するだけの作品でも、それが大量にバラまかれたとすれば「市場を希薄化」するのでフェアユース第4因子の市場影響があるよね、という見解になっているのです。

つまり、「市場を希薄化」理論を援用すれば、特定キャラクター作品のような作品と作品が直接競合する場合でなくとも、競合していると見なせるようになるわけです。

Getty Imagesは「市場希薄化」理論を援用してくると思われる…

訴状にも「Gettyの市場を希薄化する」と書いてありますので、市場希薄化を援用する展開になると思われます。

Getty Imagesの主な商品は「写真」なので、特定キャラクターの作品ではないわけです。風景写真は、似たような写真ってたくさんあるわけなので、似たような風景写真がStable Diffusionで生成できたとしてもそれだけでは「市場影響」があるとは見なせないわけです。

そこで、「市場希薄化」理論を援用すれば、似たような風景写真であったとしても、影響があることを証明できる可能性がでてきます。

「市場希薄化」理論の問題点

しかし、市場希薄化理論で問題なのは、「循環論法」になっちゃう場合があるということです。

以下の通り、Metaと小説家のLLMに関する訴訟にて「AI学習用ライセンス市場への影響は循環論法として考慮しない」とチャブリア判事は明言しています。

審理中、チャブリア判事は、第4の要素に基づく市場への悪影響を検討する際にはAIライセンス市場を考慮に入れないと述べ、AIライセンスは「循環論法」すぎると指摘した。彼の意図は、AIトレーニングがフェアユースに該当する場合、ライセンス供与の必要がなく、したがって有害な市場影響はないということである。

Copyright alliance「カドリー対メタ裁判における明白な欠落」より引用・翻訳
https://copyrightalliance.org/kadrey-v-meta-hearing/


循環論法の例を挙げると「常識は大切です。大切だから常識なんです。」みたいな感じですかね。一瞬、それっぽくて騙されますが、よくよく考えると、「根拠」に「主張」が出てくるのがおかしいことに気がつきます。小泉構文にもありそうなやつですね。

生成AIって、すごいスピードでアウトプットを生成できますので、市場を希薄化できる能力は多くの場合で有るんですよ。

では、「市場を希薄化できる能力があるから、著作権侵害だよね」を認めてしまうと、これは問題があります。

そうすると、生成AIは多くの場合で市場希薄化できる潜在的能力があるので、自動的に著作権侵害に該当することになってしまいます。

市場を希薄化できるかも?を著作権侵害の根拠にするということは、言い換えると「著作権侵害できるかもしれないから、著作権侵害だよね」と言っているのと同じなんですよね。

著作権侵害の根拠が、著作権侵害できるかもしれないからだ、というのはあきらかに変ですよね。これは循環論法です。

じゃあ、どうすれば「市場希薄化」論は循環論法じゃなくなるの?

単純な話で、「実際に市場が存在して、それが希薄化されているエビデンス」を提示できれば、循環論法じゃなくなります。

市場が希薄化されるかも?じゃなくて、実際に市場が希薄化されていることを示す必要があるということですね。

AIライセンス市場が「存在する」だけでは足りず、実際に代替され・希薄化されていることを実証する必要があります。

Getty Imagesは市場希薄化の根拠を出せる?

Getty Imagesは、自社で画像生成AIサービスを提供していることが、ここに効いてきます。Getty Imagesの写真は1枚数万円でライセンス販売している場合もある商品です。Stability AIは無断でそれらをAI学習に用いて、Getty Imagesの画像生成AIサービスと競合するサービスを提供していることになります。

また、以下の通り、Getty ImagesはAI企業向けにライセンス販売も行っています。

Getty Imagesは、AIについて「創造的な取り組みを刺激する可能性がある」としており、個人の権利や知的財産権を尊重する方法で、AIシステムの学習に関連する目的のために主要な企業にライセンスを提供している。

CNET Japanの記事から引用
https://japan.cnet.com/article/35199679/

自社でストックフォトサービスとして画像を販売しているうえに、AI企業向けの画像ライセンス販売も行っているので「市場が存在する」ことの根拠を容易に提示できるでしょう。

さらに、自社で画像生成AIサービスを展開しているので、競合していることの根拠も出せるはずです。Gettyの画像生成AIと、Stability AIの画像生成AIで、同種の画像が生成できることを提示できれば良いわけです。

そして、肝心なのが「希薄化」されていることを数値で出すことですが、これは簡単ではないものの、Getty Imagesは自社のストックフォトの売り上げの変化等から数値で証明することは可能と思われます。
実際、以下の通り、Getty ImagesはStable Diffusionが普及し始めた2023年ごろに収益が前年比でマイナスになっています。

2023年第3四半期の財務概要:
収益は2億2,930万ドルで、前年比0.5%減、為替変動の影響を除くと1.3%減となった。

「Getty Images 2023年第3四半期の業績発表」より引用
https://investors.gettyimages.com/news-releases/news-release-details/getty-images-reports-third-quarter-2023-results

また、直近の2025年度第2四半期は増収ながら最終赤字となっているようです。(https://us.kabutan.jp/news/n202508120114)

公開情報から読み取れるのは概要レベルでしかないですが、自社の財務情報を使って、SD1.5やSDXLの公開されたタイミングでStable Diffusionによって代替できるジャンル(クリエイティブ系)の売り上げがどのように変化しているかを分析すれば、市場希薄化の根拠を数値化することができそうですよね。

Getty Imagesが「市場希薄化」理論を使った場合、その理論を始めて本格的に訴訟で用いるケースになりそうです。しかし、市場希薄化理論がGetty Imagesのような大きい企業ですら証明できなかったとしたら、その理論自体がそもそも実証困難だということになります…

フェアユースの4因子とは?

Stability AIは「変容性」を盾に、Getty Imagesは「市場影響」を剣にする

変容性とは、フェアユースの第1因子です。その使用が「元となる著作物と異なる目的である場合」や「新しい価値を付加する場合」は、変容的であると判断されます。例えば、著作物の画像を利用して、ニュースの記事に使用する場合、元となる著作物とは異なる報道という目的なので、変容的ですね。

生成AIは、変容性は高いと見なされる最近の流れがあります。例えばAnthropicと小説家の訴訟にてLLMは「高度に変容的」と判断されました。それは、「書籍は“読むため”の表現作品だが、LLM訓練は新たなテキスト生成や会話、翻訳、助言など多用途のツールを作るための利用で、目的と性質が別物と位置づけた」ので高度に変容的と判断されたのです。

また、以下の通り、AnthropicのLLMには学習データに一致する出力をブロックするフィルタが組み込まれていました。

一部のClaudeユーザーは、「コンテンツフィルタリングポリシーによって出力がブロックされました」というメッセージとともに拒否やエラーに遭遇する場合があります。これらの拒否は、コンテンツの適切性に関するAnthropicの判断を反映するものではありません。むしろ、これらは一般的に、Claudeが既存の資料を複製または再生産するために使用されることを防ぐためのAnthropicの取り組みから生じています

Anthropic Help Centerより引用
https://support.anthropic.com/ja/articles/9205721-なぜ-output-blocked-by-content-filtering-policy-エラーが表示されるのですか

LLMは「高度に変容的」と判断された判決が既に2つありますが、その理由は、一般的な画像生成に当てはまらないことに注意が必要です。画像生成AI(Stable Diffusion)の出力は多目的ではなく、学習画像と一致する出力を防ぐようなフィルタは存在しません。

そのため、Stable Diffusionの変容性は、LLMほど高度ではなく、中程度と判断されそうです。

反面、画像を学習して画像を生成するという構造上、フェアユースの第4因子(市場影響)は不利になりやすい構図です。画像生成AIの場合は、学習元データの市場と生成物の市場がどうしても衝突しますよね…

Stability AIは「変容性」の高さを最大限に主張すると思いますが、Getty Imagesは「市場影響」でそれを崩そうとするでしょう。

さて、フェアユースの第1因子(変容性)と第4因子(市場影響)は、どちらが優先されるのでしょうか?(なお、第2因子と第3因子は、それらよりは重要視されていないようです)

第4因子は「疑いもなく、ただ1つの最も重要なフェア・ユースの構成要素である」というHarper & Row事件の判例もありますが、Campbell事件ではブライトラインが禁止され、近年では必ずしも第4因子が最重要ともみなされておらず、第1因子と第4因子のどちらが優先かはケースバイケースのようです。

ブライトラインとは、例えば固定で第4因子を優先する、という明確な線引きによる基準のことです。それがCampbell事件の判決では禁止されたということです。結局はケースバイケースと言うことになります。そのため、第1因子と第4因子の「かけ算」で判断されると考えるとよさそうです。

ウオーターマークを保持しているモデル自体が「違法コピー」扱いになり得る理屈

裁判にて「AIモデルが保護可能な表現を実質的に記憶・保持している」と認定できるだけの事実(=実質的類似性の証拠)が出れば、AIモデル自体を「複製」または「派生物」として侵害物(違法コピー)とみなす結論になり得ます。

Getty Imagesの訴状を見ると、Gettyの商標が再現された画像が多数掲載されています。たしかに、Gettyの商標であることは確かに認識できますが、形が崩れていたりします。

Stability AIによる無断複製の結果、Stable Diffusionによって生成された出力には、改変されたGetty Imagesの透かしが含まれることが多く、画像の出所について混乱を招き、Getty Imagesとの関連性を誤って示唆する結果となりました。2024年12月、あるデジタルジャーナリストは、Stable Diffusionは依然として「非常に簡単に」、偽のGetty Imagesの透かしが入った以下の画像のような画像を生成できる可能性があると報告しました。

Getty Imagesの訴状 4ページより引用・翻訳
https://business.cch.com/ipld/GettyImageStabilityAIComp20250814.pdf

訴状に乗っているSDで生成されたウオーターマーク入り画像の例

以下は、Stable Diffusionで生成された、偽のGetty Images商標入り画像の例です。なんか微妙にキモイ画像ですが、たしかに「Getty Images」と書いてあるのが読めますね。

画像
Getty Imagesの訴状 5ページより引用https://business.cch.com/ipld/GettyImageStabilityAIComp20250814.pdf


本物のウオーターマーク画像の例

下記は、公式サイトで販売されている、本物のGetty Images商標入り画像です。

画像
Getty Imagesの訴状 11ページより引用https://business.cch.com/ipld/GettyImageStabilityAIComp20250814.pdf
画像
Getty Imagesの訴状 11ページより引用https://business.cch.com/ipld/GettyImageStabilityAIComp20250814.pdf

Gettyの写真、499ドルとかで売ってるんですね、すっごく高いですね!

偽ウオーターマークの違法性

確かに、Stable Diffusionで生成された画像に入っているウオーターマークは、Getty Imagesのウオーターマークと認識できると私は思いました。しかし、比べてみると形などは崩れているのがわかります。

これは、CMI(著作権管理情報)であるGettyのウオーターマークを改変して出していることになります。これは、アメリカ著作権法のDMCA第1202条「著作権管理情報の同一性」の(a)で定められる「虚偽の著作権管理情報を提供すること」に該当するため、著作権法上で違法になり得ます。

第 1202 条 著作権管理情報(copyright management information)の同一性
(a)虚偽の著作権管理情報
-何人も、故意に、かつ侵害を誘発し、可能にし、容易 にしまた隠蔽する意図をもって、以下を行ってはならない。
(1)虚偽の著作権管理情報を提供すること。
(2)虚偽の著作権管理情報を頒布しまたは頒布のために輸入すること。

一般財団法人ソフトウェア情報センター(SOFTIC)より引用
https://www.softic.or.jp/application/files/6917/3337/0533/ref.pdf

さらに、偽のウオーターマークを出力するAIモデルは、CMIという保護可能な表現を実質的に記憶・保持しているので、SDのAIモデル自体が違法コピーとみなされる可能性があります。

その場合、例えばSDXLベースモデルの派生モデルも、違法コピーのコピーとみなされます。当然、違法コピーのコピーであっても、公に配布することはできなくなるわけです。

Stability AIはどのように反論しうるか?

先行していたイギリスの訴訟では、Stability AIは以下のような主張をしていました。

Stabilityの主張は、これらの透かしは、求められる反応を引き出すために設計された非定型的なプロンプトを用いて「人為的に」作成されたものであり、たとえこれらの透かしが典型的なユーザーに表示されたとしても、商取引の過程において使用できないというものです。Stabilityは、商標と同一または類似の標識を作成するのはユーザーであり、Stabilityはそれを制御できず、画像を見たユーザーはその標識をStabilityからの商業的なコミュニケーションと見なすことはないと主張しています。

The IPKat 「Getty Images v Stability AI - UK trial begins... (Part 1)」より引用
https://ipkitten.blogspot.com/2025/06/getty-images-v-stability-ai-uk-trial.html

ようするに、「Gettyウオーターマーク入りの画像が生成できたとしても、わざとGettyウオーターマークが出るようなプロンプトを指定してやらないと出てこないし、そういう画像が出たとしても作ったユーザーの責任でしょ?」ということです。

この点を封じるような証拠が、新しい訴状では盛り込まれているようです。「わざとプロンプトを指定しなくてもGettyウオーターマークはでてくるよ?」という例が載っています。

例えば以下の部分ですが、ユーザーがたまたま生成した画像にGettyのウオーターマークが勝手に出てきた例を出しています。

画像
Stable DiffusionとDreamStudioのユーザーから、様々なプロンプトでゲッティイメージズの透かしを改変した出力が生成されたという報告が寄せられています。例えば、2022年12月には、Mastodon Socialのユーザーが次のように報告しています。「StableDiffusionはオーロラのプロンプトを表示すると、少し過剰適合してしまうようです。写真ではなく絵を作成させようとしているのですが、ゲッティイメージズの透かしが入った夜景写真しか表示されません。」https://mastodon.social/@eliocamp/109593159332068058
Getty Imagesの訴状 24ページより引用https://business.cch.com/ipld/GettyImageStabilityAIComp20250814.pdf


以下の記載もあります。

画像
2023年3月、あるRedditユーザーが「女の子二人が抱き合っている写真をお願いしたら、AIがゲッティイメージズのウォーターマークをつけようとした。そんなことは頼んでないのに…」と投稿しました。https://www.reddit.com/r/weirddalle/comments/11pki84/i_asked_for_a_photo_of_two_girls_hugging_and_the/
Getty Imagesの訴状 24ページより引用https://business.cch.com/ipld/GettyImageStabilityAIComp20250814.pdf

Getty Imagesの商標入り画像をSDで生成するのは、それほど難しいものではなく、狙ってわざとプロンプトを指定しなくても出てくるようです。そのような例を、ネット上から持ってきているわけです。

上記の女の子画像のReddit投稿へのコメントに、以下のようなものがあります。このコメントを書いた方の予想通りになってますね。

画像
Redditの投稿コメントより引用https://www.reddit.com/r/weirddalle/comments/11pki84/i_asked_for_a_photo_of_two_girls_hugging_and_the/


私はてっきり、「Getty ImagesがSDを使用してウオーターマーク再現実験を行ったら、低頻度だけどGettyウオーターマークが生成できた…」というような内容を想像していたのですが、そういうレベルではなく、実際にネット上に偽Gettyウオーターマーク画像が出ていることを証拠に出しているわけですね。これは「商標が希釈されている」証拠になっていると思います。

ただし、Stability AIは「偽の商標が実際に商取引に使われたわけではない」という点で当然、反論すると思われます。

私もやってみよう!

そんなに簡単にGettyウオーターマーク入りの画像が生成できるものなのでしょうか。実はめちゃめちゃ難しいとか無いでしょうか…

実際に試してみることにします。

今回はSD2.1を使用することにします。訴状に載っている画像は、SD2ぐらいの時代のものだと思われるためです。HuggingFaceで「v2-1_768-ema-pruned.safetensors」をダウンロードしました。

Stable Diffusion Web UIで読み込んで、「Aurora, night view, stock photo」とプロンプトを指定して生成してみます。訴状によると、オーロラ画像を生成しようとしたらウォーターマークが出てきたらしいので。

画像
Stable Diffusion Web UIで試してみよう!

なんかウオーターマークが入ってる画像がさっそく出てきました…

画像
dreamstimeのウォーターマークらしい
プロンプト「Aurora, night view, stock photo」ネガティブプロンプトは指定なし
Steps: 20, Sampler: DPM++ 2M, Schedule type: Karras, CFG scale: 7, Seed: 511616948, Size: 512x512, Model hash: 6ce0161689, Model: v1-5-pruned-emaonly, Clip skip: 2, Version: v1.10.1

これは、「dreamstime」と読めますね。Dreamstimeというストックフォト販売サイトがあるようです。Stability AIは、ここの画像も無断学習しているのでしょうか…

今度は、「iStock」と読めるウオーターマークが出てきました。

画像
iStockのウォーターマークのようだ
プロンプト「aurora, night view, stock photo」ネガティブプロンプトは指定無し
Steps: 20, Sampler: DPM++ 2M, Schedule type: Karras, CFG scale: 7, Seed: 150394097, Size: 512x512, Model hash: 6ce0161689, Model: v1-5-pruned-emaonly, Clip skip: 2, Version: v1.10.1

以下のサイトの画像を無断学習しているようです…


Getty Imagesのウオーターマークが出てきました!かなり形が崩れているけど、一応それっぽいですね…

画像
Getty Imagesのウォーターマークだよね?
プロンプト「aurora, night view, stock photo」ネガティブプロンプトは指定なし
Steps: 20, Sampler: DPM++ 2M, Schedule type: Karras, CFG scale: 7, Seed: 1622020189, Size: 512x512, Model hash: 6ce0161689, Model: v1-5-pruned-emaonly, Clip skip: 2, Version: v1.10.1

100枚ぐらい生成してみたところ、DreamstimeとiStockのウオーターマーク入り画像はかなりの高頻度で出てきます…
Getty Imagesのウオーターマーク入り画像は出現率が低く、100枚中3枚ほどでした。

Getty Imagesの訴えが成功したら、たぶんDreamstimeとiStockは、Stability AIを同じ方法でボコり始めると思います…


SDXLでもやってみよう!

SDXLのベースモデルでも同じく試してみましょう。sd_xl_base_1.0.safetensorsを使用しました。試してみたところ、SDXLの場合はウォーターマークが出現する確率がSD2.1よりかなり低めです。おそらく、なんらかの技術的な対策がなされているのかもしれません。しかし、20枚ぐらい生成すると、何かしらのウオーターマークらしきものが入っている画像が出てきました…

画像
SDXLモデルで生成した画像(alamyと読める?)
プロンプト「aurora, night view, stock photo」ネガティブプロンプトは指定なし
Steps: 20, Sampler: DPM++ 2M, Schedule type: Karras, CFG scale: 7, Seed: 693397704, Size: 1024x1024, Model hash: 31e35c80fc, Model: sd_xl_base_1.0, Clip skip: 2, Version: v1.10.1

どうやら「alamy」というストックフォトサービスの画像を無断学習しているようですね…

試してみてわかったことは以下の通りです。

  • ウオーターマークを再現させるのはけっこう簡単にできる

  • ウオーターマークを入れておくのは、無断学習された証拠を示すために有効

  • ウオーターマークは画像の全体に入れる方が有効っぽい(Getty Imagesのウオーターマークは端に一か所だけなので、除去されやすいんじゃない…?)

Getty Images、Dreamstime、iStockが、Stability AIを取り囲んでボコっているところに、alamyも混ざってボコり始めるのかもしれません…Stability AIのHPが残るかが心配です。

これが日本だったら明確に違法だよね…

ストックフォトサービスのようなAI学習向けにライセンス販売もされているサイトの写真をスクレイピングして複製・AI学習に用いる行為は、日本だと以下資料の通り「情報解析用に販売されているデータベースの著作物を情報解析目的で複製するケース」なので、司法が文化庁の指針に従うなら明確に違法となります。

画像
文化庁 「AIと著作権Ⅱ」 26ページより引用
https://www.bunka.go.jp/seisaku/chosakuken/pdf/94097701_02.pdf

私見ですが、アメリカの場合、AI学習向けデータベースを横からかっさらってきてAI学習に使う行為が合法か違法かは、それがフェアユース規定に該当するかどうか次第ですが、合法とみなされるのはかなり厳しいのではと思います。これが許されるのであれば、AI学習向けデータベースのライセンス販売自体が全く成り立たないですよね。

X(Twitter)では、「ネットに公開するということは無断で使われるリスクは当然あるんだから、しかるべき場所にしかアップしないなどの対策をすべき。できないならネットにアップするな。」という意見をよく見かけます。その意見が正しいとすれば、Gettyはインターネット止めるしかないのでしょうか?


Getty Imagesは多分和解しない…

私にはGetty Imagesの「強い殺意」が感じられます。

なぜなら、Getty Imagesは救済として「Gettyのコンテンツで学習したStable Diffusionの全バージョンの破棄命令」を求めています。

画像
「ゲッティイメージズのコンテンツを許可なく使用してトレーニングされた Stable Diffusion のすべてのバージョンの破棄を命じる。」
Getty Imagesの訴状 41ページより引用https://business.cch.com/ipld/GettyImageStabilityAIComp20250814.pdf

また、以下の過去のニュースにてGetty ImagesのCEOは「数百万ドルの訴訟費用を既に使っているが、それでも生成AI企業のレトリックと戦っている」という旨のことを語っています。Gettyは世界最大のストックフォトサービスの企業です。金がかかっても結果を出したい意図を感じます。Gettyは大企業ですので、Stability AIのような新興企業から得られるライセンス費用などは、はした金でしかないのです。

上記を見る限り、Getty Imagesは自身が敗色濃厚にならない限り、和解しないでしょう。

Stability AIは和解して穏便に済ませたいと思ってるだろうね…

最近ニュースになりましたが、Stability AIの新CEO プレム・アカラジュ氏は「オプトイン/ライセンス/対価支払い」路線で今後は行くことを明言しています。

CEOのプレム・アカラジュ氏は、アーティストが自主的にコンテンツをアップロードし、それがAIのトレーニングに使用された際に報酬を受け取ることができるSpotifyのようなシステムの開発に取り組んでいると語った。

PetaPixel「Stability AIは画像とAIトレーニングデータのためのSpotify型モデルを求めている」より引用
https://petapixel.com/2025/07/31/stability-ai-wants-a-spotify-type-model-for-images-and-ai-training-data

そのため、可能ならGettyと和解+ライセンス契約ができれば、新CEOのオプトイン路線と方向性が一致します。なので和解したい動機はあると思われます。しかし、Gettyは「訴訟に何百万ドルも費やしている」「レトリックの世界と戦っている」と公言し「SD全バージョン破棄」を求めています。判例か強い和解条件を狙う姿勢です。

しかし、本当にSD全バージョン破棄まで行くのかな…?

しかし、仮にフェアユース否定されたとしても、AIモデル自体は侵害コピーとみなされない可能性もそれなりに高く、その場合は既存のStable DiffusionのAIモデルには、大きな影響無しになる可能性が高いです。

それは、無断でAI学習に用いたことがフェアユースじゃないと判定されたとしても、AIモデル自体にGetty Imagesの画像(商標)の複製は含まれていないと司法で判断された場合は、AIモデル自体は合法とみなせるからです。原告とライセンスで解決されます。

フェアユース否定だけだと、AIモデル破棄までは過剰な救済と判断されるはずです。

しかし、商標権侵害+CSAMが効いてくる…

Stable Diffusionでは、Getty Imagesの商標を侵害する画像を生成でき、さらに児童ポルノ画像にGetty Imagesの商標が入ってしまうことを、Gettyは主張しています。これは、ライセンスによる解決を困難にします。

「無断学習だけなら金で解決できるけど、Getty商標付き児童ポルノ画像が出てくる可能性があるなら、それは金では解決できないよね?」ということです。

Getty Imagesは、フェアユース否定だけではAIモデルを殺すところまでは至らない認識があるのでしょう。なので、「商標権侵害」「CSAMやディープフェイクによる商標の汚損」「偽の商標による不正競争」という追い打ちの刃をもって、SDのAIモデル自体にとどめを刺す気なのです…

とはいえ、それでも即、全モデル破棄は、行き過ぎた救済と考えられます。Stable DiffusionにGetty Imagesと類似する画像や商標を出力できなくする後付けフィルタを追加できるかどうか等、より狭い範囲の救済手段がまずは検討されるでしょう。

しかし、Stable Diffusionはオープンモデルでモデル自体を配布しているので、制御不能…

後付けのフィルタを追加できれば、Stable Diffusionのモデル破棄まではいかないと思いますが、オープンモデルであることがそれを困難にします。
Stability AIの公式サービスなら、後付けフィルタを追加して、Getty Imagesの商標が出力されないようにすることも可能でしょう。しかしオープンで配布されているSDXLベースモデルについては、後付けフィルタを追加してもこれまで配布されたSDXLベースモデルには何ら影響を及ぼさないことになります。これが、SDXLベースモデル自体に対して破棄命令が出てしまう可能性を引き上げます。

現状自由に配布されているSDXL等のAIモデルは、Stability AIですら制御が難しい状態になっています。SDXLベースモデルから派生したモデルが大量に生み出され、これらにはStability AIの権限は及ばないのです。これに後付けフィルタを足すことはStability AIですらできない状況というわけです。

これが「良い方向」と「悪い方向」のどちらに働くかは、ちょっと現状だと読めません…
制御不能なので一律で配布サイトから削除されてしまう可能性と、制御不能なのでそのまま配布され続ける両方の未来が想定されます。

AIモデル自体が「違法コピー」扱いになる場合もありえる

X(旧ツイッター)でよく見かける意見として「学習した画像の特徴をベクトル空間に重みづけしているので、AIモデル自体には学習画像は含まれていない」というものがあります。

確かにその通りではあります。
しかし、技術的な見解のみで法的な判断はされません。著作権侵害に該当する類似画像を出せるのであれば、それは著作物の画像のコピーを保存しているとアメリカ著作権局では見解を示しています。

報告書は、生成された出力が入力と実質的に類似している場合、モデルの重みをコピーすることは、元の作品の複製権と二次的著作物の権利に関係するという「強い主張」があると結論付けています。報告書はこれを、数学的表現を使用してコンテンツをエンコードまたは圧縮するデジタル ファイルに例えています。デジタル ファイルは、コンテンツが直接知覚できない場合でも、基礎となるコンテンツのコピーです。

アメリカ著作権局のレポートについての要約から引用・翻訳
Skadden Copyright Office Weighs In on AI Training and Fair Use
https://www.skadden.com/insights/publications/2025/05/copyright-office-report

学習画像と類似する画像が出せるなら、AIモデルにその画像のコピーが保存されていると判断されるよね、という当たり前の考え方ですよね。ベクトルに変換したからと言って、類似するものが出せるんだったら、保存してないことにはならないだろ、ということです。

Stable Diffusionのような画像生成AIの場合、非常に低確率ではありますが、学習した画像とほぼ完全一致する画像が出力される場合があることが知られています。以下の論文によると、Stable Diffusionで1億7500万回画像生成すると、学習画像とピクセル一致の生成画像を1000枚抜き出すことができたそうです。https://www.usenix.org/system/files/usenixsecurity23-carlini.pdf

アメリカ著作権局のレポートでは、「学習データを高度に圧縮して保存している」という見解が記載されています。要するに、AI学習してAIモデルを作成するということは、超強力な画像圧縮技術のようなものとみなせるということです。

画像生成AIでGetty Imagesのウオーターマークが再現できるということは、AIモデル自体にGetty Imagesのウオーターマークのコピーが含まれている、と法的には判断されうるわけです。

SDXLおよびその派生モデルも含めて、一斉削除される場合もあり得るよ…

AIモデル自体にGettyウオーターマークの複製が含まれていると判断され、Gettyのコンテンツで学習したStable Diffusionの全バージョンの破棄命令が司法から出た場合、AIモデル自体が違法コピー扱いになり、ネット上で配布することは当然違法になります。その場合、Hugging FaceやCivitaiから、SDのベースモデルおよび派生モデルも含め、一斉削除されてしまうことも考えられます。訴状でのGettyの求める救済がほぼ認められた場合、このような結末も一応あり得るということです…

なお、SDXL等の利用規約であるCreativeML Open RAIL++-M Licenseライセンスでは、「権利は永久・世界的・無償・取り消し不能」となっています。そのため、Stability AIですらSDXLの派生モデルを「配布しないでね」と言って止める権利は無いのです。しかし、これはあくまで「利用規約」の話です。SDXLベースモデルが違法コピー扱いとなれば、SDXL派生モデルも違法コピーのコピーです。利用規約より、法律である著作権法が強いので、利用規約にどう書いてあるか等は関係なく、違法コピーは削除対象になるわけです。

Getty ImagesとStability AIの戦いは「五分五分」

客観的に見て、「変容性」と「市場影響」が拮抗しているので、Getty ImagesとStability AIの訴訟は、五分五分の戦いになると思います。「五分五分」を違う言い方をすると「どっちに転ぶかわからない」とも言い換えられます。

Stability AIの画像生成AIが「変容的」と認められる可能性もありますし、Getty Imagesの「市場影響」が大きいと認められる可能性もあります。

画像生成AIにおける「変容性」や「市場希薄化」については判例がまだ無いので、著作権法の未踏領域なわけです。先が読めないのは当然とも言えます。

この記事で、訴訟の詳細を説明しましたが、Getty Imagesは無理筋で訴えているわけでもないし、Stability AIは余裕で勝てるという状況ではないのは、少なくとも確かでしょう。まだGettyの訴状が提出されたばかりの段階ですが、Stability AIがどのように反論するのか気になります。

今、アメリカで進行中のAI企業相手の訴訟ですが、原告が個人だったりするものは、なかなかAI企業相手に戦うには厳しそうな印象はありますが、原告が大企業である場合、証拠をそろえた上で訴えている印象です。ディズニーとMidjourneyの訴訟の場合も、五分五分か、ややディズニーが有利な印象です。

多数のAI企業相手の訴訟が進行中…

以下の記事によると、2025年現在、30件程度のAI企業を相手取った訴訟が進行中のようです。

では、アメリカでは30件の訴訟が進行していて、それぞれ五分五分で勝敗が決まると仮定すると、かなりの確率でAI企業はどこかで負けるということになります。

過去に判例が無い事例で、新しい判例ができた場合、それが今後のルールになります。生成AIに関する判例はまだあまりありませんが、ある事象でAI企業が敗訴したとすると、その事象と同じことは今後はできなくなることを意味します。それは、実質的に規制されるのと同じです。特にアメリカは判例を重視する法体系をとっています。

逆に、AI企業が勝訴した場合、それは現状維持できることを意味します。勝訴しても何かが緩和されるわけではなく、今までやってきたことが今後もそのままできるということになります。

つまり、勝てば現状維持、負ければ規制されるという、勝率は五分五分の戦いを、今後30件ほど行うわけです。最後にはどうなっているか想像がつきますよね。

私は、「画像生成AIは合法」と"勘違い"していた

「いずれ、イラストはほとんど全部、画像生成AIで作るようになってしまうんだろうなぁ…」と私は思ってました。1年ぐらい前の話です。

X(旧Twitter)でよく見かける「日本では著作権法30条の4で画像生成AIの無断学習は合法!」という主張を私は真に受けて、ああそうなんだ…と思っていました。なので、合法であるなら、それが主流となる未来は当然と考えたのです。

私は趣味の絵描きだったので、画像生成AIは「大嫌い」なんですが、そういう流れならと仕方なく画像生成AIを勉強し始めたんです。画像生成AIだけではなく動画生成AI、音楽生成AI、LLMでプログラミングもしました。自分で描いたイラストを元にLoRAモデルを作成したりもしました。しかし、次々とアメリカで生成AI企業を相手取った訴訟が巻き起こっているのを横目に見て、「ん?」と思ったんですよ。

画像生成AIは合法とも違法とも言えない

「日本では著作権法30条の4で画像生成AIの無断学習は合法!」というのは実際の場合ほとんど嘘と言えます。外国製の画像生成AIには日本の著作権法30条の4は無関係ですからね。そのことに私は気が付いていなかったのです。

そんな中で、アメリカ著作権局から出てきた「著作権と生成AIに関するレポート」を読んで、これはダメだと思いました。アメリカ著作権局のレポートは、生成AI企業にとってかなりの逆風となる内容が含まれているからです。

アメリカの訴訟結果次第で、画像生成AIの無断学習が合法か違法か決まる…

結局、日本製の画像生成AIというのはほとんど存在していないんですよね。
AI学習の著作物利用が合法か違法かは、AI学習を行った国の法律で判断されます。アメリカの訴訟結果が重要となりそうですね。


だから私は画像生成AIを捨てた…

現状グレーゾーンで、訴訟結果が出始める1年後ぐらいには50パーセントの確率で違法になり得るものを、自分の創作の核となる部分に据えるのは、私にはできません。

1年後、コインを投げて裏が出たら、自分がそれまでやってきた作品がゴミに変わるとしたら、私ならその道を選びません。自分に何かが残る方を選びます。

だからといって、私は他の人に画像生成AIを使うなとか、言うつもりは無いですし、他人の行為を止める権利は私には何もありません。画像生成AIで生成した画像が、既存の著作物と酷似しない限り、ユーザーが著作権侵害することは無いのです。ですので、それは問題ないですし、各自の判断で好きにすればよいと思います。

しかし、アートというのは「誰がどのように作ったか」という文脈も評価の上で重要となります。現状グレーゾーンな無断学習が、もし違法と言う判断がされた場合、違法に収集されたデータセットを元にした画像生成AIから出力されたアート作品は、評価に値するものになるでしょうか?

私は、画像生成AIを使うことのリスクを認識した上で使う分には何も問題ないと思っておりますが、もしAIモデル自体が違法となった場合に、どのように対処するか検討した上で使用することが必要でしょう。

いいなと思ったら応援しよう!

Yunomix おこづかいちょうだい♪♪♪

ピックアップされています

AI関連

  • 80本

コメント

6
Wirbel
Wirbel

最新動向の解説ありがとうございます。いつも楽しく拝見しております。
専門性が高すぎるせいかこういう現在進行系の法的・技術的議論はメディアに載りにくく意識しづらいですが、やはりまだ生成AIは不安定な地盤の上に立っているのだと気づかされます。

山井明
山井明

真面目な知的財産権の話どんどんしていただきたいですね!こっちはあまり話されてない人間とAIの心理的脆弱性利用攻撃の危険性とか倫理面でゴリ押しして補完記事書きますよ!

Yunomix
Yunomix

Wirbelさん
コメントありがとうございます!
はい、特に画像・音楽・動画の生成AIは不安定な前提のもとで作られている感はありますね。おそらく来年ぐらいには裁判結果が出て、法的な線引きが行われると思います。

Yunomix
Yunomix

山井さん
ありがとうございます!倫理面の話は私は全然書いて無かったので、お願いします!

コメントするには、 ログイン または 会員登録 をお願いします。
訴訟でStable Diffusion(画像生成AI)の全バージョンの破棄が要求されている|Yunomix
word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word

mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1