事の発端
新しい自己回帰型モデル(オートレグレッシブ型)は、以前の拡散モデルと違って生成が終わるまで生成物の著作権侵害を検知できないので、うっかり有名著作物を描き上げてしまいます。公開は自己責任なので注意しましょう。 x.com/ats/status/190…
2025-03-27 01:43:31・拡散モデルが生成の中途段階で侵害を検出できる根拠が無いです ・自己回帰型モデルでも、著作権チェック後にユーザーに送信するシステムを構成可能です 生成アルゴリズムとシステム全体のアーキテクチャが混同されています。 あなたの精度の低い憶測を、さも事実のように語らないでください。 x.com/masamune_sakak…
2025-03-27 07:05:53突然、悪態をつく失礼な人物(根拠厨)が登場。
面倒な輩がネチネチ粘着
「拡散モデルは生成過程が段階的であるため検知しやすく、自己回帰型は中間段階がないため検知しにくい」という話は、 明確な技術的事実に基づいたものであり、強くファクト(事実)です。 x.com/v_ajw63600/sta…
2025-03-27 07:13:40@masamune_sakaki 明確ならば、その根拠を挙げられると思いますので、ぜひ教えていただけますか? 技術的事実に基づくからファクトという主張はトートロジーであり、主観的な確信を強調するレトリック以上の意味を持たないです。
2025-03-27 07:25:16すみません。私が誤情報を流しているようでしたら訂正したいと考えていますので、明確な技術的事実の根拠を教えていただけますか? 技術解説記事や、検知技術が実装された具体例を挙げていただくだけでも構わないですので。 x.com/masamune_sakak…
2025-03-27 08:15:49@masamune_sakaki 返信がないようですので、先回りして反論いたします。 >「拡散モデルは~検知しやすい」 主流の手法において、中間過程はVAEの潜在空間上に存在します。 つまり、あなたの主張は「潜在空間上で著作権侵害を効率的に検知できる方法が存在する」を意味します。 その手法をお教えいただけますか? (1/3)
2025-03-27 10:39:16@masamune_sakaki >「自己回帰型は中間段階がないため~」 自己回帰型の古典的手法としてPixelCNNが存在します。 この手法は、出力画像を左上から1ピクセルずつ推論する手法です。 出力の開始から終了までの間に、ピクセルが途中まで推論された状態が存在しますが、これは「中間段階」ではないのでしょうか? (2/3)
2025-03-27 10:39:37@masamune_sakaki あなたの主張を通すためには、PixelCNNが中間段階を持たないこと、または、GPT-4oの画像生成アルゴリズムがPixelCNNとは大きく異なるアルゴリズムであることを示す必要があります。 (3/3)
2025-03-27 10:39:52根拠厨の本領発揮
GPT-4o のアーキテクチャ
@masamune_sakaki 「何」と「何」が「どのような点で」違うのかを具体的に教えていただけますか?それができて初めて有効な指摘となります。 強いファクトがおありとのことですので、いとも容易いとは存じておりますが。
2025-03-27 11:05:43@masamune_sakaki 私は根拠を出してくださいと言っています。 根拠が出されていない以上、あなたの意見を事実とみなすことはできないです。
2025-03-27 11:07:21(根拠根拠うるせぇ)
@v_ajw63600 gadget.phileweb.com/post-98780/?ut… まず、自己回帰型モデルが4o image generationに搭載されているのは信じてもらえますか?
2025-03-27 11:15:56@masamune_sakaki はい、OpenAIが公開した技術報告書の原文を拝読いたしました。 GPT-4o の画像生成機能が autoregressive model であることは確認してあります。しかしながら、詳細な解説は掲載されておりませんでした。 あなたは、より具体的なアーキテクチャに踏み込んだ資料をご存知ということですよね?
2025-03-27 11:19:59そもそも今回私が調べたのは逆のアプローチで、DALL·E 3のときは検知が可能だったのに、GPT-4oの画像生成では検知が甘くなっている理由についてです。その結果、技術的な理由があることが分かりました。しかし、OpenAIは一度検知してから画像を差し戻すシステムを作ることも可能だったはずで、それを搭載しなかった理由については推測に留まり、明確には分かっていません。
2025-03-27 11:42:09自己回帰型モデルの仕組み
仕組みをコードで書いたもの(数式はコピペできないので) # 拡散モデル (Diffusion Model) # 順拡散プロセス # q(x_t|x_{t-1}) = N(x_t; sqrt(1 - beta_t)*x_{t-1}, beta_t*I) # 逆拡散プロセス # p_theta(x_{t-1}|x_t) = N(x_{t-1}; mu_theta(x_t, t), Sigma_theta(x_t, t)) # Pythonでのイメージ import numpy as np def diffusion_forward(x_prev, beta_t): noise = np.random.randn(*x_prev.shape) x_t = np.sqrt(1 - beta_t) * x_prev + np.sqrt(beta_t) * noise return x_t def diffusion_reverse(x_t, mu_theta, sigma_theta): x_prev = mu_theta(x_t) + sigma_theta(x_t) * np.random.randn(*x_t.shape) return x_prev # 自己回帰型モデル (Autoregressive Model) # p(x) = Π p(x_i | x_1, x_2, ..., x_{i-1}) # Pythonでのイメージ def autoregressive_generate(predict_next_pixel, image_shape): image = np.zeros(image_shape) for i in range(image_shape[0]): for j in range(image_shape[1]): image[i, j] = predict_next_pixel(image, i, j) return image
2025-03-27 11:20:26@masamune_sakaki すみません、そのコードの内容を行単位で説明できますか?できないようであれば、ただの情報ノイズなので不要です。 その程度の内容であれば私は自力で実装できます。 あまり他人の能力を見誤らない方が良いですよ。
2025-03-27 12:03:53突然の実力アピール。恥ずかしくて目も当てられない。
https://x.com/nijijourney/status/1799183026729193810 ニジシャーニーはもう1年近く前から日本語出せるよ
内容ほとんど読んでないけど「SNSで議論なんかしようとするとかあほだなあ」としか。