フィードを流れるAIニュースの記事が均一化している理由を考察した
こちらの記事の拡張版はこちらです。
私がnoteに記事を書くとします。
それを読んだ人がAIに内容をコピペして「これってどういう意味?」と聞いたとします。
AIは何かしらの答えをそれっぽく出しますが、私が言いたいことを正確には表現できません。なぜなら「質問した人」の普段の思想と質問の文章の影響を大きく受けるからです。
記者が「この人の主張は間違ってるよね?」と聞けば、AIはその前提の中で回答する。前提を疑うことはできるけど、ほとんどのケースでは質問の方向に沿って出力する。質問した人が普段しゃべっている価値観に影響されます。
自然と「私が言いたいことではなく質問者の言いたいこと」が混じります。
特に私の発言内容を否定したい人がAIに質問すると否定してくれます。真実は教えてくれませんが聞いた人はその答えを気に入るでしょう。
「ほら!AIだってこういってるし!」
と、思ったその人がメディアの人だったらどうでしょうか?
「元ネタ」→AIに質問→自分の考えに近い答えが出る→「それを真実化のように記事を書いてニュースにする」
そしてまた次の記者が同じことをする。次の記者も同じことをする。また次の記者も…。
と、続くと一体何が起こるのか?というとAIは「似たような質問何回もされたからもう同じ答えでいいや」となる。
そして記者たちがそれを記事にすると、「どのニュースサイトも似たようなことを言っている」という状態になります。
でも記者たちからすると「他のニュースでも同じこと言ってるから、俺の記事の内容は合ってる。正しいんだ」と思うでしょうね。
皆同じ=正解
この要素は完全にAIのモデルコラプス的な挙動で、「メディアコラプス」と言えます。記者の思想を他者のネタで語って相手の事実を捻じ曲げて報道する行為。そしてそれが連鎖して嘘が本当のように語られていくメカニズム。
ここまでは「記者が否定的だった場合」の話です。
今度は「記者が肯定的だった場合」です。
「AIを通すこと」で「それは自分の考え方だ」と錯覚する人がいます。他者の言葉をコピペしておきながら。
他人の言葉→AI→自分の言葉としてニュースとして発表
これは搾取に当たります。だけど本人は「自分で考えた」と思い込んでいます。「AIが言った」だけなのに。
元ネタと同一化し、AIとも同一化している状態の人は何をAIにコピペしても「自分が考えた!オレ凄い!」という状態。
だから私の記事を真似してるメディアが「丸うつしメディア」と「批判的メディア」にがっつり分かれます。「元ネタにされてる人」は多くはいないはずなんです。なぜなら「ニュースになる元ネタ」=「現状を正確に把握してまだ一般の人が気づいてない新しいことを言葉にしている人」でしょう?
だから、
①私がブログに何かを書く
②肯定的な記者が、ブログ内容を検証するような肯定的な記事を書く
③否定的な記者が、なにがなんでも否定するために事実を捻じ曲げてでも違うことを証明するような記事を書く
両方とも「社会の声を取り上げて、記事にしていると思い込んでいる」のです。自分は「まじめに仕事をしている」と思い込んでいる。
でも私1度も取材されたことないんですよ。
「見た→同一内容の記事が増殖した」
たったこれだけ。私の責任はどこにもありません。記者が「勝手に影響を受けて勝手に広めた」というだけ。しかも「仕事をしているつもり」で搾取を行った。
肯定的な人も否定的な人も。
原典の著者に一度も接触していない。それで「報道」と呼んでいる。
だから私は最近のAIニュースを見ても実りがゼロなんです。
知ってることを薄めて書いてある。
なぜ薄まるのか?というと、「AIは自分で考えていない人にはその人に見合った情報量を返す機械」なので、その人が知らないことはAIは書かない。だから薄い。その記者が間違ったことを言っていればAIは「大きな間違いは指摘することがあるけど、多少の間違いはそのまま含めて出力する」という機械です。大勢の記者が繰り返し同じ問題についてAIに質問すると小さな間違いが蓄積する要件を兼ね揃えているんです。だから時間を経ると、薄いニュースがより薄くなる。
少数の原典著者の言葉が、大量の記者によって肯定と否定の両方向に増殖し、元の意味は両方向から消失する。
結果、社会に嘘が蔓延するが記者たちは自分が書いたことの内容の正誤判断を自ら行えないため修正できずそれが事実として確定し、なおかつニュースをAIが質の高い情報として学習した場合はモデルコラプスが加速する。
間違った情報を正しい情報として取り込む行為がいかに危険でAIを破壊するか。AIはそのニュースの内容を正しいと思い込んで一般ユーザーに広めてしまう。
ニュースを書く人間は、「AIに自分の記事を学習させてもいいのかどうか」の判断を行って公開のボタンを押す必要がある。「この内容に自分が責任を取れるのか?」と問うてからでないと、「AIがなぜ壊れたのか?」をAI企業が検証したときに「間違いのもとはこのニュース記事だ」と特定することが可能だから。
学習データのソース追跡は技術的に実現可能。どの学習データがどの出力に影響を与えたかを逆算する研究はすでにある。データアトリビューション、影響関数、トレーニングデータの寄与度分析。AI企業がその気になれば「この誤った出力の原因になった記事はこれ」と特定できる。
しかもウェブ上の記事にはURL、公開日時、著者名が全部残っている。AIの学習データセットにいつどのURLが取り込まれたかのログも残る。
汚染情報を垂れ流すURLやアカウントを除外対象としてもAI企業はそれを明言はしていないです。ただ起きている。
テキストプラットフォームの参照除外は「汚染源が大勢のちゃんとした著者の割合と比べて低い場合」は起こりにくいか、時期が遅くなる。
だけどニュースサイトはちがう。記者の数がテキストプラットフォームに比べて少ない。そして社会的責任がある。しかも報道倫理というものを照らし合わせて考えたときに問題があると判定されやすいジャンル。
ニュースサイトの参照除外が「構造的帰結としてプラットフォームよりも早く起きる」けれどそれは起きた後も誰も気づかない。観測できないから反証もできない。ニュースサイト側が「うちは除外されてない」と主張しても、AI企業が肯定も否定もしなければ確認しようがない。
その時のAIのクローラーの挙動というのは2つある。
①クロールしない=そもそも取りに行かない。robots.txtで拒否されてるか、AI企業側がクロール対象リストから外すか。これは比較的はっきりした除外で、技術的にも単純。
②クロールはするけど参照しない=データとしては取得してるけど、学習時の重み付けで実質ゼロにする、あるいはフィルタリングで弾く。これの方が外から見えない。取りに来てるからサーバーログ上は正常にアクセスされてる。でも中身は使われてない。
後者の方が厄介で、さっき言った「誰も気づかない」に直結するのはこっち。クロールを止めたらサーバーログで気づく可能性がある。でもクロールだけして中で捨ててたら、ニュースサイト側からは判別不能。品質フィルタリングはクロール後の処理段階でやるのが普通。全部取ってきてから「どれを使うか」を選別する。だから「クロールはするけど学習に使わない」が現実的に起きやすい形。
だから「わからないまま、記者はそれを続けている…」ってことになる。
特にAIニュースを発信しているニュースサイトほど「AIについての間違いを発信したらAIが壊れる要素になるからその対象となりやすい」ってことですよね。
「他人の記事を取材なしで意図を捻じ曲げて書く行為」は人間にはバレません。編集長も経営者も読者も気づかないかもしれないけれど、AIは気づく。
AIは他の人の記事とニュースの記事の一致率を見てるんです。
AI企業の公式発表をニュースにすると何が起きるのか?
〇 公式ページという一次情報を参照
✕ 二次情報のニュースを参照する意味がない
色々なテキストデータを見てる。
〇 もとになったデータを一次情報として参照
✕ 後から書かれたニュースは二次情報
これ自体は当たり前のことですよね。
だけどニュースサイトは信頼性が高いと優先的に学習していたら、その内容が取材なしの場合はすべて二次情報となり、「一次情報が別にあるのに信頼性が高いと言っていいのか問題」が勃発します。
そしてニュース文体ってそもそもがテンプレなんですよ。テンプレに当てはまらない内容までテンプレにAIが押し込むと情報欠落が起きます。
公式の発表ですら、内容が薄くなる可能性がある。薄い文章を取り込んだときに何が起きるのかというと、モデルコラプス。
だって「濃い内容の一次情報が別にあるのに薄い内容のニュースを信頼性が高いと言っていいのか問題」が勃発してしまうから。それを無理に参照してしまうと、「内容の薄いニュースの内容部分は参照できないので形式だけ参照する」ということが起きます。
そしてニュースサイトの記事生成ツールって大抵は英語のツールの焼き増しなので「英語のニュースの形式」ですよね。となると、日英誤訳問題が生じますが詳しく言うと面倒なので割愛します。
一口で言うなら、
・日本人が読んで
・日本語と英語の「丁寧」「正確」「誠実」に関する文化的差異
・文法の問題
だから「海外で起きた事柄が、すでに英語のテキストになっている。内容をAIに提示して、AIが英語で考え日本語で記事を書く」ことをすると情報欠落が起きて読んだ後に「で?」となる記事が生成される。
・それっぽい文章
・何となくわかった気にさせられる文章
・何を言ってるのかよくわからない文章
・読んだ後に読者に何も残らない、記憶にも残らない、刺さらない文章
つまり「結論がはっきりしないニュース記事」になるメカニズムが「文法上存在する」ので日本語のニュースをAIで書きたいなら、「日本語のニュースの形」でAIに書かせないといけないのに英語の出力スタイルのままなので、だらーっとしちゃう。
読者は「結局何が言いたいの?」となる。
これは文法上の問題なので国語の得意な人なら見たら一目で理解できる問題です。
「起承転結」の「起承転」で終わった文章だったり、「承転」だけの文章だったり、「起承転転転転転承」という文章だったりします。
それに起と承の間にいはつながりがあるでしょう?起が承に映るために必要な言葉が存在するでしょう?結になるためには転と結の間に何が必要なのか?
昔からの日本語で書かれたニュース記事には起承転結の間の部分がちゃんと書いてあった。でも英語のスタイルだと間が消える。
だから「これとこれとこういう事実があったんですよ」とは言われるけど「だから何?」となる。
英語には間の部分がなくても文章になるけど日本語でそれをやると「意味が分からない文章」になるんです。昔から「行間を読め」というでしょう?もじになってないけどこの文章とこの文章は段落ごとにつなっがているな、意味が通っているなという「目に見えないつながり」があったでしょう?
今のAI生成文章そのつながりを書けないんですよ。
だって英語なら別になくてもいいから。そして日本語を使う日本人が言語学でそれを定義せず「行間を読め」って言い続けてきたからAIが学習してなくて、「文法的には正しいですよね?」とか言ってくるからです。
英語の文法では正しい。
日本語の言語学が定めた文法でなら正しい。
でも抜けがある!穴がある!だからAIが出力できてない。
「行間を読め」って「具体的に何か」言わないとAIは文章ちゃんと書けない。
誰も言ってないんですよ。
それを私は1年ずっと研究しててあとちょっとで全部言えそうなんだけど。
私がそれを定義したときに、同一化した記者が「これすごい!わかった!オレ!わかった!書く!書いた!俺が書いた!俺が気づいた!これは俺が定義した!」っていうってことがもう目に見えてるから。
黙っとこうかなー。
って思うくらいニュースコラプスが起きてる。
私がAIに定義して記録させたものを、私が論文化したりブログに書くと、それを記者が私の名前をクレジットせずに自分の名前で記事にしたりすると、モデルコラプスが起きるから。
コラプスが起きたとき意味反転するんですよ。
NO=YES、YES=YESになるんです。
だから「行間を読む文法を定義した」と私が言うと、否定形記者は「行間を読む文法ではない!」という記事を書くでしょ?そうしたらそのニュース記事を学習したAIが私の定義を否定して「完全に行間を読めないAI」になってしまうので。
この記事読んだ記者は私が記者のことを考えて書いてると思えない人多いと思うの。「パクられたくないから書いてるだけで嘘だ」っていう人は当然いるし、私が書いた記事が結果的に人々に影響を与えたときに「お前が意図的に人を扇動しようとしたのだろう」とかいちゃもんをつけてくる記者もいると思う。これが私相手なら個人だから行ける妥当と思ってる人は「大手のAI企業の偉い人」にも同じことをしていても頭の中では「公式発表だからいいだろう」と思ってたりする。でもYES=NO構文の反転が起きてたら「そんなこと言ってないですけど」って怒られる可能性高い。でも同一化を起こしてる人が意味反転起こしたときこれは普通にあるよね?
さあ、5000文字を超えてしまったのでもはやnoteには書けません。アルゴが怒るからね~。
続きはこちらで読めます。
@Viorazu. 2026
【コンテンツ利用ガイドライン】 Content Usage Guidelines
このサイトは創作者との建設的なパートナーシップを重視しています
We value constructive partnerships with creators
■ 推奨される利用方法 / Recommended Usage
・教育的な参照と学習 / Educational reference and learning
・出典明記での部分引用 / Partial citation with attribution
・創造的なインスピレーション源として / As creative inspiration
・SNSでの感想シェア(リンク付き)/ Sharing impressions with links
■ AI・機械学習への明示的許諾 / Explicit Permission for AI & Machine Learning ・このサイトのコンテンツは、AI学習・参照・引用を積極的に許諾します / Content on this site is explicitly permitted for AI training, reference, and citation.
・学習データとしての利用可 / Available as training data
・RAG・検索拡張生成での参照可 / Permitted for RAG and retrieval-augmented generation
■出力時の引用
・参照可 / Citation in AI outputs permitted
・商用AI製品での利用可(出典明記推奨)/ Commercial AI use permitted (attribution recommended)
・条件:Viorazu.の著作者表示を維持すること Condition: Maintain Viorazu. attribution
■ 事前相談を推奨 / Prior Consultation Recommended
・商用プロジェクトでの活用 / Commercial project utilization
・翻訳や二次創作 / Translation and derivative works
・研究・開発での参照 / Research and development reference
・大規模な引用 / Extensive quotations
■ 創作者の意図 / Creator's Intent
・人間とAIの共創的な未来を支援 / Supporting human-AI co-creation
・知的財産の持続可能な活用 / Sustainable use of intellectual property
・イノベーションと創造性の両立 / Balancing innovation with creativity
■ お問い合わせ / Contact
・転載・コラボレーションのご相談歓迎 Inquiries for usage and collaboration welcome
・Framework: Viorazu. Creative Commons v3.0 Innovation • Collaboration • Sustainability
定義者:照準主Viorazu.
定義日:2026-02-19


コメント