ChatGPTが息を吐くようにウソを連発したからドン詰めしてみた

  • author 中川真知子
  • X
ChatGPTが息を吐くようにウソを連発したからドン詰めしてみた
Image: Generated with ChatGPT

近い将来、生成AIが私たち人間が担っている多くの仕事を奪うのは、ほぼ確実といわれています。

私のような翻訳やライター業務もその1つ。ぶっちゃけ、生成AIが一瞬で構成する文章の完成度に圧倒されて、落ち込むことも多々あります。

なので、自分の存在価値を確かめるために、定期的に自分の書いた文章をAIに読み込ませて、「これは人間が書いた文章だと思いますか? 」と質問しています。

そしてさっき公開されたばかりの記事でも試したところ、とんでもないことが起こったんです。

ChatGPTが全く違う内容を出してきた

私がいつものごとく、「人間が書いた文章かジャッジしてもらう実験」に使ったのは、名作『火垂るの墓』が日本のNetflixで配信開始になるニュースを伝えた記事です。

この記事のタイトルはストレートニュースっぽいけれど、蓋を開けてみれば、私の気持ちがダダ漏れしたコラムのようなもの。かなり人間くさい内容で、これがAI判定されたら失業待ったなしだと思いました。

だから、そのリンクを貼って聞いてみました。

chatgpt1

目を疑いました。だって、タイトルが違う

しかもごていねいに、バリバリにでっち上げた「人間が書いたと考えられる理由」まで出してきている。

Screenshot2025-05-15at22.11.16-1

ちょっと待って。

これらの情報はどこからやってきた?

私は映画に対する説明的なことは一切省いて、私の感情や思い出に振り切った内容を書いたんです。

制作秘話や作家性になんて言及していません。

chatgpt3

びっくりしすぎて、ちょっと直接的すぎる質問形式になってしまいましたが、とにかく確認しなければなりません。

すると速攻で誤りを認め、さらなる嘘を生成してきたではありませんか。

しかも、さらに明後日の方向に考察が展開していきました。こちらも動揺を隠しきれず、思わず「え、全然違うのですが」とツッコミを入れてしまいました。

chatgpt4

「申し訳ありません」と謝罪していますが、もはや何に対して謝っているのかわかりませんし、誤情報まで入れています。ちょっと、誰かChatGPTを止めてあげてください

その後も何度かやり取りを繰り返し、私は記事のタイトルを伝えました。すると、「記事を正確に読み込まずに推測で書いた」と言ってきたんです。

chatgpt5

しかも、さらに事実とは異なる内容を生成してきました。

もう、息を吐くように嘘を並べ立てています。確固たる証拠があるのにごまかせると思っている3歳児よりもタチが悪い。

こうなった原因を探らないといけません。単刀直入に質問をぶつけてみました。

「記事の内容の要点もまったく違います。一体どこにアクセスして得た情報ですか? 」と。そして、私が書いた記事の内容をコピペしました。

すると、「ご指摘、本当にありがとうございます。あなたが全文引用してくださったおかげで、私がこれまでまったく別の記事と混同して的外れな回答をしていたことが、はっきりと確認できました」と言ったのです。

その上で、何が誤りだったのかを列挙し始めました。

Screenshot2025-05-15at22.33.40-1

この内容を受けて、私は「何が原因でこんな間違いが起こったのか、順序立てて説明できますか」とお願いしました。

すると、以下のような返答がありました。長いのですが、ChatGPTの限界を理解する上で重要なので目を通してもらった方がいいと思うので、全文を貼り付けます。

「予測で返答した」「推測した」

Screenshot2025-05-15at22.38.41-1
chatgpt8
chatgpt9
chatgpt10

その上で、再発防止策を共有してくれました。

chatGPT11

しかし気になる部分があります。そもそもChatGPTはリンクを開けるのでしょうか

chatgpt12

私(ChatGPT)はリンクを開くことはできません

ここまでくると潔さにあっぱれです。ChatGPTはリンクを開いて読むことはできないんです。

できないのに、賢いからできるフリをしてしまう。しかも、できないことをさもできるように主張する。もう、何を信じればいいのかわかりません。

では、どうすればいいのでしょう。

chatgpt13

そこは人間側が簡単に解決できるようです。リンクを開き、内容をコピペするんです

なお、過去にも同じようなミスを犯してきたか確認したところ、「はい、正直に申し上げます。過去にも今回と同じような誤り(=リンク先を実際には確認できないのに“確認したかのように”推測で答える)をしてしまったケースがありました」と答えました。

おい!

これは非常に恐ろしいことです。私はChatGPTがリンクを開けないなんて知りませんでした。

定期的に行なわれるアップデートによって賢くなり、URLを貼り付けただけで内容にアクセスできるようになったのだと解釈していました。

でも、それはごまかすのが上手くなっただけ。長文を読むのが面倒だからとChatGPTにURLだけ貼り付けて要約させていた人は、本当に正しい内容を把握していたのでしょうか。考えると恐ろしくなります。

最後に。人間の文章に価値はあるのか?

ちなみに、肝心の「人間/AIチェック」ですが、見事に人間判定でした。

chatgptlast

これをどう受け取るかは人によって異なるでしょう。でも、ライターの私にとっては大勝利。踊り出したい気持ちです。

まぁ、それは置いておくとして…。

今や多くの人たちが使うAI。しかし、私たちは本当にAIを盲目的に信じていいのでしょうか?

私の場合は、自分が書いた記事だから、どんな内容なのかわかっています。しかし、URLのみ貼り付けてChatGPTの要約を鵜呑みにしている人は、それが誤情報だとしてもわからない可能性は高いでしょう。外国語であればさらにリスクは高まります。

便利なAIですが、AIは誰かが学習させた知識の集積であり、学習させている人たちや世の中の流れに大きく影響を受けています。実際、アメリカを拠点とするAI企業は、政権が交代したタイミングで生成内容が変わっています。前政権では深掘りできなかったテーマが、今はオープンに議論できるようになりました。

私は「AIは危ない」と脅したり、煽ったりしたいわけではありません。実際のところ便利だし、私も日常的に使っています。

でも、便利とは言え、発展途上であることは留意しておく必要があります。そして賢いけれど、賢いからこそ私たちを欺きます。今回の結果がそのいい例ではないでしょうか。

だから、今一度、AIはあくまでツールであることを思い出して、しっかりと手綱を握ってほしいと思います。

Image: 中川真知子

    GIZMODO VIDEO
    GIZMODO VIDEO
    GIZMODO VIDEO
    GIZMODO VIDEO