AIはバカが使うとバカになるお話
最近、ChatGPTや生成AIを使っている方は多いと思います。企画書、議事録、キャッチコピー、SNS投稿、YouTubeの台本などなど…。あらゆるコンテンツが、AIによってあっという間に形になる。私自身、日常的に使っていて、その便利さには驚かされますしヘビーユーザーです。
でも、ふと考えるんです。「これ、自分で考えることをサボっていないか?」と。
MITの研究:ChatGPTを使った人の脳はあまり働いていなかった?
MITの研究チームが行ったある実験では、学生たちにエッセイを書かせ、脳の活動を比較したところ、ChatGPTを使ったグループの脳は明らかに“静かだった”という結果が出ました。
つまり、AIを使うことで、思考のプロセスそのものが脳から奪われてしまっているということです。
「AIに考えさせる」と聞くと便利そうに感じますが、それは裏を返せば「自分はもう考えていない」状態かもしれません。
AIが文化も文体も“平均化”してしまう
別の研究では、アメリカとインドの参加者がそれぞれAIを使ってビジネスメールを書くという実験が行われました。結果は驚くべきものでした。AIを介すると、どちらの国の参加者も似たような、非常に無難な文面に落ち着いてしまったのです。
本来であれば、文化的背景や言語感覚の違いが出るはずなのに、AIを通すと“均質化”されてしまう。これは、文章の表現だけでなく、価値観や思考様式までもが“ならされていく”兆候かもしれません。実際、創造的課題に対する発想において、AIは「面白くもないが破綻もしていない」ような、平均的なアイデアを多く出す傾向があることがわかりました。
私自身も実感しています。「企画アイデアを考えよう」とChatGPTに投げてみると、それなりにまとまった答えが返ってきます。けれど、それはどこかで見たような、型通りの案ばかり。AIは“過去の集合知”から導き出された「正解っぽいもの」を提示するのでこれは当然なのですけどね。
なぜAIのアウトプットは“みんな似ている”のか?
ここで少し、技術的な背景を掘り下げてみます。
そもそもなぜ、生成AIの出力は「無難」「平均的」「どこかで見たような」ものになりがちなのでしょうか?
その理由は、大きく以下の2つにあります。
① 「平均的な確率が高い単語」ほど優先的に選ばれる仕組み
ChatGPTやClaudeといった生成AIの根幹には、「トークン予測モデル」があります。
これは、ある単語列(文脈)が与えられたときに、次に来る単語の“もっとも確率が高いもの”を予測して出力するという仕組みです。
例えるなら、「この文脈なら『ありがとうございます』って書く人が多いよね」と判断して、それを出すような仕組みです。
つまり、AIは“もっともありふれた表現”を優先的に生成する構造になっているんですね。多くの人が使う“テンプレ的な表現”ほど出やすく、少数派の“尖った表現”は、ノイズとして扱われやすいのです。
② 学習データが「過去の集合知」である
もうひとつ大きな理由が、「学習データ」です。生成AIは、インターネット上にある膨大なテキスト(ニュース、ブログ、Wikipedia、SNSなど)を学習してモデルを構築しています。
その結果、「人類がこれまでに書いてきた“平均的な思考の集積”」がモデルの基礎になっているわけです。AIが出す答えは、私たち自身が過去に大量に書いてきた“ありきたりな言葉”の反映なのです。
つまり、学習元の多くが「すでに出回っている表現」なため過去に例を見ないような独創的な文章や発想は“統計的に浮いてしまうのです。
「考えない快適さ」は、中毒になる
これは私自身がハマった落とし穴でもあるのですが、AIに頼り始めると、次第に“考えなくても済む快適さ”に依存してしまいます。
構成を考えるのが面倒
言い回しを考えるのが億劫
ネタ探しをChatGPTに丸投げ
こうして、気づかぬうちに自分の思考がどんどん“薄く”なっていくのです。
「AIを使う人」と「AIに使われる人」の違い
ここから先は

プロダクト開発の語り場 noteマガジン
AI×プロダクト開発をテーマに記事を発信するマガジンです。SNSでは語りきれない・言えない有料会員向けのプロダクト分析やキャリア、経営の裏…
この記事が気に入ったらチップで応援してみませんか?


購入者のコメント