「生成AIを使うと頭が悪くなっていく問題」をどうするか?
生成AIを使うと頭が悪くなっていく?
いくつか、気になる論文を見つけたので共有です。
①マイクロソフトとカーネギーメロン大学の共同研究
マイクロソフトとカーネギーメロン大学が共同で行った研究がありまして。
知的労働者300人以上を対象に、900件以上のAI活用事例を集めて研究したやつです。
この研究によると、
知的労働者は、AIを信頼して文章作成や分析などの作業を任せると、そのぶん自身のスキルを使わなくなる傾向がみられた。特に、時間的なプレッシャーがある状況では、AIが出した結果を吟味せずに受け入れてしまう傾向が強まった
AIに頼ることで、文章の校正能力や法的文書の作成能力といった専門スキルに自信を無くす。で、結果としてAIの提案を自動的に受け入れるようになる。この悪循環が続くと、効率化の代償として、思考力を働かせる機会が失われている
要は、「AIを信じて依存しすぎると、批判的に考える機会が減り、批判的思考力が弱まる危険性がある」ということ。
②スイス・ビジネススクールの研究
で、もっと直接的な研究結果を突き付けてくるのが、スイス・ビジネススクールのやつでして。
https://www.mdpi.com/2075-4698/15/1/6
666人を対象にアンケートやインタビューを行って「AIツールをどれくらい使っているか」と「批判的思考力のレベル」の関係を分析した論文です。
示されていたのが、
AIツールをよく使う人ほど、批判的思考力が低い。AIに頼って自分で考えることをサボってしまう「認知的オフロード」が原因ではないか
特に、若い人の方がAIに頼る傾向が強く、その分、批判的思考力が低くなる可能性がある
一方で、もともと学歴が高い人は、AIを使う頻度に関わらず、高い批判的思考力を保っていた
けっこう残酷な研究結果ですよね。
もともと思考力が高い人は、依存して思考力を弱くすることもなく、生成AIを使い倒すことができる。
一方で、あまり批判的思考に慣れていない人は、AIを使えば使うほど、思考力が弱くなり、生成AIに使われる状態になってしまう。
要は、こういう悪循環が起きている
以上の研究結果を僕なりに図示すると、↓のようなことが起きているんじゃないかと。
批判的思考力(論理的に考えるとか、物事を疑うとかの力)が低いと、フワッとした浅いプロンプトしか書けない
浅いプロンプトを入力されるわけなので、生成AIからも浅くてどっちつかずな回答が返ってくる
何となく「ありきたりだな」「抽象的な言葉が多いな」とは感じつつも、疑問点もうまく言語化できないので、生成AIの回答を鵜呑みにして、そのまま使ってしまう
生成AIの回答を鵜呑みにすればするほど、批判的思考力が弱まる
生成AIの回答を鵜呑みにして、そのまま会議に持って行ったところで、腹落ちして理解できていないから、「これどゆこと?」と質問されても説明責任を果たせない。AIの回答を具体の具体で理解できていないから、行動にも落としこめない
仕事で生成AIを活用した成功体験が得られないから、AIを上手く活用する経験値も蓄積されない
思考力の弱化と、AIの経験値が蓄積されないことによって、またフワッとした浅いプロンプトを書いてしまう←振り出しに戻る
このループがグルグル回り続けると、どんどん頭が悪くなってしまう。
これが、生成AIを使ううえで最も気を付けないといけないポイントだと、強く危機感を抱いてます。
じゃあ、どうするよ?
先ほどの悪循環を断ち切るためにも、3つの論点があります。
↓の図に書いてみました。
「自分の頭で考えた」と言えるプロンプトを書くには?
生成AIの回答を「半強制的」に疑うためには?
「自分の言葉」で説明するとはどういうことか?
順に見ていきましょう。
「自分の頭で考えた」と言えるプロンプトを書くには?
よく「自分の頭で考えてプロンプトを書きましょう」と耳にしますが、結構これが難しいんですよ。
・・・なのですが、実は、問答無用で「自分の頭で考えざるを得ない方法」があるので、実際のプロンプトの例もお見せしながら解説します。。
いまメンバーシップに一番力を入れてますので、よろしかったら覗いていってみてくださいね!



購入者のコメント