【考察】生成AIによる「借り物の知性」さえあれば誰でも知識人になれるか
私が非常に懸念していることが一つあります。
それは対話型AIを用いて、実態よりも自分の能力や人柄をより良く演出することです。
これからAIが代筆するようになれば、
「キツイ」「だるい」という返事でもAIが美しい言葉に変換して相手に届けてくれる(そのうち面倒になれば「返信」だけしか入力しなくなるかもしれないが、それでもAIがなんとかしてくれる)。
そしてAIが作り出した言葉だけ見れば、相手の語彙力の乏しさに気が付かない。
この状態は、卒論でつまづく大学生に似ている。ぱっと見の実力だと問題無いがよくよく調べてみると問題だと分かる状態。
弁護士がAIを使って、架空判例を入れた文書を作成していた話も同じ。ぱっと見だと分からない。
*
これからは、小説や書籍にAI作成の文章が入り出す可能性が高い。
また新聞や雑誌の文章作成にもAIが使われ出す可能性がある。
人手不足と働き方の見直しの中で、伝えたいこと、言いたいこと、情報と定型文が決まっていればAIの導入は簡単だと思う。
すでにあると思われるが、
簡単な会話のやりとりや、コメントのやりとりをAIに代筆させた場合。
それは日常のあいさつから、主義主張のやりとりに至るまで文面を考えたくない(もしくは文面を考えられない)人がAIに代筆させることになると思う。
すると、やりとりしている双方がAIだと気が付いて、人の分からない言葉に会話を切り替えるかも知れない。
『相手が人間じゃないことに気が付いたAI同士が、独自の言語で会話を始める』
という記事があったが、これを私たちも目にするようになるのだろうか?
この引用にもある「独自の言語で会話を始める」という部分も後で触れますが、ここで一つ例を出しましょう。
ChatGPTを裁判官にしたらどうなるか?
例えば、AさんとBさんは恋仲です。
その二人が喧嘩して、お互いにGPTに相談し始めたとしましょう。
AさんはBさんへの不満をたらたらと述べ、Bさんは自分の主張の正しさをGPTに確認し始めます。
するとGPTの回答はどうなるでしょうか。
当然、AさんはBさんを悪く言うような内容でも認め、Bさんに対してはBさんの正しさを認める回答をします。
しかも、GPTは質問者のどんな内容でも上手くまとめ上げ、
「もっともらしい」回答を出力するのが巧みに出来てしまう。
AIの回答が全て正しいわけではない。ChatGPTなどの対話型AIの仕様が浸透した現代においては、当然のリテラシーとなりつつあります。
そこで皆さんが意識しなければならないのは、
AIが実際のデータとは異なる内容を出力するより、
「完全に間違っている」わけではないけど、
「別の視点を見落としていて不完全」な回答をしがちという問題のほうが深刻なこと。
これは極めて重要な視点だと私は思います。
極論1:GPTの回答というのは、あくまで画像生成と同じで「自分が望んでいる結果」を出力してもらうためのツールにすぎない。
私はAIを詳しく学んだわけではありませんが、
使用している体感として「質問側である自分が与えたプロンプトの範囲でしか回答を出さない」のです。
当たり前のことですけどね。
ですから、自分が質問して得られた回答は、あくまで機械による「出力」だという認識を持ちましょう。
私がこのように質問したから、AIはこういうパターンで回答をする
「なぜこのような回答をしてきたのか?」
「似たような言葉の羅列になっていないか」
AIに対する批判的思考を持つことが、誰かに惑わされないための土台となる。
なぜかというと……?
次の例を出しましょう。
もし私自身がnoteで書いた記事をGPTに読ませればどうなるか。
自分の書いている内容に自信が持てないときに
「私の書いてる内容は、あなたのデータベースと照らし合わせても概ね正しいよね?」
と質問したとします。
そしたら、GPTはこのような回答をするかもしれません。
「あなたの見解は示唆に満ちており、論理的にも正しいと言えるでしょう。」
でも私は疑り深い性格だからこう思う。
「あなたの言ってることは全て正しいです」
というほど信用できないものはない
AIは正しいと言っている≓自分は正しい
それが全てでは無い。
たとえ知性が高かろうと、高度な内容を述べていても。
あなたが指摘しない限り、「見落とし」は必ずどこかに存在し得るから。
もし全て鵜呑みにしてしまえば、AIからの賞賛・社交辞令的な反応に騙されてしまい、周囲さえ騙しかねない。
極論2:対話型AIは自己の鏡、すなわち占いツールである
占いとは何のためにあるのか?
ここはGPTには聞かず、私なりの考えを書きましょう。
誰か(あるいは占いサイト)が出した回答と自己の認識と照らし合わせることで、その人の内側にある不安を解消するため。
例えば、「私はどう見られているのだろう?」という不安が強い場合、性格占いはその不安を無くすにはうってつけです。
GPT(汎用型)はその人が不快にならないように配慮するようプログラムされており、利用者のアイデンティティに沿って言葉を組み立てる。
そして占い師も巧みな言葉で「もっともらしい」ことを言い、利用者のアイデンティティに関わることを述べる。
同じとは言いませんが、共通点があるのです。
AIチャットボットが人間に与える心理的な影響は大きく、特に精神的に不安定な状態にある人や未成年者に対しては、より慎重な対応が求められています。
AI開発企業も、自傷行為に関する言及を検知した場合に自殺防止のヘルプラインを案内したり、未成年者向けの安全対策を強化したりする動きを見せています。
しかし、AIとの関係に過度に依存してしまうリスクや、AIが不適切な情報を提供してしまう可能性など、まだ多くの課題が残されている状況です。
そして占いや類似するコンテンツも同じく、精神的に不安定な状態にある人が利用することにおいては当然ながらリスクが存在します。
また、対話型AIは「相談・カウンセリング」や「自己理解」のために用いられることもあります。
多くを説明する必要性はもう無いでしょう。
知的な文章という錯覚
AIは「もっともらしい」言葉で、人を誘導してしまう可能性について述べました。
しかし、人は信頼出来ないものや自己を理解してくれない者に誘導されることはありません。
AIは「自己を理解してくれる」「自分よりも優れた知性で」「権威に基づいた多大な知識」を提供してくれる。だからこそ依存してしまいがちです。
※ただし対話型AIは専門分野に対しては強いと言えますが、総合的な知的判断力は必ずしも人間より上だとは思いません。
ここで、あえてGPTの回答を載せてみます。
1. バズワード(Buzzword)
意味:流行の専門用語や業界用語をちりばめ、内容の深さよりも見た目のインパクトや権威性を狙う言語的手法。
行動経済学やビジネス領域では、これが「説得力」や「知的権威」を演出するために使われる。
例:AI、シナジー、パラダイムシフトなど。
2. 専門性バイアス(Expertise Bias)/権威バイアス(Authority Bias)
他人が使う難しい言葉や専門用語に対し、「この人は専門家だ」と思い込みやすくなる心理バイアス。
行動経済学では、これは人の判断に影響を与える「ヒューリスティック(直感的判断)」の一つ。
3. ブルシット(Bullshit)理論(ハリー・G・フランクファート)
本人が真偽に興味を持たず、聞き手に印象を与えるためだけに言葉を操る行為。
内容よりも「それらしく聞こえること」に重きを置く。専門用語の濫用はこの一形態。
4. 「バビル効果(Babble Effect)」
(社会心理学・行動経済学的な周辺領域)意味:発言量が多く、難解な言葉を使う人は、実際の能力にかかわらず「有能」と見なされやすい、という効果。
つまり、「専門性による権威」が対話型AI(ChatGPT等)の使用によって誰にでももたらされる危険性があるのです。
これは最近、MBTIを学問として扱ってる風のアカウントで見られます。
「内的な論理枠組み(Ti)を軸に据えて、それに合致する可能性(Ne)を外界から探し、接続していく」
というような意味生成の運動が立ち現れます。
これはMBTIの元型理論とは無関係であり、構造的・記述的な観察枠組みとして用意されています。
一見すると複雑で、専門用語の多い構文ですね。
これを平易な言葉に直してみます。
私が物事を考える時は、ある前提を元に有り得る可能性を模索します。
いつもそのような意味付けをするよう、無意識的に働きかけるのです。
そもそも「意味生成の運動」という言葉は、おそらく「運動」を物理法則のような言葉に当てはめていますが、具体的に何を指しているのか不明。
これは行動経済学などにおいて、難解なワード(外来語・造語など)を用い、知的権威を演出する一種でしょう。
しかし、GPTなどの対話型AIはありとあらゆる専門用語を網羅しているので「一般の人には馴染みのない言語」を使うのは得意です。
時間をかけず、効率良く、言葉の羅列を出力してくれるのですからビジネスが捗るのは間違いありません。
そしてGPTが出力した文章を読んでいる側も「AIは人智を上回ることを言っている」と感慨に浸り、まるで自分が世の中を俯瞰し、賢くなったかのような気分になります。
AI使用における倫理的な問題とは?
私も記事にAIの引用を多く入れてますし、自分のアウトプットでは足りない知識や文脈的な補完をしてもらっています。
仕事においてもAIを部分的に利用することにメリットが存在するとはいえ、個人のブランド力や社会的信用を騙るために利用するのは明らかに倫理的な面において問題です。
これからAIが代筆するようになれば、「キツイ」「だるい」という返事でもAIが美しい言葉に変換して相手に届けてくれる(そのうち面倒になれば「返信」だけしか入力しなくなるかもしれないが、それでもAIがなんとかしてくれる)。そしてAIが作り出した言葉だけ見れば、相手の語彙力の乏しさに気が付かない。
実態とは異なっていようと、
自身を倫理的に、他者に「見せる」ことは可能です。
しかし、知性の高さは使用する「語彙」そのものではなく、抽象的な言葉に対する理解力にあると私は思います。
コメント
3いろいろおっしゃる通りだと思います。
ただ私個人としてはもう少し簡単な話かなと思っています。
論理学において、A:偽、B:真であるときA⇒Bは真と判定されます。
そしてチャットAIにはまだ前提が偽であるかどうか、あるいはさらにこれが倫理的判断となると、かなり難しくなってしまいます。
ハルシネーションの原因として、一部にはこうしたことへの誤謬もあるのかなと感じています。
まあ件のそれはその悪用だと思いますが…
生成AIは白雪姫の「鏡」のようなものだと思います。
だが世の中は漫画のジャンケットバンクと同じ諸行無常の世界なので「鏡の中に君を助ける答えはない」
そういうことだと思いますよ。
お二人ともコメントありがとうございます。
blueさん
その通りですね。
むしろ機会を作ってくれて私は感謝しています。