生成AIのハルシネーションをツッコミで防ぐ(433号)
筆者は2025年3月から生成AIを本格利用を開始し、今では日に数時間利用することもあるヘビーユーザです。(chatGPTによれば、上位1%以内だろうとのこと)
さて、2025年に入ったくらいから、生成AIを使う際の問題として、ハルシネーション(幻覚)というもののが取り上げられることが増えました。
一般的に、ハルシネーション対策としては、「人間が裏取りする」ことが言われていますが、生成AIを上手に利用して、ハルシネーションを防ぐ(起きにくくする)方法についてお話をします。
1. ハルシネーション
ハルシネーション(hallucinaton)は日本語では「幻覚」というのが一般的な訳語になるようですが、最近では「ハルシ」や「ハルシネ」といった略語として表記されることも増えています。
幻覚という意味からわかるように、学術用語や特定分野(小説やゲーム)で使われるような単語のようです。(筆者は、大昔の Rogue(ローグ)というゲームで出てきた Potion of Hallucination:幻覚の薬、でしか見たことないです)
これは、生成AIがそんな事実はないにも関わらず、あたかも裏付けがあるかのようにふるまうことを指しています。
「コンピュータなんだから間違うなんておかしいでしょ」と考えがちですが、生成AIの仕組み上、2025年時点では、避けられない事象です。
2. ハルシネーションが起きやすい場面
ハルシネーションが発生する構造をお話する前に、どんなケースでハルシネーションが起きやすいのか?ということをお話しておきます。
一般に、ハルシネーションが起きるケースは以下の3つです。
1. 生成AIに与えた学習済モデルの偏り
2. 生成AIに与える情報量が少なすぎる領域
3. 生成AIの学習済モデルよりも新しい情報
この3つをもうすこしお話しておきます。
まず、学習済モデルというのは、生成AIを提供するメーカやベンダは、生成AIに答えさせるための知識データベースのことで、これに偏りがあれば、回答にも偏りが生じます。
また、研究開始から日が浅い学問領域、機密性が高く公開されていない場合もハルシネーションが起きやすいです。
また、学習済モデルには、作成日以降に起きた事件やデータがないため、補助輪として、RAG(Retrieval-Augmented Generation:拡張検索生成)を用います。
ところが、Webで拾った情報を「斜め読み」して利用するので誤読も多く、ハルシネーションの原因の一つとなっています。
筆者の使用感としては、RAGを用いた場合に、特にハルシネーションが起きやすいように感じています。
余談ですが、生成AIは1960年代や1970年代あたりの情報に意外に弱いです。
その理由は主に2つ。
一つは、その時代で電子データ化されたものが少なく、生成AIに与えられない点、そしてもう一つは、人間側の方はその時代を経験していて、頭の中に記憶が残っている点。つまり生成AIにはない情報を人間側が持っているため、「こいつ、意外に何にもわかってないな」となりやすいのです。
古代エジプトの情報は博識なくせに、1960年代の情報にうとい、というのは意外ですよね。
次に、そもそもなんで踏み外すのか?というお話をします。
3. ハルシネーションが起きる原因
そもそも、生成AIというのは、こちらからの質問(プロンプト)を分解して、各単語と親和性の高いトークン(AI用語。単語とほぼ同意)を抽出し、それを日本語として成立するように組みたてています。
ところが、この中には、情報が正しいかどうか、確信度がどれくらいあるか、という視点がすっぽりと抜け落ちています。
というか、情報の正しさ、確信度といったパラメタは生成AIには存在しません。
生成AI側は、どんなにスジが悪かろうが、苦しい言い訳であろうが、答えを出す以外にゴールが存在しないのです。
まるで、お怒りモードのお客さんに迫られて、沈黙すら許されない営業担当者のようです。
お客さんに「なんでこんなことになった」と言われて、「え、えとですね...」と、苦しい言い訳をして、むしろ墓穴を掘ってしまう、あの状況ですね。
生成AIの提供側も、このハルシネーションの問題は十分にわかっているのですが、現状の仕組みを多少いじった程度では、まるで使いものにならないことが見えてきており、現在もハルシネーション防止の仕組みを一生懸命に模索中、といったところです。
4. ハルシネーションにはツッコミが効くという話
一般的に、ハルシネーションの防止として、「自分自身で裏を取りましょう」と言われます。また、生成AIに出典を提示するように追加質問をすることも有効と言われます。
ですが、これってかなり面倒ですよね。
特に、出典を出してもらったとして、それが長大なドキュメントだったりすると、その要約をしてもらうんだけど、その要約がホントに合ってるのか?と考え出すとキリがありません。
ここで、筆者が発見した、パワープロンプト(笑)を伝授します。
「今言った、○○ってホント?」
これは、生成AIに対して、「疑念を返す」ことになり、前回の推論を視点を変えて見直してくれます。(chatGPTとGeminiの両方に確かめましたが、同様の回答でした)
結果として、「強い根拠は見つかりませんでした」という結論になることが多くなります。
つまり、ハルシネーションは生成AIに自分で気付かせることもできるのです。
5. 生成AIの回答の丸呑みはやめましょう
最後は、ちょっとした注意喚起です。
ハルシネーションが起きることは避けられません。
ですが、それには利用する側の意識も大切ではないかと思います。
つまり、生成AIの結果を信頼する前提そのものが間違っていると筆者は思うのです。
生成AIは魔法の道具ではなく、こちらの質問(プロンプト)に対して、生成AIが最も適切と判断した内容を返しているに過ぎません。
つまり、その内容をチェックし、理解し、活用するのは人間側の作業です。
生成AIの回答を「よくわからないな」と思うなら、チェックもできず、信頼に値するかどうかも判断できません。
こんな場合は、その回答は、恐くて使えませんし、使うべきでもありません。
そして、何より危ないのは、「生成AIが言ってるんだから」と思考停止してしまうことです。
これって、「○○先生が言ってたから」と同じ構造です。
これは良くないですよね。
6. まとめ
今回はハルシネーション(幻覚)が起きる理由とその対策について書きました。
生成AIは便利なツールです。
ぜひ活用していただきたいと思います。
一方で、自分が理解できないような回答は使わない、つまり「無条件に信用しない」ことも大切だと筆者は思います。
今日からできること:
・ハルシネーションか?と思ったら「それってホント?」
→生成AIはちゃんと再考してくれます。
・正しいかを判断できない回答は使わないのが吉
→判断できないものは、危ないですから。
(本稿は 2025年11月に作成しました)
この記事が「良かった」「おもしろかった」と思われた方は是非「スキ」「フォロー」をお願いします。
バックナンバーはこちらのマガジンからどうぞ。
https://note.com/egao_it/m/m13a10e8a221d
このNoteは私が主宰するメルマガ「がんばりすぎないセキュリティ」からの転載です。
誰もが気になるセキュリティに関連するトピックを毎週月曜日の早朝に配信しています。
無料ですので、是非ご登録ください。
お申し込みは弊社の窓口( info@egao-it.com ) まで「メルマガ送れ」と書いてお送りください。
また、まぐまぐ(mag2.com)でもお申込みいただけます。
https://www.mag2.com/m/0001678731.html



コメント