噓をつかない生成AIはこれだ 50モデル比較を3分解説
NIKKEI Digital Governance × NIKKEI PODCAST
NIKKEI Digital Governanceは、日本語に対応した50の生成AIのうち、どれが「ウソをつきにくい」モデルかを調べました。生成AIがでたらめな情報を、あたかも真実のように答えてしまうハルシネーション。その原因と調査結果を中西豊紀編集長が解説します。スキマ時間に刺さる音声コンテンツNIKKEI PrimeVOICE(日経プライムボイス)は専門メディア編集長6人がイチ押し記事をお届けします。音声コンテンツはSpotify、Apple Podcast、Amazon Musicで配信しています。
※掲載される投稿は投稿者個人の見解であり、日本経済新聞社の見解ではありません。
この投稿は現在非表示に設定されています
(更新)- 佐藤一郎国立情報学研究所 教授別の視点
生成AIが発展途上であるのと同様に、生成AIの品質を評価するベンチマークも発展途上である。同じ生成AIを評価しても、ベンチマークによって結果は異なるのが実状であり、特定のベンチマークだけで評価すべきではない。ただ、生成AI事業者の中には自社の生成AIに有利なベンチマークを選んで、性能を誇示するケースも見受けられ、いわゆるナンバーワン広告を思い出してしまう。 さて生成AIが間違えると、条件反射的にその原因としてハルシネーションをあげる人たちがおられる。ハルシネーションは生成AIの間違える要因のひとつにすぎない。言語生成AIはウェブの情報を学習するが、ウェブの情報が間違っているケースも多い。
この投稿は現在非表示に設定されています
(更新) - 津川友介米カリフォルニア大学ロサンゼルス校(UCLA) 准教授・医師分析・考察
サイエンスに関する業務で、正確に引用文献を提示してもらいたい場合には、PerplexityAIが適しています。医学情報の検索にも十分使えます。一方で、文章の質を高めるときには、Sonnetが適しています。o1と比べても、これらのLLMの方が優れていると私は思っており、現時点ではo1を使う場面はほとんどありません。ハルシネーションに関してはプロンプトの書き方で起きなくできなくなります。いかによいプロンプトの書けるかで、LLMを使いこなせるかどうかが左右されると思います。
この投稿は現在非表示に設定されています
(更新)
スキマ時間に刺さる厳選ニュースを音声で届けるNIKKEI PODCAST(日経ポッドキャスト)。番組NIKKEI PrimeVOICE(日経プライムボイス)では、日経の専門媒体NIKKEI Prime各編集長が週替わりでイチ押し記事を解説します。
■NIKKEI PrimeVOICE
Spotifyはこちら Apple Podcastはこちら Amazon Musicはこちら
■SNS
X:@nikkeipodcast
Instagram:@nikkeipodcast
関連企業・業界