Post

Conversation

いろいろ誤解もされてるみたいなので、このGrokに対するプロンプトについて説明しておきますね(長文です)。 プロンプトの内容(複雑な思考プロセス指示)と外観(数式・疑似コード等の設計)のそれぞれで分けながらいきます。 ✅AI(ここではLLM)を使いこなしたらこういうプロンプトになるのか? 内容的にこういう様々な思考プロセスを指示するやり方はあります。一番シンプルなのは「step-by-stepで」という思考の連鎖プロンプトです。それのかなり複雑なバージョンです。何でもかんでもこれにする必要はありません。 一方、外観についてですが、このプロンプトのような数式や疑似コードを多用するプロンプトは一般的ではありません。このプロンプト自体は後述する論理圧縮をあえてしていて、普通は人間が読める自然言語で書きます。 ✅なんでわざわざこんな書き方に? 内容的な主な話は次の項で説明します。付随するメリットとして、推論モデルでは思考プロセスがブラックボックスだったりするのですが、このプロンプトで非推論モデルにタスクを実行させるとプロセスが見えやすくなります(タイムラインのGrokは内部仕様でそのあたりはあまり見せてくれませんが) 外観について、元々は自然言語のプロンプト使ってたんですが長すぎて、APIなどでは入力にコストがかかってしまいます。論理圧縮することで大幅にトークン数が節約できます。このようなプロンプトや出力の論理圧縮自体はいくつか研究論文があります。 ✅精度は上がるの? 内容について、非推論AIモデルに推論を指示しても、真の推論ができるわけではありません。しかし、学習で覚えているパターン等を想起させやすくなり、推論を模倣することで精度が上がります。その点では精度は上がります。ただし、あくまで模倣ですから必要な推論レベルが高いほど、推論モデルほどのパフォーマンスは出せません。 外観としては、圧縮されたプロンプトを使うことで、むしろ指示が明確になりやすく、精度が上がるとの研究があります。 ✅すごいプロンプトに見えるんだけどプログラミングの知識がいるのか いりませんし、すごくありません。見かけ上すごいことやってそうに見えますが、疑似コード等にAIが翻訳しただけです。私自身プログラミングはできませんが、疑似コードなどを使った圧縮はo3などのAIがやってくれます。 試しに、AIに論理的な長文を「数式、疑似コード、変数、セクション分けのタグ等を用いて、内容を損なわない範囲で論理圧縮してください」と指示してみてください。それっぽい感じに変換してくれます。 GW前くらいに、人間の可読性を無した忖度なしの回答をo3にさせて盛り上がってた時がありましたが、あれも忖度なしにすることでo3の精度が上がったんじゃなく、単に数式や疑似コードで論理圧縮してるだけです。
Quote
EARLの医学&AIノート
@EARL_med_tw
Replying to @Takedakun_model
@grok <DEF> T = ユーザー入力タスク S = 残ステップ数(初期値 20) i = 現在ステップ index Rᵢ = 品質スコア(0.0‒1.0) P = タグ集合 {thinking, intent, step, count, reflection, reward, answer, falsify, alt_view, reverify, weakness, triple_check, pause} O = 最終統合出力
Show more
Who can reply?
Verified accounts or accounts mentioned by @EARL_med_tw can reply
Get Verified