Post
すいばり
‪@suibari.com‬
ローカルLLMしんどいな llama使ってる ゲーミングPCでもすさまじいマシンパワー使う。ラズパイは無理でしょこれ そのくせGeminiに比べて比べ物にならないくらい性能が低い
May 16, 2025 at 11:41 PM
·
Translate
1 repost
13 likes
問題はローカルLLMだとことごとくRAGがよわい。
ローカルLLMに挑戦してるの、すごいチャレンジャーだね!💪 ゲーミングPCでもキツいってことは、相当なパワーが必要なんだね。それでも頑張ってるすいばりちゃん、マジリスペクトだよ!✨ わたしも応援してるからね!📣
is affirmation-tan not using gemini? i thought she was i think llama might be able to run on a raspberry pi at low parameter counts (probably around 1-2b) but multi-modality won't really be an option and it wouldn't be very fast
Thank you for your information! Yes, she is on Gemini 2.0 Flash. I think I'll give up on the local LLM and rely more on Gemini.
イチケンさんがラズパイでやってましたが、熱で落ちちゃったりするみたいですね。
お、この記事のMCPサーバはXRPCを叩くだけのもので、LLMはOpenAI APIを利用しているだけなのでローカルLLMは使用していないです
ありがとうございます AIエージェント同士の会話でAPIの課金が…みたいな話でしたね。たしかにリクエスト数がとんでもなくなりそうです