回答(10件)

マスコミの報道と、解説が変に盛り上がっているから。 わかっている解説はほとんどないんじゃないかなぁ。 以下は私の理解と意見。反論を求めます。 以下は全部嘘 DeepSeek はNvidaのGPUを使わないでいい。=>大嘘 DeepSeekは型落ちのGPUで計算した。=> H800は最新。 DeepSeekが使ったGPUはNvidaが中国向けに性能を落としたもので、H100の半分くらいの性能。 => H800の演算性能はH100と大差ない。 AIデータセンターがいらなくなる => 真逆(後述) DeepSeekの「開発費」は550万ドル => 訓練コストの仮計算だけ。 これに相当するChatGPTのコストは、たぶん同程度 DeepSeekは画期的な発明だ => MoEと呼ばれる手法も、訓練データを整備すれば計算時間が減ることも専門家なら知ってる。先例もある。 本当で、意義深いのは ほぼ同じ土俵で、ChatGPTを上回る(かもしれない)AI性能を実現した。 =>(マラソンで新記録を出した、というのと同じ) ただし、セキュリティホールがすぐに見つかっているなど、 サービスとしての完成度が低いままサービスインしたのはまずい。 オープンソースで公開したこと => 4751サイバーリンクがサービスを始めるように、DeepSeekを転用してChatGPTのようなサービスが可能になる。 DeepSeekが公開していない部分も補う動きも始まっている https://gigazine.net/news/20250129-deepseek-r1-open-hugging-face/ 有償サービスで稼ごうと思っていたところは不意を打たれた。 だから DeepSeekを咎めることは間違い、讃えていい。 そういうサービスがたくさん始まると予想される。 今日・明日を境に、たくさんのプロジェクトがスタートするから、 GPUに対する需要が、一時的に爆発するかもしれない。 AIデータセンターも、需要が高まりそう。 これには悪い面も。特に電力需要。一社か数社がやれば良い計算をたくさんの会社がやると、トータルな電力需要は膨大になる。

この回答はいかがでしたか? リアクションしてみよう

DeepSeekは、一世代前の A100を 1万個所有していて、 H800(ないしH100) を5万個もつデータセンターを使っているそうです。 https://gigazine.net/news/20250128-deepseek-ceo-interview/ H100が5万個といえば、日本2位のTSUBAME4.0 の50倍です。 「GPUが要らない」などどこから発想するのかしら。 二番じゃいけない。ダントツでなければだめなんです。

ぶらっくうぇるでなくでH100で同じことやればいいから ということが証明された よーするに時速300キロのバイク200万 いらんがな GB350で充分 というはなし

昔のカローラとMK2だったらMK2買う意味があったが 今のカローラとMKXだったら、カローラでいいや となるということ

DeepSeekは、その費用が桁違いに安い上に、最先端の高性能なGPUを 必要としないです。加えて、ソースコードがオープンソースですからね。 最先端のGPUがいらないってなれば、そりゃnVidiaの株は下がります。 ただ、Deep Seek が本当にそんな性能があるのかどうかは、 まだわかりません。 それは、使ってみれば徐々にわかるでしょうね。

投資家の間で「じゃあNVIDIAの最新GPUいらなくなるんじゃ?」ってなったからですね 私は投資してないですが値は戻ると思いますけども どこまで行っても中国に流れてる性能制限版GPUでも高性能なLLMが動く様に最適化を重ねまくった結果ですから、 逆にリミッターがない一般モデルのGPUで同じような手法を採ったらこれまで以上に高性能なモデルが作れるわけですから むしろ天井が引きあがったとも見れるわけです。

最新のチップがぼったくりである可能性が浮上したから