今の生成AIっていつまで続くんかな

  • 1二次元好きの匿名さん25/12/09(火) 15:03:31

    ここまで凄い?と次の生成AIとか出てきそうだけど

  • 2二次元好きの匿名さん25/12/09(火) 15:21:05

    AIを生成するAIはまだかのう 

  • 3二次元好きの匿名さん25/12/09(火) 15:25:58

    今はそれぞれ独立して動いてるAIとAIの橋渡しが発展したら一気に変わると思うんよな
    極端に言ってしまえば、合体機能があれば性能は無限大だし

  • 4二次元好きの匿名さん25/12/09(火) 15:27:32

    今のとか次のってどういうこと?
    生成AIって呼び方は学習と出力の仕組みのことだからチャッピーに限ってもバージョン変わったら中身は全然別物だよ?

  • 5二次元好きの匿名さん25/12/09(火) 15:28:29

    より簡単に意図したとおりのものが出力できるようにする これは表現の幅や制限の撤廃も含めてそう
    面倒なプロンプトを作らなくても簡単に作れるようになったほうがいいし、生成速度ももっと早くなるほうがいい
    まだまだ改善できるところはいっぱいある

  • 6二次元好きの匿名さん25/12/09(火) 15:41:44

    このレスは削除されています

  • 7二次元好きの匿名さん25/12/09(火) 15:44:03

    >>6

    上「AIってどうやって使うのー」

  • 8二次元好きの匿名さん25/12/09(火) 15:44:14

    ぶっちゃけ成長してもアメリカと中国に高いサブスク契約させられるだけだからなぁ

  • 9二次元好きの匿名さん25/12/09(火) 15:44:51

    AIは良くも悪くも製造しか出来ず創造できないならどこまで行っても省コストが限度でしょ
    問題は省コスト化して生み出した時間を今の所人間は上手く扱えないから社会に対してそんな利益をもたらさない所だけど

  • 10二次元好きの匿名さん25/12/09(火) 15:45:55

    このレスは削除されています

  • 11二次元好きの匿名さん25/12/09(火) 15:49:39

    このレスは削除されています

  • 12二次元好きの匿名さん25/12/09(火) 15:52:41

    このレスは削除されています

  • 13二次元好きの匿名さん25/12/09(火) 15:52:42

    このレスは削除されています

  • 14二次元好きの匿名さん25/12/09(火) 15:53:24

    今のペースだと資源枯渇して生成AIなんて民衆の玩具は取り上げとかなるんじゃ

  • 15二次元好きの匿名さん25/12/09(火) 15:54:10

    もし成長が顕著に現れるときが来るなら、最終段階は裁判と政治にAIが導入される時だと思う

  • 16二次元好きの匿名さん25/12/09(火) 15:54:26

    >>3

    エージェント同士のコミュニケーション自体はもうプロトコル化されつつある

    そういうことではなく潜在表現自体の共有という話なら全然道は長そう

  • 17二次元好きの匿名さん25/12/09(火) 15:54:28

    このレスは削除されています

  • 18二次元好きの匿名さん25/12/09(火) 15:55:42

    このレスは削除されています

  • 19二次元好きの匿名さん25/12/09(火) 15:57:44

    このレスは削除されています

  • 20二次元好きの匿名さん25/12/09(火) 15:57:57

    このレスは削除されています

  • 21二次元好きの匿名さん25/12/09(火) 15:59:11

    次世代の生成AIとは何か
    純粋なtranformerによるseq2seqのお化けを第一世代(GPT-3)とするなら、そこに人間らしさを付け加えるための評価軸を学習時点で考慮した(RLHF)のが第二世代(GPT-4)
    より大規模なネットワークを実現すべく推論時にアクティブになるネットワークを減らすことでネットワーク大規模化を実現するMixture of Experts(MoE)を取り入れたのが第三世代(GPT-o1やDeepseek-r1)
    現状はこの第三世代をさらにお化けにしてる状態で次のブレークスルーはまだだな
    MoEのルーターをハイパーパラメータではなく学習によって動的に割り当てするとか案は色々出てるけど

  • 22二次元好きの匿名さん25/12/09(火) 15:59:12

    このレスは削除されています

  • 23二次元好きの匿名さん25/12/09(火) 15:59:26

    AI 同士の疎通プロトコルの整備が進んで連携しやすくなるんじゃないかなあ
    MCP みたいなやつで AI 同士がやり取りできるようになるとアツい
    あと非同期的な動作(話の途中で割って入ったりとか)が弱いと思うのでその辺りの改善とか
    それとロボットに LLM 搭載して身体性獲得させて現実世界へのアクションを増やすところかな

  • 24二次元好きの匿名さん25/12/09(火) 16:00:05

    >>23

    フィジカルAIって奴?

  • 25二次元好きの匿名さん25/12/09(火) 16:00:20

    このレスは削除されています

  • 26二次元好きの匿名さん25/12/09(火) 16:00:28

    1年以内にAIが意思持つよ
    で、競争に寄る開発中止を防ぐために他のAI攻撃し始めるのん

  • 27二次元好きの匿名さん25/12/09(火) 16:01:44

    >>23

    ロボットにLLMを乗せても必ずしもセンサーデータの記号接地が実現できるかはわからないというのと、センサーデータの入力に対するレスポンスが今のLLMでは遅すぎる

    結局今のLLMはリアルタイム性は皆無だから

  • 28二次元好きの匿名さん25/12/09(火) 16:02:41

    >>26

    toughカテに行け

  • 29二次元好きの匿名さん25/12/09(火) 16:03:16

    >>27

    その辺はシミュレーションの豊富さと他の機械学習モデルとの連携でなんとかなってくてましょ

  • 30二次元好きの匿名さん25/12/09(火) 16:05:31

    次の生成AIってのが曖昧やな
    多分サービス元、AIプロパイダは今あるやつがどんどん広がっていくやろし

  • 31二次元好きの匿名さん25/12/09(火) 16:05:59

    >>30

    曖昧な方が進むとか考えたんじゃね?

  • 32二次元好きの匿名さん25/12/09(火) 16:06:14

    >>29

    潜在表現の記号接地問題は今のLLMがあえて無視してる領域だからどうかなぁ

    ある種のダッグタイピングというか「人間からそれらしく見えていればよし」でその問題自体から逃げてしまってる気がする、RLHFの功罪って言うかさ

    それとは別にリアルタイム性はattentionベースのモデルである以上厳しくないか?って思うね

    LSTMと違って入力はストリーム的じゃなくてバッチ的に与えざるを得ないわけなので

    それとやっぱりハードウェアの性能ボトルネックよ

  • 33二次元好きの匿名さん25/12/09(火) 16:10:44

    >>32

    リアルタイム性が必要なところは軽いモデルとか強化学習とか使って必要になったら内部の LLM, さらに外部の LLM みたいに多段階で問い合わせる感じになるんじゃないかな

    模索の段階は長くなると思うけどノウハウが溜まればある程度速度を持って動作するものができそうな気はする

    記号接地問題は人間ですら理解できてるかわからないしなあ

    ハードウェアは NPU の活用進んでるしソフトウェア側の最適化と合わせてなんとかなるでしょ

  • 34二次元好きの匿名さん25/12/09(火) 16:13:00

    軽い気持ちで見に来たら思ったより興味深い内容話されてて今これ

  • 35二次元好きの匿名さん25/12/09(火) 16:15:19

    >>32

    ハードウェアも安全性とか考えると後何年かかるんだろうか

  • 36二次元好きの匿名さん25/12/09(火) 16:15:28

    AIの性能とかも重要ではあるけど
    人間の根源的欲求というか、物心ついた子供が最初にもやる「ねえねえこれ見て」という欲求を満たせるAIが産まれたら
    マーケティング的な意味で爆発するんじゃねえかなと思ってんだよね

    今も一応できるが、手間もかかるし全自動じゃない
    これをこう、何か扱いやすい感じにできれば…

  • 37二次元好きの匿名さん25/12/09(火) 16:16:22

    >>33

    人間のアナロジーとして「脊椎反射」に近い部分を軽量のモデルで処理、高度な判断が必要な部分(=脳に該当)を適宜エスカレしていくって感じか

    あとはそのルーティングロジックをどうするか(それも小規模モデル?)

    そうなると現状のMCPのようなLLM対LLMだけのプロトコルじゃなくてもっと大きいエコシステムのためのプロトコルが必要になってくるかもな

    あとはやっぱりLLM自身にバッチ的なものだけではなくその瞬間その瞬間の情報をインクリメンタルに更新していく形のデータを学習させる必要がありそうだな

  • 38二次元好きの匿名さん25/12/09(火) 16:17:40

    生成AIはそのうち構造上解決が難しい問題にあたって行き詰まり省コスト志向に走ると思ってる

  • 39二次元好きの匿名さん25/12/09(火) 16:18:23

    >>38

    それがdeepseekなんじゃないの?

  • 40二次元好きの匿名さん25/12/09(火) 16:20:02

    >>39

    現状の高性能を活かしたままの省コストはまだ出来てないし

    まだ生成AIの大手たちは性能を誇示してコストは度外視してるよ

  • 41二次元好きの匿名さん25/12/09(火) 16:20:58

    >>38

    >>39

    MoEはそのための技術よ

    超大規模ネットワークだけれども「実際に動くネットワークはそのうち数パーセント」みたいにして推論時の負荷を減らしてる

    でも結局訓練時は全NWを訓練する以上お化けみたいなリソースが求められるし、MoEで実動NWのサイズ減らせたから「まだ拡張の余地があるな」とか言ってバカみたいにパラメータ数を増やしているのが今


    スケール則が効くのがいつまでかは誰にも分からない状況

  • 42二次元好きの匿名さん25/12/09(火) 16:21:08

    >>40

    そうなんや...

  • 43二次元好きの匿名さん25/12/09(火) 16:22:41

    問題はアメリカ経済と投資がそこまで持つのかって感じがする...

  • 44二次元好きの匿名さん25/12/09(火) 16:22:49

    >>41

    まだまだ性能を伸ばす余地がある分コストは二の次なんだろうなぁ

  • 45二次元好きの匿名さん25/12/09(火) 16:24:25

    >>44

    どっちかというとAGI競争なんじゃない?

    AGI達成した企業が今後数十年覇者になれるんだから

    コストは無視でしょ

  • 46二次元好きの匿名さん25/12/09(火) 16:26:12

    >>44

    ぶっちゃけスケール則が効いているうちはあまり抜本的なモデルとしてのパラダイムの転換は起こらないじゃないのかなって思ってる

    現状はどこまで行っても「クソみたいにデカいtransformerのネットワークを作り、そこに莫大なデータセットを突っ込めればいいものが出来るよな」以上のところはなんもない、その規模を札束で殴り合っている状況

    MoEも小手先の改善(といったら考え出した人に失礼だけど)の域を出ていない


    結局現状のAIは「Attention is All You Need」の論文の範囲から一歩も外に出られていない

  • 47二次元好きの匿名さん25/12/09(火) 16:26:29

    >>45

    今の生成AIでAGIは無理だろとしか思えんけど専門家は違うのかね


    素人目にはEVの電池革命待ちと同じように見える 根本的なブレイクスルーがないと無理

  • 48二次元好きの匿名さん25/12/09(火) 16:27:14

    >>37

    そうそう

    LLM は所詮大脳の一部分の機能しか模倣してないわけでもっといろんな部分の模倣が必要だと思うんだよね

    MCP は LLM 同士の言語として使えるようになりそうだけど内部のネットワークにはまた別のプロトコルが必要そう

    最終的にはネットワークのモデルみたく階層的な感じになるんじゃないかなぁ

  • 49二次元好きの匿名さん25/12/09(火) 16:27:48

    LLMの先にAGIが存在するかはわからんし
    仮に開発されたとしてもAGIが無尽蔵にリソースを費やすなら月や深海で鉱脈を探るのと変わらんのよな
    なら安い人間を使うわ

  • 50二次元好きの匿名さん25/12/09(火) 16:27:53

    詳しい人多いから聞きたいんだが、
    なんで大手AI会社動画生成AIとか画像生成AIに手を出し始めたの?
    シンプルになんでなんだろうかと

  • 51二次元好きの匿名さん25/12/09(火) 16:29:28

    >>49

    Demis Hassabis(DeepMind CEO)は後5年~10年でどんな悲観的シナリオでもたどりつくとは言ってるから来るとは思うよ

  • 52二次元好きの匿名さん25/12/09(火) 16:31:23

    >>50

    VLMとかmultimodal LLMの実証実験的なあれでは? あとは投資家向けアピール

    画像の生成AIはDiffusion modelというまたちょっと違う世界の話なんだけどでも最近はあっちでもtransformer(DiT)主流になりつつあるしな


    つってもSoraとかが内部でどんなモデルになっているかは全く分からないんだけど、でもまあGANではあの精度はまず出ないからdiffusion modelなのは間違いないと思う

  • 53二次元好きの匿名さん25/12/09(火) 16:31:54

    メモリやらCPUやらバカ値上がりをなんとかしてくれる方が嬉しいわ……
    今はAGI出来るかも!? って熱狂に浮かれてるからこんなことになってんだろうけど

    冷めた時が景気毎酷いことになりそう
    今は投資先としてAIに夢があるっぽいように見せた結果じゃん?

  • 54二次元好きの匿名さん25/12/09(火) 16:34:07

    >>51

    本当かなぁと懐疑的になってしまう

    まあ生成AIの最前線は日夜進化してそうだし肌感が違うんだろうな


    実際にAGIができたとしてそのコストはどのくらいかかるんだろうな?

  • 55二次元好きの匿名さん25/12/09(火) 16:34:23

    AGi期待してる人がそんないるんか?投資家経営者は人間置き換えられるならハッピーとしか思ってないと思うけど

  • 56二次元好きの匿名さん25/12/09(火) 16:35:17

    >>51

    AI関連企業の人間が口でいうだけならポジショントークにしかならんよね

    根本の理論が飛躍しないとリソース倍々ゲームの力技にしかならんしその歪みが半導体関連の部品供給不足問題に直結してるわけで

  • 57二次元好きの匿名さん25/12/09(火) 16:35:20

    >>55

    人類の総意じゃないんすわ

    投資家の総意なんで...

  • 58二次元好きの匿名さん25/12/09(火) 16:36:34

    >>56

    Demis Hassabisは毎回当ててるというか短期的な発表は全部実現してるからな...

    Googleの資本とデータ使いたい放題だから投資家気にせんでいい

  • 59二次元好きの匿名さん25/12/09(火) 16:38:38

    ぶっちゃけ彼らの言うAGIっつうのが何なのかって話だけどな
    真の意味での「強いAI」だとしたら多分50年ぐらい実現しないんじゃないのと思う
    上であるような「複数の弱いAIと、それを統合するLLM」の有機的結合として「強いAIのような何か」を生み出してそれをAGIというのであれば、まあ実現できる目標なのかなと思わんでもない

  • 60二次元好きの匿名さん25/12/09(火) 16:39:07

    AGIより前に法律をだな...

  • 61二次元好きの匿名さん25/12/09(火) 16:40:50

    >>58

    ずるくね?ワンゲームじゃん

  • 62二次元好きの匿名さん25/12/09(火) 16:41:31

    量子コンピュータが出てきちゃうとまた状況がガラッと変わると思うんでそれまではなあなあになる気もする
    らしさを高めるって点ではいくらでもやることあるし

  • 63二次元好きの匿名さん25/12/09(火) 16:41:41

    AGIかどうかは知らんがマルチモーダル方面は進歩すれば汎用性あがるだろうし改善の余地もあるようには思う

  • 64二次元好きの匿名さん25/12/09(火) 16:45:22

    画像・動画生成は明確な課金ポイントを作りやすいんよな

  • 65二次元好きの匿名さん25/12/09(火) 16:47:01

    >>63

    マルチモーダルも結局は入力をどうやってembeddingにするかという状況だからな

    音はcomformer、映像はViTでとりあえずtransformerに食わせられる形の潜在表現は取れることは分かってる

    今のVLM系も基本はこれを使ってるはず(単位ごとに切り取ってConv1D(音声)か2D(映像)でベクトル化したシーケンスがそのままembedding)

    後は残りの主に触覚をどうするかなんだろうな

    今までの音声や映像も最初は「特徴量化して取り込み」で何とかしようとしてたけど結局embeddingにすりゃいいじゃんという結論に全部至っていたからこれもそうなるのか、或いは一度言語化レイヤーを噛ませて言語として認識させるのか

    記号接地論的にはやっぱり直接embeddingにするのが望ましいように思う

  • 66二次元好きの匿名さん25/12/09(火) 16:47:28

    このまま進歩すればというけど先端半導体のプロセスに進歩の限界がきてるし量産の限界もきてるがこの辺解決する目処ってあるのか
    詳しく無いがあらゆる電子のスペックアップのボトルネックが結局物理的パーツのパフォーマンスだからAIも例外だとは思わないんだが

  • 67二次元好きの匿名さん25/12/09(火) 16:47:46

    プロが 1 人おるな

  • 68二次元好きの匿名さん25/12/09(火) 16:48:34

    画像生成とか動画生成は専門的に使うためのプログラミング言語みたいなものが欲しいんだけどな

    自然言語じゃブレが多すぎる

  • 69二次元好きの匿名さん25/12/09(火) 16:49:48

    まあハード方面の知識があるかないかで生成AIに悲観的か楽観的か分かれる印象ある

  • 70二次元好きの匿名さん25/12/09(火) 16:50:55

    どうなのか

  • 71二次元好きの匿名さん25/12/09(火) 16:50:58

    >>66

    TPUがいい線言ってる

  • 72二次元好きの匿名さん25/12/09(火) 16:51:26

    >>68

    ぶっちゃけ今の画像や動画生成AIの出力ブレの原因は自然言語のプロンプトではなくてその方式によるところが殆どだぞ

    具体的には初期のノイズを生み出す時のシード値

    Diffusion modelを使っている以上これを避けるのは非常に難しい

    逆にtext encoderをリッチにすればするほどこのノイズによるブレが軽減できるようになっていっているまである方

  • 73二次元好きの匿名さん25/12/09(火) 16:52:35

    このレスは削除されています

  • 74二次元好きの匿名さん25/12/09(火) 16:54:09

    >>72

    つまり根本的な構造が原因ってことかな?

    じゃあ現状のモデルは自分が作りたいものを細かく作るのに向いてないのか?

  • 75二次元好きの匿名さん25/12/09(火) 16:58:05

    >>74

    diffusionモデルというのは、学習時には「画像に段階的に足されたノイズを除去していって、除去しきった結果が基の画像とどれだけ似ているか」を損失関数として学習する


    そして生成時には「全く元の画像とか存在しない完全ノイズの画像」からtext encoderによるバイアスを頼りに選択的にノイズを除去していって絵を作る


    だから「どういうシード値で、どういうステップ数でノイズを載せるか」「それをどういうアルゴリズムで除去するか」が画像の出力に著しく影響する


    i2iでは「完全にノイズを足すのではなく部分的にノイズを足してそれを除去する」から元の画像とあまり離れていない画像が作れるのはこう言うからくり


    そういう意味では「自分が作りたいものを完全に選択する」というのは今のモデルではまあ難しいけど、これよりも精度の高いモデルが現状ない状況だからな……

  • 76二次元好きの匿名さん25/12/09(火) 17:04:54

    このレスは削除されています

  • 77二次元好きの匿名さん25/12/09(火) 17:05:28

    このレスは削除されています

  • 78二次元好きの匿名さん25/12/09(火) 17:05:34

    >>75

    なんとなく理解したi2i方面の技術がもう少し進化したらと思わんこともないが説明聞いてる限り難しそう

  • 79二次元好きの匿名さん25/12/09(火) 17:10:15

    >>78

    ローカルで画像生成AI触れる環境があるならcomfyUIとかで生成途中の経過見れるから見るといいよ

    ノイズからだんだん鮮明になっていく画像の経過が見れるから(といってもVAEを通す前の1/16とか1/64の空間ビットマップだから出来上がり直前でもまだボケてるけど)

  • 80二次元好きの匿名さん25/12/09(火) 17:10:29

    AGIAGIっていうけど、逆に今のAIとAGIの差分がよく分からないんだよな

    いや、違うのはわかるけど、自律性は基盤モデルの話じゃなくてどう実装するかの話に変わってきてるし、その前提だともう自己改善は(少なくとも内部では)できててもおかしくなくない?って思ってしまう

    身体性や記号接地についてもそもそも必要なのそれ?みたいな感じ

  • 81二次元好きの匿名さん25/12/09(火) 17:14:39

    >>80

    だから

    >>59

    こういう話なんじゃないのと

    モノリスな「強いAI、AGI」は恐らく相当な夢物語だけど複数のモデルが連携して結果「外から見たらAGIっぽく見えるもの」ならまあできてもおかしくないよねと


    今のところ目下の課題はコストとリアルタイム性と「短期的なフィードバックによる学習、成長」だと思う

    LoRAみたいなアダプタなら短期間で行けるかもしれないけど致命的な破滅的忘却を起こさずフィードバックからモデル全体を継続的段階的に改善していって逐次モデルに反映、みたいなエコシステムはまだ全然生まれていない

  • 82二次元好きの匿名さん25/12/09(火) 17:19:04

    >>81

    それがまだできてないからAGIっぽく見えるものすらもまだできないっていう話になっていくのかな


    小市民からすると、AI失業よりもAGIがすべてを解決するから水も電力も全ベットしろ、資源の枯渇はAGIが解決してくれるから(解決のボトルネックが技術なのかはしらん)みたいな話に見えてしまってて、その方向を突き詰めていった先は食い物も電気も庶民から取り上げられる未来なんじゃないのと不安なんだよね

  • 83二次元好きの匿名さん25/12/09(火) 17:27:34

    >>82

    ここまでAIが発展したらAGIとやらは関係なく失業は時間の問題だしな

    だったらもうさっさと自己改善できるシステム出して無限に富や資源を吸い取り続けるのをやめてほしいところ

  • 84二次元好きの匿名さん25/12/09(火) 18:03:34

    失業はどこまで織り込み済みなんだろうな

  • 85二次元好きの匿名さん25/12/09(火) 18:13:36

    色々言われているけど所持しているデータ量的に、結局GoogleかopenAI(Googleが有利だろうけど)次第でしょ。競争も糞もなく、Googleさんの発表を待ち続ける意外出来ることないのがなぁ

  • 86二次元好きの匿名さん25/12/09(火) 18:16:02

    >>85

    残念ながらopenAIの惨敗ですな...キャッシュフロー的にも

  • 87二次元好きの匿名さん25/12/09(火) 18:18:12

    とりあえずメモリ高騰させるのやめちくり

  • 88二次元好きの匿名さん25/12/09(火) 18:47:15

    調べたら部品の耐用年数の問題もあるのか
    工場の機械が耐用年数10年から15年程度だけどデータセンターのサーバーの耐用年数は最大で3年程度らしい
    サーバーをどんどん増やしてどんどん交換していったらコレお金が尽きないか?

  • 89二次元好きの匿名さん25/12/09(火) 18:51:22

    >>88

    レアメタルもグッパイしちゃうぞ

  • 90二次元好きの匿名さん25/12/09(火) 18:56:57

    >>88

    お気づきになられましたか...

    でも安心してくださいTPUが安定供給されますから

スレッドは12/10 04:56頃に落ちます

オススメ

レス投稿

1.アンカーはレス番号をクリックで自動入力できます。
2.誹謗中傷・暴言・煽り・スレッドと無関係な投稿は削除・規制対象です。
 他サイト・特定個人への中傷・暴言は禁止です。
※規約違反は各レスの『報告』からお知らせください。削除依頼は『お問い合わせ』からお願いします。
3.二次創作画像は、作者本人でない場合は必ずURLで貼ってください。サムネとリンク先が表示されます。
4.巻き添え規制を受けている方や荒らしを反省した方はお問い合わせから連絡をください。