Post

Conversation

この人の指摘は現在の科学的知見を踏まえればもっとも。大きく間違っているとは思わない。 これは、現在把握されている常識で世界を捉える・今まで起きなかったことは今後も起きない、と考える、フラットで安全な考え方だと思う。 「かもしれない」の蓋然性については、俺はこの人が思うより遥かに高いとみている。「常識的に考えてあり得ない」としているが、その今の常識を俺は疑っている。 十年前の常識と今の常識は当然違う。今の常識と十年後の常識も当然違う。AIという分野は特に発展著しく、数年で大いに状況は一変する。GPT-4.5は昨年チューリングテストを突破した。この人が言うような単なる学習と模倣のみでそれが可能だという事実を、10年前の時点で予測できた者はどれだけいるだろうか? 今の常識で勝手に枠を狭めず、どんなことも起こり得る前提で、何は起こらないのか、どういう傾向があるのかを地道に事実ベースで見ていくしかない。理屈のみで「起こるはずがない」と否定するのは科学的態度ではない。分からないものに対して予測で結論を出すことには俺は個人的には反対する。ただ良いところはある、決めつけてしまえば考えることが少なくなり認知コストは下がるということだ。だからそれを選ぶ選択は否定したくない。 さて、ベースとなる事実だが、AIはラップを出力させようとすると今後の韻まで考慮した上でトークン出力を行なっている、という研究がある(anthropic.com/research/traci)。 これはTransformerの直前までのトークン列に続く次のトークンを予測する、という基本原理だけを捉えて常識的に考えれば、それこそ蓋然性が低かった事象かと思う。今の出力よりも未来のトークンをあらかじめ想定して出力を決めるような動作は、決して意図的にプログラミングされたものではなく、人間の言葉を学習するうえで獲得された能力だ。そして現状、一体どこまで未来の文章をはっきりと想定しているのか、それ以外にも内部的に想定していることがどれだけあるのかは明確ではない(この辺新しい知見あったら欲しい)。 設計者が意図したことしかできない、という機械・プログラミング・模倣の原則から既に外れている事象、ある種の創発が学習によって起きている、という事実から、俺はこの人よりも蓋然性を高く見積もることには妥当性があると考えている。 ただ、その蓋然性がどれほどかみたいな部分については大いに主観が入る。議論をしたところで・どのような証拠を互いに持ってきたところで、おそらく溝は埋まらないポイント。なんなら観点以前に、それぞれ個人の性質として・ある意味事前確率として、蓋然性を低く見積もりがち・高く見積もりがちという差もあるだろう。これはある種直感的な価値判断であり、どのくらいに見積もるのが正確かなんてことに正解はない。10年後どちらの世界観が正しかったか答え合わせをできたらいいのかなと思う。
This post is unavailable.