「東大に合格できる」人工知能を開発するプロジェクトに関わった国立情報学研究所(NII)社会共有知研究センター・センター長の新井紀子教授によると、人工知能が人間の知能を超えることはないという(リセマム)。新井教授によると、人工知能の判断能力については期待できるが、自然言語の意味を理解することは難しく、「過去に学習していない問題やパターンに突き当たると、解答できない」としている。このプロジェクトは昨年に東大合格を諦めたが(過去記事)、「意味を理解する」ことは人間にとっても難しい場合があるとし、人間に対し教育で読解力を高めることが重要であるともしている。
フレーム問題 (スコア:3, 興味深い)
実は、意味解析におけるフレーム問題は、30年以上停滞したままなのです。prologやLispを使ったルールベースの論理型の人工知能の研究がとん挫して下火になったのは、自然言語解析における意味解析でこのフレームも問題を論理的に処理することができなかったからである。
現在主流なのは、意味解析そのものをあきらめて、単語の羅列のパターンからパターン解析でテンプレートに従って特定の動作を行うようにしたものです。パターンマッチングとテンプレートの適用だけなので、システムが意味を理解して判断しているわけではないのです。
要するに、常識とか関連知識による裏付けが何もない状態で、機械的に動作しているだけなのです。
この段階ではパターンに対応するテンプレートは人間が作らなければならないので、人間を超えることなどできないのである。
Re:フレーム問題 (スコア:1)
つまり、人間を越えうるようなモノは、できたとしても人工知能ではない(現代の基準で人工知能とは呼べない)モノであろう、ということかな?
Re:フレーム問題 (スコア:2)
Re:フレーム問題 (スコア:2)
これは宗教やSFの文脈でもしばしば指摘されるところで、
(ふつーの)人が語る知性とは、人の知性の枠内、延長線上でしかないんですよね。
人より計算が速いとかよりミスをしないとかいう尺度は結局「すごいヒト」でしかなく、ヒトの枠を超えた知性は測れない(というかそれを知性と感じない)
ヒトから見て下位にあたる知性について語るのはともかく、ヒトを超えた知性とは、ヒトから見たら理不尽、非合理的、支離滅裂に写る可能性がある。
しかしヒトはそれが「ヒトを超えた超知性」と判断することはできず、「なんか未熟だな」とか「狂っている」としか評価できない(だって自分を超えてるんだもん)。
「目の前の餌にかみついて全て飲み込む」ことしか知らない生物は、「自分より素早くかみつき漏れなく飲み込む」ことを評価できるが、「後のために一部残しておく」という選択肢を誤りか狂気としか把握できないのだな。
一部宗教が設定している「ヒトを愛していると言うけど不幸を正さない理不尽な神」とかSFで出てくる「ちょっかい出してくるけど意図が分からない超科学存在」とかがそんな感じ。(クトゥルフ神話なんてど真ん中ですね)
我々にその高度さを測る物差しがないのだ。
Re:フレーム問題 (スコア:2)
上手いこと言ったつもりだろうが、AlphaGoは勝率の高い手を選んでいるだけで
そこに「知性」は無いンだよ。
知性が無い、というのと、知性はあるんだが
ヒトから見たら理不尽、非合理的、支離滅裂に写る
というのは、まったく別物だ。
Re:フレーム問題 (スコア:3)
知性の定義があいまいですので「ない」と断言するのも…
Re:フレーム問題 (スコア:1)
人間もうまくいく確率の高い行動を選んでるだけですよ。
Re:フレーム問題 (スコア:1)
であればAlphaGOを引き合いに出すのは悪手だったね _(:3 」∠)_
Re:フレーム問題 (スコア:1)
乱暴な言い方をすれば、AlphaGOは勝てる手をランダムに選んでるだけなので、
結果としてその棋譜に知性が見いだされたとしても、それは偶然の産物でしか
ないんじゃないかな…
それって昔から言われてることでもあって、猿にタイプライターを打たせれば
いつかシェイクスピアを越える作品を打つのか?って話。
Re:フレーム問題 (スコア:2)
100回タイプライタを渡すと
歴史上の名文学を100回返すサルは
私には知性がないと断言できません
偶然の産物であればそれは知性とは言えない、
とは思わないと言いますか
結局知性の定義かと
Re:フレーム問題 (スコア:1)
たとえばAlphaGoに関して言えば、「囲碁に勝つ」ことが「本能」で、それ以上の機能は実装されてない。
なので、AlphaGoが打つ個々の手が理解できようとできまいと、最終的に
囲碁に勝利する確率を見ることで、その行動が知的であるかどうかは評価できる。
結果に知性を感じる事ができれば、それは知性があると呼んでもかまわない
vs
知性って結果だけじゃなく課程が重要
・・・俺は後者を推したいね。結果よけりゃいいじゃんって考えは受け入れづらいんだ。
Re:フレーム問題 (スコア:1)
無理筋な方向に誘導して何がしたいんだろうなあ
結果が伴わないものとして雨が降るまで祈祷する巫女さんを例に挙げてるけど、
ミコスキーとしては許さざるべき事態であると言わざるを得ない。
冷却ファンが唸る部屋に鎮座ましましてるラックの列を掃除のおばさんこねーかなーって
死んだ目で眺めるよりも、巫女さんが僕たちのために雨が降ってくれるよう一所懸命
雨乞いをしている姿の方を見たいだろう?
見たく無い? じゃこの話はもうここで終わりだ。
いいか?もう一度いうが、雨が降ろうが振るまいが、あのスリットから見え(銃声
# 伊勢型改二早く来ないかなあ _(:3 」∠)_
Re:フレーム問題 (スコア:1)
過程とは何を指すのでしょうか?人間だって所詮はバイオコンピュータ搭載のバイオロボットに過ぎませんよ。
バイオコンピューターって何?
バイオマンの額についてるやつ?(´・ω・`)
# バイオゴリラ [pixiv.net] なら知ってるけど
Re:フレーム問題 (スコア:1)
>「後のために一部残しておく」戦略が正しいかどうかは、長期的に生き残ることで証明される。
仰るとおり、「生存」を尺度、評価項目として考えればソレで良し悪しが計れ、AIにはその「生存」を定義してやれば同じ土俵に立つことはできる、と。
観測期間は、遺伝子の変化はどこまで許容するか、知識や文化、記録の委譲はどこまで考慮するか、などなど設定すべきパラメータがメッチャ多いのが面倒ですけど。
適切に設定しないと、「運動能力」を計るのに徒競走だけで優劣をつけるみたいなことになっちゃいますもんね。
・遺伝子変化を抑えるよう管理された人間農場が延々と運営されているトコ
・人間が元となった突然変異体がヒトの文化を継承・発展させて生き続けてる(が人間とはもう交配できない)トコ
・人々が発展を捨て”昔ながらの生活”で生き残っている小規模集落
・生物としてのヒトは滅びたが記録・記憶・思想を受けついたAIが活動するトコ
はたしてどれが「スコアが高い」のか、みたいな。(それとも1つ以外が滅びるまで点数はつけない?)
ほんで、示唆されているように「生存」じゃないもの、あるいは「結果」じゃないものを主題にスコアをつけることもできるんですよね。
思考経路を白い紙に黒腺で図示して白い面積が少ないほど高度、みたいに、「複雑で無駄な奴ほど高度」みたいな評価もできます。
「同じ意味をより長い文章で表した奴が優勝」みたいな(笑)
個人的にはあなたと同様に「より効果的に目的を達する奴が優良」であって、その上で過程を重視とか言うのであれば、その「目的」(評価内容)に過程を含めるか否かの問題だと思ってます。
(つまり結局ヒトの知性がどこまで”妥当”に知性というものを評価できるかの問題)
Re:フレーム問題 (スコア:1)
人類も30億年以上かけて学習したパターン解析に基づいて認識した現実に、後付けで意味を持たせているだけな気がするから、AIも膨大なリソース注ぎ込んで機械学習すれば何とかなる気がする。
# でも結局「知性とは何か」は、AIを創った人類にも、知性を持ったAIにもわからないという落ちに期待
Re:フレーム問題 (スコア:1)
ヒトも「すごい中国人の部屋」でしかないということですよね。
感情や美意識も、結局のところ個の繁栄→血族の繁栄→種の繁栄のための仕組み、もしくはその副作用でしかないと。
ちょっと先までもってくと、
クオリアを否定するわけではないが、それはPCにおけるデータ上の「赤色」のように一つ上のレイヤーで仮想的に構築されているものであって、物理構造にとって深い意味・意義があるものではないって感じ。
哲学的ゾンビがクオリアを感じられない、のではなく、哲学的ゾンビが「あ、今オレクオリアを感じた」って言ったらそこにクオリアがあるって意味なンだよ!って感じ。
Re:フレーム問題 (スコア:1)
知性を論理的に定義できない以上、実装することはできないからなあ。
ハードプロブレムの一つなのかねぇ _(:3 」∠)_
Re:フレーム問題 (スコア:1)
Re:フレーム問題 (スコア:1)
そりゃその「数理モデル」の出来が悪いんだろう _(:3 」∠)_
いまのところ、知性とか魂を論理的に定義できないので、そのモデルを
正確に作り上げることが出来ない。(これがいわゆるハードプロブレム)
そんな作り上げることが出来なかったモデルをどういじくったって
出てくる答えに「知性」とか「魂」は最初から入ってないんだから
怪しいも何も、無いんだよ。最初からないんだよ。
Re:フレーム問題 (スコア:2)
だから,その蓄積の先にあるものは,決して人間のソレとは交わらない。
だって別物だもの。
でも,それでいんじゃないかな,とか思いますけどね。
Re:フレーム問題 (スコア:1)
やり方はわかっているが、今はその力が無いからできないという事じゃないんですよ。
無限の計算能力があれば解決できるものは、そもそもハードプロブレムなんて呼びません。
高位の存在なんか出さなくても人自身が知性を定義できないんですよ。
今までの論理を中心とした科学的アプローチを拡張しないと扱えない問題ってことです。
なので、やり方がわかって無いので最適化どころかどんな時間かけても
今のままでは実現できない、のです。
# このまま計算速度が速くなればなんでもできるだろって発想はどこから?
Re:フレーム問題 (スコア:1)
だからシミュレーションが完全であればそれもできるけど
不完全なシミュレーションを力づくで走らせて
時間かければ最適化できるって・・・なに適当な事いってるんだろうなー
進化のシミュレーション? 脳構造のシミュレーション?
それができたら~という前提からして間違ってるんだよ。
それができないから苦労してるのにさー
ハードプロブレムなんて存在しないって考えの持ち主なの?
少なくともこっちは何回もハードプロブレムって言葉だしてるンだから
神がどうのとたわごと言う前にぐぐって読んでから答えなよ
クオリア論の延長? (スコア:2)
そもそも人間自身「自然言語の意味を理解」していると言えるだろうか?
哲学的ゾンビは本当に哲学的ゾンビなんだろうか?
まさに、そういう事言ってんじゃ無いの? (スコア:1)
子供達の読解力がAIに劣る場合があるので、読解力を鍛えるために、もっと教育関連に金を注ぎ込もうっていう、まぁそういう話みたい。
リンク先、趣旨が分かりにくい、酷い記事だな。読解力を試されてるのか?
# この教授、人間が誤読するって可能性を忘れてる節があるな。誤読するのと読解力はまた別の問題だと思うんだよなぁ。
Re:クオリア論の延長? (スコア:1)
まあ知能の定義次第でどうとでも言えるよな。
あえて言うなら今の人工知能は人間と比べて膨大なエネルギーと学習量を費やしているのに人間に追いつけない。
要は方法がまずいんでしょうな。
個人的にはナノマシンか何かで脳細胞をエミュレートできれば人間を超える知能を実現できると思っている。
でもどうせそうして生まれた知能は自分が人間と違うことも理解できるだろうしあんなことやそんなこともできるだろう。
要は人工知能モノのSFにありがちな問題が発生しうるってことだが。
でも多分起きない。AIに良心や共感を植え付けられれば。でもSFだとそういう人間を超越した強いAiは動物に共感して人類滅亡を企てたり機会に共感して人類滅亡を企てたりするんだよな。それに人類のために虐殺を行う人間もいるし。
Re:クオリア論の延長? (スコア:1)
いわゆる人工知能の「フレーム問題」という奴ですね。囲碁や将棋がブレイクスルーできたのは、単に有限・完全情報ゲームだったからですね。
ポーカーや人狼のような不完全情報ゲームですら、まだまだこれからの研究課題になってるレベルですからね。東大の試験なんか、いわんやですね。
Re:クオリア論の延長? (スコア:3)
セマンティックな部分を言うなら記号着地問題の方では。
その辺りを力業でどーにかしてるのが今のディープラーニングでしょう。
#1970年代頃のコンピュータ万能論がそのまま今のAI万能論に
#置き換わってるだけに思えて・・・
如何なる内容であろうとACでの書き込みは一切無視します。
Re:クオリア論の延長? (スコア:2)
間違いを許容させれば,10年ほどで,人間とさほど変わらなくなるような気がしますけどね。
で,そもそも意思の疎通さえ図れれば,AIが人間と同じである必要はないですけどね。
Re:クオリア論の延長? (スコア:2)
>間違いを許容させれば
その許容範囲をどうとるかって部分でフレーム問題にぶち当たりますね。
如何なる内容であろうとACでの書き込みは一切無視します。
Re:クオリア論の延長? (スコア:4, 参考になる)
今のAI研究の限界なんでしょうね。
だから新井教授が言っていることも事実なんですよねえ。
ただ,限界を認識したとしても,
今の段階ではAIに曖昧さを求めるようなフェイズまで来てませんから
今の研究を限界までがんばってもらうしかないんでしょうけど。
Re:クオリア論の延長? (スコア:1)
でも自分自身や周りの人を見てると、
人間だってフレーム問題なんて全然解決できてねーな、と思えるような事ばっかだけどね。
それともこれが「大人のADHD」とかいうやつなのかな
本当に一般の人間はフレーム問題を解決してるの?
Re:クオリア論の延長? (スコア:3, 参考になる)
「 また,フレーム問題は人間でも解決できるわけではありません.思いもよらないことで事故がおきるのは安全くん1号と同じ状況ですし,知らない場所へ連れて行かれてとまどってしまい何もできないのは安全くん2号と同じ状況です.
フレーム問題は本質的に解決できませんが,人間は普段この問題に遭遇しません.ですので,人間と同様にあたかもフレーム問題を解決しているかのように,人工知能がふるまえるようにすることが研究の目標となります.」
https://www.ai-gakkai.or.jp/whatsai/AItopics1.html [ai-gakkai.or.jp]
だってさ。つまり解決してないが、それがそんなにバレない程度には振る舞えている。
Re:クオリア論の延長? (スコア:2)
関心とつながりを動的に強くしたり弱くしたり,っていうのはできそうだし,
実際やってそうなんだけどね。
Re:クオリア論の延長? (スコア:1)
MCTS にせよ強化学習にせよ「単に有限・完全情報ゲーム」とやらに限らず適用可能だね
意味って何? その一部は予測・予想? (スコア:1)
興味深いリンクありがとうございます。(長いのでまだ読んでいませんが)
意味が理解できれば、
要約もできるし、
正答もできる、
同じ内容を別の文章で説明できる、
意味のおかしな文章を判定できる、修正できる、
ソースコードが読めて理解できれば、プログラムも作成できる。
デバッグや改変・修正も自動でできる、はず。
おそらく、意味理解には難度の高い要素が複数含まれて絡み合っているから、簡単には行かない。
予測という面で捉えたら少しは何とかなるような気がするけど、どうかな。
言いたいことは何か、予測する。
相手の心を予測する(心の理論)。
みんなの考えそうなことは何か予測する(常識)。
囲碁・将棋で相手の次の手を予測する、みたいなことは、いまでもやればかなりできそう。
そして、予測にはフレーム理論が関係する?
明日の天気は晴れ、雨、曇、雪? 小惑星が衝突します、みたいな。
Re:意味って何? その一部は予測・予想? (スコア:1)
×そして、予測にはフレーム理論が関係する?
○そして、予測にはフレーム問題が関係する?
Re:クオリア論の延長? (スコア:1)
固有名詞を隠しても、「支離滅裂な回答」の後半、
....に巨大な富を持っていることを知っていたが、....から香辛料を獲得することを我慢せざるを得なかった。
というところは少しおかしい、つまり、文章としておかしい。だから識別が不可能ではないはず、のような気がします。いまのAIではできないのだろうけど。
支離滅裂な回答
「a1の女王は1492隻の船でa2へ航海した。彼女の夫、a3王は、インディアンの探検家a4がa5海岸に巨大な富を持っていることを知っていたが、a6大陸から香辛料を獲得することを我慢せざるを得なかった」
模範解答
「a3はa5女王と、その夫a6の支援により、1492年a2・a4の3隻の船でa1大陸に向けて航海した」
Re:クオリア論の延長? (スコア:1)
少なくとも人間なら間違いであるかどうか検討したり議論したりできる場合でも、現状の「AI」には
それができない。人間が意味を理解しているとは必ずしも言えないかもしれないが、今のAIはそれよりも、
より低いレベルでしか理解してないのは明らか。
#ここで言ってるAIって、AlphaGoとかGoogle翻訳とかの、あのレベル前提だよな。
#遠い未来だったり、宇宙人が作ったオーバーテクノロジーは含まない。
#なぜか過大評価するデマニュースとかが多いんで、広まらないよう釘を刺したんだろう。
>囲碁においては「盤面の意味を理解することは難しく、過去に学習していない問題やパターンに突き当たると、解答できない」てことはなかったわけだが。
そりゃ解答はできるさ。
AlphaGoは盤面のどこかに石を置くようにプログラムされてるんだから。
そういう意味ではN択の選択問題で、適当に丸を付けるだけの簡単なお仕事なんだから。
そんなのは囲碁ド素人の俺にだって出来る。バカにだって出来る。
解答するだけなら「人工知能」ではなく、「人工無能」の領域だ。
問題は、その解答が知的で適切なものであるかどうかだ。
たとえば有名なイセドルの第四戦では、適切な解答ができなかった。
AlphaGoは、そのことに気付いてさえいなかったんじゃなかったっけ。
#本当は正解と言いたい所だが、囲碁に「正解」はないから。
Re:クオリア論の延長? (スコア:1)
Alpha GO は、「19x19の盤面のどこに石を置くかを求めろ」というところまでは人間が指示を出しているし、「答えが正しいかどうかは評価関数で判定してる」わけで。
> 「金属の棒に数箇所バターを塗り、そこに豆を付ける。その棒の片方をろうそくで温めたら、どういう順番で豆が落ちるか」
これに AlphaGO のアプローチを適用するならば、「どういう順番で豆が落ちるかを求めろ」というところまでは人間が指示を出したうえで、
既存の「豆が落ちる順番を答える問題」について正当を学習させた上で、さらに、
何万問もの「豆が落ちる順番を答える問題」を自動生成して、それを学習させる
って方向になりますかね。
それが出来れば、結構な精度で「豆が落ちる順番を正しく答える」こと出来るものになる気がしますが、
そもそも、今の所は「模範解答込みな問題の自動生成」なんてまあ無理でしょうねぇ。
クラークの三法則 (スコア:2, 興味深い)
Re:クラークの三法則 (スコア:3, おもしろおかしい)
女性の年齢に対する男性の三原則は、
「見ざる、言わざる、聞かざる」
Re:クラークの三法則 (スコア:1)
時間を区切らずに「できない」と断言って… (スコア:2)
科学者としてどーよ
教育関係の講演みたいだから
「コンピュータは人間を超えられません」
ってのは受けは良いだろうけど…
Re:時間を区切らずに「できない」と断言って… (スコア:2)
しかし、新井教授は約5年間に及ぶ東ロボくんの研究を通し、AIが人間の知能を越すとする「シンギュラリティ(技術的特異点)はこない」と結論づける。数十年の間で急激に発達した最新テクノロジーの勢いを持ってしても、AIの学習能力には限界があり、人工知能が人間の進化を越える日は来ない。
リンク先読む限りではそんな前提はなくないですか
暗黙の前提を想定するなら期間だって本当は有限だと考えりゃいい話で
そう言うリップサービスがすぎるのはうーんどうかなぁ、と
ほんとは (スコア:2)
エキスパートシステム (スコア:2)
たくさん作られてきたが、やっと人間の頭脳に代わるものが出てきたという事で
盛んに研究が行われた。
初期はゲームを解かせることをやったがすぐに挫折。
1980年代に、人間のすべての面をコンピュータが代替することは困難なので
ある部分での代替を目指した。
それがエキスパートシステム。
しかし、未知なる事象に出会うとエキスパートシステムは問題を解決できない。
ということで、ブームは下火に。
未知なる事象に出会うと人間もその場で立ちすくんでしまうというのは同じだが、
人間はそこから新しいルールを産み出し、対応できるになる。
エキスパートシステムでは、それができなかった。
で、今が第3期。
演算能力とデータ処理能力が飛躍的に向上したので、ある部分では人間を明らかに凌駕
するようなシステムが出現した。
しかし、全ての面で人間を超えるようなAIは実現できるかというとそれは無理。
感情や倫理、社会規範といった人間の成長過程で獲得する知識をAIが手に入れることは
全く無理。
「東大に合格する」という目標設定が最初から間違っていたと言うしかない。
現時点のだろ (スコア:1)
超えたか超えていないの判断を人間がする限りは超えられない
だって、人間を超えたという判断には人間の存在が必要だもの
自分の限界,他人の限界 (スコア:1)
自分ができないからといって,他人ができない理由にはならないかと
Re:自分の限界,他人の限界 (スコア:1)
>なぜ、ここで馬鹿にするという文脈が出てくるんでしょう。
(#3223710)
>>ほんこれ。ダサすぎ
Re:過去に学習していない問題やパターンに解答できるよ (スコア:1)
モデルが不変だという点で、意味は理解している
新井氏の言っているのは未知のデータのことではない
意味を理解していないからそのモデルを持っていない