2015/11/20 12:13 | コラム | コメント(2)
ロボット三原則②
「人口汎用知能を開発するなら・・
慎重に慎重を期すべきだと言いたい。
この場合、慎重に慎重をすと言うのは・・エボラウイルスやプルトニウムを扱うよりも・・ずっと周到な用心っていう意味だ」
ブゥドウ科学者の言葉ではない。
機械知能研究所(MIRI)の所長・マイケル・ヴァッサー博士(生化学・経営学)の言葉だ。
更に付言すると・・
「AGIは本質的にとてつもなく危険だ。
しかも・・この問題は・・
さほど理解しにくいわけじゃない。
ものすごく賢くなくても・・
ものすごく知識がなくても・・
知的にものすごく誠実でなくても・・この問題は理解出来るんだ」
ですから・・ちょっぴり考えましょう・・(笑
このシンクタンクはサンフランシスコが拠点で・・
人口知能の手で人類が絶滅することを防ぐ為に設立された。
年に一度「シンギュラリティ・サミット」という影響力がある会議を主催している。
プログラマや神経科学者・研究者・企業家・倫理学者・発明家が・・2日間の会議を通じて・・AI革命の成功や失敗を議論する。
これはカルトだと警戒する人もいる。居るが・・MIRIの存在を知る前から・・大抵はAIの危険性を気づいていたとヴァッサー博士は指摘する。
彼はこの科学の伝道者になる前に・・オンライン音楽ライセンス企業を設立していて・・財産家になっていた。
この科学力を使ってテロリストグループが・・イスラム国家やならずもの国家を造れるか・?
という疑問に対して・・博士は一笑にふす。最もな疑惑だが・・パリで事件が起きたばかりだ。これも考えてみるか・?
「IQに差がある。
世界を破壊しようと本気で考えている悪人どもは・・間違いなくさほど有能ではない。世界を破壊したがっているような連中はには・・何かを実現させるするために長期的な計画を立てる能力はない」
成程・・機関銃の引き金や自爆爆弾チョッキのボタンを押すのは・・然程知的作業が要るとは思えない。
しかし・・原爆を開発し隠匿している・・危険に満ちた国家の存在も否定出来ない・・面倒になって来た・・忍び込んで・・起爆させないプログラムに・・そんな事が出来るなら・・やってるか・・・(笑
2 comments on “ロボット三原則②”
コメントを残す
いただいたコメントは、チェックしたのち公開されますので、すぐには表示されません。
ご了承のうえ、ご利用ください。
ネットは元々米軍の情報システムですから、そんな処の統括AIに最高意思決定過程として人工知能を取り入れるわけにはいかないので、あくまで状況判断的なものとしてできるだけ制限をかけるだろう。軍隊ですからネットの階層構造と接続の可否・暗号化が前提になる。核のボタンと同じく細心の注意を払ったはずだ。映画では民間WEBにつながり侵入されたり、ウイルスにより自然発生するとかの設定になっている。これを転用した民間のWEBネットは無差別接続で階層もなく無法地帯ともいえる。こんな世界に超優秀なAI・人工知能、重要なデータベースを置くかを考えると恐怖だが、性悪説では維持できない。本当はAIのリソースをこんな暗号による防御機能に専心させたくはないが現実だ。日夜ハッカーと国家が競い合い、ハッキンングコンテストで進化している。さてここから単なるネット占有競争から卒業した真の意味で人間を支配する能力をもった人工知能が生まれる契機があるのだろうか。今のところネットが邪魔をしているようにしか思えない。完全にネットから遮断され進化し続けられる人工知能の単体ロボットを想像しにくい。このことは生物が環境・社会から完全に遮断され生きていけるのかという事を示しているのかもしれない。それを乗り越えて人工知能の究極の能力を想像してみても、直接人間の脳に信号を送れるテレパシー・亜空間通信を考えるとかやはり通信の問題となってしまう。というかSFの世界になってしまう。
長文・長髪は苦手・・
出来るだけ・・スポーツ刈りに・・短く・・・(笑