2015/11/18 12:03 | コラム | コメント(8)
ロボット三原則①
アシモフを単純に信奉していた我々・・信者は・・プリミティブな危うい存在と感じさせられる。
理由・・単純すぎる。
つまり・・
アトムではなく・・現れるのは「ターミネーター」と言う訳だ・・ジェイムス・バラット。
出会いたくないロボットだ。改良型も。
著名な科学者達が・・AIが世界を乗っ取る・・と口々に述べて・・信じ切っている。
ロボット三原則を鉾と盾にする輩は・・
この方程式で将来を・・AI社会を解決できる・・と思いこんでいる善良なる羊たちは・・生き先はたった一つだというわけだ。そこは地獄と呼ばれている。
三原則は何の解決にも特効薬にもならない。
何も考えていないに・・殆どゼロに等しいと・・賢い方々から・・四方八方から罵倒される。
考えてみれば・・
「汝姦淫するなかれ」と書かれてあっても・・浮気のチャンスを見逃す人間はいるだろうか・?
いるかも知れないが・・ロッソ教授やおかやさんは・・多分・・それら善良なる方々なのだろう。
それと同様に・・
「人間に危害を加えてはいけない・・危険を見過ごしていけない」
とプログラムされていても・・守るAIはいるだろうか・?
友愛的な高級AIを造るのは・・そう簡単ではない。キイボードを叩くようにはいかない。危険性を予知できないからだ・・あまりにも複雑な知的構造がいる。
AIに愛と憎しみをプログラムするのは・・高度な・・超高度な・・人間には無理な作業だからだ。
多分・・ロボットには可能かも知れない。ただどうやって・・確かめるか問題だ。
何しろ・・人間より1000倍AIは賢いそうだ。そんな神に近づいた物質を・・1000倍馬鹿な人間がコントロール出来るか・・初歩的な諮問である。
これが出来るなら・・チンパンジーにも我々をコントロール出来る。
人工超知能・・出来上がっているそうだ。しかも自分で改良出来る。手足を増やすのではなく・・頭脳を・・知能を・・知性ではない・・知能を最大限・・増殖出来るそうである。おまけに寝る必要が無い。休息から解放されているのだ。
となると・・慌てた開発者が・・セーフティ・・博愛を・・人間を愛する事をプログラムしようとしても・・人間よりも2000倍以上優れた人口超知能は・・脳手術の承諾をするだろうか・?
OK・!アミーゴと握手してくれるだろうか・??・・・(笑
8 comments on “ロボット三原則①”
コメントを残す
いただいたコメントは、チェックしたのち公開されますので、すぐには表示されません。
ご了承のうえ、ご利用ください。
メジャーどころを駆け足で。
ロボットという言葉は1920年カレル・チャペックが発明し「RUR]という戯曲の中で使った。この戯曲ではすべての労働をロボットに任せて弱体化した人間はロボットの反乱にあっというまに絶滅させられる。ロボットという言葉は最初からヒトへの脅威とともにある。
友好的なロボットはメジャーどころではアシモフよりキャプテンフーチャーに登場するグレッグが1940年で元祖か。
アシモフの3原則は1940年の「ロビイ」では成文されていない。作中で徐々に整えられていくが、主軸はいかに3原則の裏をかくか。不可解な事件の原因が、3原則の思いもよらぬ欠陥にあることを発見するスーザン・キャルビン博士の活躍。その度に改良を加え知能を増して行くロボットはやがて脅威とみなされ、使われなくなっていくが、かわりに導入されたAI「マシン」はあっという間にひっそりと人類を支配する。「災厄のとき」1950年。派生作の遠い未来を描いたイライジャ・ベイリものには、「人間」を定義する情報を与えない事で3原則に従いながら人間の載った船を攻撃出来る「無敵の」無人宇宙艦隊をつくろうとする博士が登場する。1957年。
作中でロボットへの恐怖は「フランケンシュタイン・コンプレックス」として頻繁に語られる。
電源を入れられるなり世界を支配してしまうAIは1970年の映画「地球爆破作戦」コロッサスが原作1966年で最初かしらん。ハインライン「月は無慈悲な夜の女王」で月ー地球間戦争を発案実行するAIマイクは1966年これは人間自体には友好的だが。「2001年宇宙の旅」のHAL9000は1968年。
自己増殖する自動機械らしきものが全ての生物を殲滅し支配している惑星を描いたレム「砂漠の惑星」は1964年。
AI同士が勝手に戦争を始めて人類が滅亡する手塚治虫「火の鳥ー未来編」は1967年12月から連載だったから早い早い。1963年にアトムを書いた手塚がすぐ後に書いているところも面白い。
ネットのクラウド上に自然発生したAIが人類を支配しようとするのはヴァーリーの短編「PRESS ENTER」1984年が最初かしらん。
これを書いてる間にも中東ではドローンが暗殺し、巡航ミサイルが街を消滅させています。AIおそろし。
さきほどカナ変換中にコメントが送信されてしまいました
SFのタイトルをずらずら並べたコメントは
名前「とらや」 タイトル「SF読みはさけんじゃうぞー」 でした。
3原則は知りませんが、ネットのクラウド上に自然発生したAIなんて、一番怖いじゃないですか。最初は人間が放り込まないと。だいたいネットに繋がった段階で終わりですね。なんでも盗まれてしまうし(AIも)、ただ増殖するという単純なウイルスを放つだけでもネット社会は終り。それに今時いくらスタンドアローンだと言っても全く独立というわけにはいかず、流失する手段はたくさんあるので結局つながってしまう。最後は暗号ということなんでしょうが、これがAIが最も得意とするところだからやばいんでしょうね。結局暗号システム造りの対決で最終的には数学の能力ということになるらしい。それにローテクな分野ではもう情報なんて把握されているのに、ご丁寧にマイナンバーなんてつけて、たいした情報量でもないのに下等すぎてかえってAIが混乱する。データと事実の対応まで完全にはAIはやってくれない。人間の八感(霊感・暗黙知も含む)センサーには到達できない。事実がすべてデータ化されていれば頂きですが。監視カメラなどでAIは相当腕を磨いているようだ。将来支配されるべき人間の特定は重要だ。整形で逃れられるのだろうか。人間も攻殻機動隊のように擬体・ロボットスーツの技術を磨き、通信を遮断して襲ってくるAIロボットに対抗すべきか。いや人間の味方をするAIロボット(タチコマ)もいたな。そんなに優秀なAI間での意思伝達、交渉も大問題だ。これをAI関係という。スタートレックではAI世界での集合意識というものがすでに想定されている。このあたりもとらやさんだな。SFは荒唐無稽で楽しいな。
ロボット工学三原則・・
余りにも有名なので・・説明しませんでした。
チェックしてください・・・(笑
ネットが民間に存在しない時代なので、ロボットに対する位置付に違和感を感じてしまう。ネット・交信を前提にその端末扱いで、メインは統括AIで、端末に3原則が入っていても更新されてしまうような感覚に陥る。サイバー攻撃など当り前のネット社会の倫理観は当時と比べだいぶ堕ちてしまっているように思える。ディーゼルエンジンさえあの手の込んだ様ですからね。現実に可能なんですから。そんなダマシのロボット怖いですね。もう人間のほうも本当は3原則は頭の中にないのではないか。VWなら絶対作れる(笑)。確かにAI世界だけだったら苦労せず乗っ取れる設計図を作れる時代になったんだと思う。つながっている以上逃れられないし切断は不使用ということになってしまう。人間さえスマホ・テレビの画面で統括AIに操られるというのも、もうまんざら嘘ともいえない。・・・なおこれはフィクションなので固有名は現実とはなんのかかわりもありません。
無人機による攻撃・・暗殺・・
もうAI・・半自動のAIとも言える・・
パイロットは平和な米国基地内で・・平和な家庭から通勤する。激しい戦闘が行われても・・パイロットは無傷だ・・不死身だ。
その内・・人間では間違いを犯す・・との理由で自動化になる道が本命かな・・
無人機による攻撃・暗殺はオバマ大統領が大好きなんだ・・・
>その内・・人間では間違いを犯す・・との理由で自動化になる道が本命かな・・
現実に鉄道や航空機の事故では自動運転を切っていたことが重過失に問われていますね。自動車もじきにそうなりそうですね。鉄道では無人運転もすでにたくさんある。
AIが進化するといっても実行する手足を人間が用意しなければいいだけというのが楽観している人の言い分でしょうが、自分の手足が現実にどうなっているかは気にしていない。
電気やガスといったライフラインは随分前からコンピユーター制御ですしね。
PCや家電に停止ボタンがなかったりする始末。
自ら生み出したものに滅ぼされるというノイローゼは神話の昔からあるのでしょうが、現実になりうる条件は日に日に満たされつつありますね。
しかしAI以前にハッキングが恐怖だな。「パトレイバーthe movie」みたいな。
あのTGVでさえ・・ドイツ間・・高速アップの為実験走行中・・事故・・
原因・・スピードの出しすぎ・・カーブ曲がり切れず・・橋に衝突・・河に転落・・
11名死亡・・かなりの数の子供も乗っていたとか・・
このような実験走行で・・関係者の家族が乗っているなんて・・如何にもフランス的・・完全自動化されていれば・・この事故は起らなかっただろう。
自動車の自動運転も実用化されている。人間が運転していても判断に迷う状況では・・今の自動化ではAIも迷うらしい。後数年で・・人間よりも的確な判断をするだろう。
処が・・運転中の車のAIを乗っ取る・・ハイジャック犯も出てきた。
もう・・ロボット三原則は過去の遺物になったのだろうな・・ランで送金なんて止めた方がいいぜ・・とらやさん・!
専門家の友人が・・恐ろしいですぜ・・と警告していた。殆ど無防備に近い。解読機械さえあれば・・との事・・・(笑