開閉ボタン
ユーザーメニュー
ユーザーメニューコンテンツ
ログイン

  • 会員限定
  • 2018/07/27

汎用人工知能が完成したら、社会にどんなインパクトを与えるのか?

第3回全脳アーキテクチャ・シンポジウム(4)

汎用人工知能(AGI:Artificial General Intelligence)が人類に与えるインパクトは大きい。もし、AGIが完成した場合は、産業革命以降の人類にとって最大のインパクトになるとの指摘もある。では、そのインパクトとはどのようなものか。理化学研究所の高橋恒一氏、ドワンゴ人工知能研究所 所長の山川宏氏、慶應義塾大学 教授の栗原聡氏、理化学研究所の中川裕志氏らが語り合った。

フリーライター 井上 猛雄

フリーライター 井上 猛雄

1962年東京生まれ。東京電機大学工学部卒業。産業用ロボットメーカーの研究所にて、サーボモーターやセンサーなどの研究開発に4年ほど携わる。その後、アスキー入社。週刊アスキー編集部、副編集長などを経て、2002年にフリーランスライターとして独立。おもにロボット、ネットワーク、エンタープライズ分野を中心として、Webや雑誌で記事を執筆。主な著書に『キカイはどこまで人の代わりができるか?』など。

画像
パネルディスカッション「脳型AIを良き形で実装するために」の様子

「よいAI」とは何か?

 先ごろ「全脳アーキテクチャ・イニシアティブ」(WBAI: Whole Brain Architecture initiative)の主催で開催された「第3回全脳アーキテクチャ・シンポジウム」。「脳型AIを良き形で実装するために」というテーマが掲げられたセッションでは、AGIが社会に与えるインパクトを踏まえつつ、その自律性が社会にもたらす影響や、倫理的規範との関係などについて、活発な意見交換が行われた。

関連記事

photo
理化学研究所、全脳アーキテクチャイニシアティブ(WBAI) 副代表 高橋恒一氏
 パネルディスカッションで司会を務めた理化学研究所の高橋恒一氏は、討論に入る前提として「よいAI(AGIが生む価値)とは?」について、パネリストの三者に確認した。
photo
ドワンゴ人工知能研究所 所長 兼 全脳アーキテクチャイニシアティブ(WBAI)代表 山川宏氏

 口火を切った山川宏氏は「WBAIでよく議論されていることですが、我々に害悪を与えず、幸せに暮らしていけることに貢献するAIです」と述べた。これは、WBAIが提唱する「人類との調和」という基本理念をベースにしたものだ。

 一方、慶應義塾大学の栗原聡氏は、よいAIとは“孫悟空”の“お釈迦様”のような存在であると言う。「直接的ではなく客観的に見守られている、という表現になるかと思います。環境のあらゆるところに遍在し,実体を気づかせることなく、我々に寄り添う存在。我々にはAIに見守られているという意識はなく、自由意志に基づき、当たり前のように日常生活を営んでいるのだと思う」と述べた。

画像
全脳アーキテクチャイニシアティブ(WBAI)の基本理念。「人類と調和した人工知能のある世界」をビジョンに掲げている
 また理化学研究所の中川裕志氏は「世間ではAIが仕事を奪うという話が出ていますが、そうならない仕事もあります。それは、AIを投入しても経済(コスト)的なメリットがないものです。一品生産品や、人によって異なる対応が求められる介護などがAIで安く供給できると、人間に役立つ。こういうAIがよいものでしょう」との見解を示した。

AGIの自律性とコントロールのサジ加減

photo
慶應義塾大学 理工学部 管理工学科 教授 栗原聡氏
 オックスフォード大学の哲学者ニック・ボストロム氏は著書「Superintelligence」の中で、「AI自身が人間の役に立つ振りをしなくなったときがシンギュラリティである」と主張している。

 これを踏まえ高橋氏は、「AIの自律性」について話題を向けた。「AIの自律性が生む価値とは何か?」との問いだ。
photo
理化学研究所 革新知能統合研究センター 中川裕志氏


 栗原氏は、「我々は精神的な安定状態を維持するために、そのバランスが崩れると、それを修正するための行動を選択する。『精神的な安定状態の維持』は、テクニカルな表現では“メタ目的”と呼ばれ、AIに対しては、メタ目的を人が最初に定義する必要があります。つまり、もし、人間が設定したメタ目的自体をAI自身が書き換えることが可能になると、想定とは異なった行動をとるようになるかもしれない。状況によってはマズイ状況になると思います」と危機感を示した。

 一方、中川氏は「ボストロム氏の話はSF的なので、心配しても仕方がないように感じる」としたうえで以下のように指摘する。

 「群知能が動き出した時はコントロールが難しいでしょう。AIの中に“ロボット3原則”を入れても抜け穴が多すぎる。そこで外部から鳥瞰し、(人間にとって害のある行動をするAIを)止められるようなAIをペアで開発し、自律性を制御することが大切だと思います」と提案した。

これに対して山川氏は「コントロールするということはある種のインタラクションが発生するので全体としては別のシステムになってしまいます。そうすると外から制御していたつもりが、ミイラ取りがミイラになるようなことが起きるのではないでしょうか」と問題提起した。

【次ページ】AIが“権利”を持つと社会はどう変わる?

AI・人工知能・機械学習 ジャンルのセミナー

AI・人工知能・機械学習 ジャンルのトピックス

AI・人工知能・機械学習 ジャンルのIT導入支援情報

PR

  • ◆ 遂に開催決定! Google Cloud 国内最大級の総合イベント ◆ 先行登録開始 ◆