海外コメンタリー

囲碁の欧州王者に勝利した「AlphaGo」に見るナローAIとグーグルのアプローチ

Nick Heath (TechRepublic) 翻訳校正: 村上雅章 野崎裕子 2016年02月02日 06時30分

  • このエントリーをはてなブックマークに追加

 Googleの傘下企業であり、人工知能を手がけるGoogle DeepMindによって開発された機械学習システムが、複雑なゲームとして知られる囲碁でプロの棋士に勝利した。しかし、特定分野に的を絞った同社のアプローチに疑問を呈する研究者もいる。

囲碁ソフト「AlphaGo」に見るGoogleのナローAI
囲碁
提供:iStock/zilli

 Googleは、囲碁を究めるだけの潜在能力を備えた機械学習システムを開発した。古代中国に起源を持つ囲碁というゲームは、その複雑さゆえに何十年にもわたってコンピュータの挑戦を退けてきた。

 1990年代の半ばに、IBMのコンピュータ「Deep Blue」はチェスというゲームを究めており、最近ではGoogle DeepMindのシステムが1970年代の古典的なアーケードゲームで人間に勝利している。しかし、囲碁は別格であった。

 チェスでは次に打てる手が20程度であるのに対して、囲碁では200程度にも及んでいる。つまり、囲碁では対局を通じて打てる手の数があまりにも多いため、最善手を求めてそれぞれの手すべてを評価していくには、コンピュータにとって荷が勝ちすぎるのだ。

 しかし今回、Google DeepMindが開発した「AlphaGo」というシステムは、欧州の囲碁大会で優勝しているプロ棋士の樊麾(Fan Hui)氏に勝利した。AlphaGoでは、囲碁のルールをプログラミングしていくのではなく、ポリシーネットワークとバリューネットワークという2種類のディープニューラルネットワーク(DNN)と、先進的な木探索手法であるモンテカルロ木探索(MCTS)を用いて次の手を自ら学習するようになっている。

 標準的な囲碁では、縦横19路の直線が刻まれた四角い碁盤が用いられる。その上で、対局者それぞれが自らの陣地を確保するとともに、相手の碁石を囲んでいくわけだ。このシステムに囲碁を学習させるために、囲碁の達人たちによる3000万に及ぶ指し手がAlphaGoのニューラルネットワークに与えられた。その後、強化学習の手法を用いて、過去の対局データから、どのような手が最善手となる可能性が高いのかを学ばせていった。このアプローチのおかげで、AlphaGoでは対局中に評価する探索空間を削減でき、現実的な時間内に次の手を見つけ出せるようになったというわけだ。

 DeepMindの最高経営責任者(CEO)Demis Hassabis氏は囲碁について、「おそらく、人類がプレイしている最も複雑なゲームだ。碁盤上で考えられる組み合わせは、宇宙に存在する原子の数よりも多い」と表現している。

  • このエントリーをはてなブックマークに追加

関連ホワイトペーパー

SpecialPR

連載

CIO
内山悟志「IT部門はどこに向かうのか」
データドリブンな経営
情報通信技術の新しい使い方
米ZDNet編集長Larryの独り言
谷川耕一「エンプラITならこれは知っとけ」
田中克己「2020年のIT企業」
大木豊成「Apple法人ユースの取説」
林雅之「スマートマシン時代」
デジタルバリューシフト
モノのインターネットの衝撃
松岡功「一言もの申す」
三国大洋のスクラップブック
大河原克行のエンプラ徒然
今週の明言
アナリストの視点
コミュニケーション
情報系システム最適化
モバイル
モバイルファーストは不可逆
通信のゆくえを追う
スマートデバイス戦略
セキュリティ
ベネッセ情報漏えい
ネットワークセキュリティ
セキュリティの論点
OS
XP後のコンピュータ
スペシャル
より賢く活用するためのOSS最新動向
HPE Discover
Oracle OpenWorld
AWS re:Invent 2015 Report
「Windows 10」法人導入の手引き
北川裕康「データアナリティクスの勘所」
Windows Server 2003サポート終了へ秒読み
米株式動向
マーケティングオートメーション
AWS re:Invent 2014
Teradata 2014 PARTNERS
Dreamforce 2014
Windows Server 2003サポート終了
実践ビッグデータ
VMworld 2014
中国ビジネス四方山話
日本株展望
ベトナムでビジネス
アジアのIT
10の事情
エンタープライズトレンド
クラウドと仮想化
NSAデータ収集問題