数年前に、某ネットワーク・インフラ企業の研究者と打合せをした。その時にしみじみと言われたのが、「昔と今ではインターネットの構造がガラリと変わってしまった」ということ。
昔は、中小ISPが大手ISPにぶら下がり、大手ISPはIXを通じて他とつながり、海外と繋がるというピラミッド構造をしていた。
しかし、今は違う。変えたのはGoogle。
Googleは、世界中のトラフィックを見ながら、ピラミッドの末端か根本かに関係なく、最も効率良く応答を返せる場所に、直接回線を引いた。
その結果、世界のインターネットトラフィックは、Googleを経由して流れるようになった。数年前の情報では、世界の40%のトラフィックがGoogle経由だとか。
Googleのクラウドサービスについて話を聞いて、「なるほどなぁ」と思ったわけだけど、彼らは世界中の自社データセンター間を、自前の通信回線を敷設してつないでいる。それもありえないくらい太い回線で。
日本とアメリカの間も、自前で海底ケーブルを敷設しているとか。
そしてその回線とつながっているデータセンターが、いよいよ日本にもオープンする。
結局、今おきている様々な技術革新は、すべからく分散技術の上になりたっている。分散システムになればなるほど、システム全体はネットワークシステムのような性格になってくる。最も警戒しなければならないのは、CPUやI/Oの負荷ではなく、輻輳だったりとか。レスポンスを意識するよりも、スループットを意識しなければならないとか。
つまりネットワークが圧倒的に強化されていないクラウドサービスは、極めて大きな分散システムには向かないのだ。
ネットワーク性能という点で言うと、クラウドベンダーは脆弱なところが多い。データセンター間もそうだけど、データセンター内のネットワークが貧弱。
データセンター間も、データセンター内のネットワークも、ぶっ飛ぶくらい高性能なGoogle。なんでそんなに強化するのか。それは、極めて巨大な分散システムが、これからのクラウドサービスでは、もっと言うならこれからのコンピュータ・システムではとても重要だから。
ま。つまりそれが、機械学習。ということなんだろうね。
そして、ついに今朝のイベントで、発表されました。
VisionAPIも、SpeechAPIも、Googleの学習データを利用できるという素晴らしいサービスなんだけど、やっぱり注目すべきは、機械学習専用の処理プラットフォーム「Cloud Machine Learning」。
こいつは、自分なりの学習データを作成して、独自の判断をする機械学習システムをつくりあげるためのものだ。
そのためのソフトウェアとして、すでにTensorFlowというオープンソースを発表していたわけだけど、やっぱり本格的に使うなら分散環境は必須なわけであって、それはかなりのデータ分散や処理分散が必要となる。ということは、今まで以上に強力なネットワークシステムがなければならない。
しかもTensorFlowのモデル化や可視化に、DataLabを使えるとか。
たぶん、これでだんだんと、誰もが気軽に機械学習を利用できる時代が、少しずつ近づいてくるのだと思うんだよ。
そしてそれは、コンピュータ・システムの根本的な変革点が訪れているということでもある。
0 件のコメント:
コメントを投稿