Google Cloud Platform Japan Blog
最新情報や使い方、チュートリアル、国内外の事例やイベントについてお伝えします。
マルチ クラウド : どこでも同じように実行できることの意義
2016年8月3日水曜日
* この投稿は米国時間 7 月 26 日、Global Head of Solutions である Miles Ward によって投稿されたもの(投稿は
こちら
)の抄訳です。
マ
ルチ クラウドは現実性のない夢なのでしょうか。いえ、そんなことはありません。
私たちが使用している計算能力、ネットワーク、ストレージ リソースの効率や価格性能比は年々向上していますが、それでもスタートアップはもちろん、規模の大きい企業にとってもインフラストラクチャはかなりの出費です。
しかも、インフラストラクチャには大きなリスクがあります、一つひとつの判断が、構築されるサービスの将来のスケーラビリティ、サービス レベル、柔軟性を大きく左右します。システム アーキテクトにとって、最も大きな懸案は “future-proofing”(将来の保証)だと言っても過言ではないでしょう。
インフラストラクチャを提供する側も、損得抜きでかかわっているわけではありません。どのベンダーにも、契約、価格、技術からの締め付けを通じて顧客をロックインしようという強いインセンティブがあります。
インフラストラクチャをすでに有している企業を中心に、多くの場面でクラウド インフラストラクチャに関心が集まるのは、提供される価値よりもロックインによるコストのほうが高くなってしまった既存のベンダーとの関係を断ち切りたいという強い思いからです。何らかの形でロックインの力が働き始めると、インフラストラクチャの提供企業は顧客に得をさせなくても使用料を上げていけることがわかっているのです。
では、インフラストラクチャを消費する側である皆さんは、最小限のコストで最大限の価値をプロバイダーから引き出すために、周囲からの圧力をどのようにさばいていけばよいのでしょうか。
最初の第一歩はロックインのメカニズムに積極的に抵抗することです。ほとんどのコンシューマー企業は今までの経験から、長期契約が危険なこと、そして先払い契約は意思決定を歪めることをよく知っています。
それでも、技術的なロックインを防ぐのは至難の業です。プロバイダーの多くは、差別化できる価値のあるサービスをプロプライエタリな API で包み込み、アプリケーションがいずれ自分たちの型にはまって抜け出せなくなるようにします。
こういった “sticky services”(厄介なサービス)や “loss leaders”(客寄せ商品)は、コンシューマー企業にとって、手っ取り早く価値を手に入れ、ロックインのリスクを受け入れる気にさせるものなのです。
これは、技術的負債のよくある形です。特に新しいベンダーが同じ分野でより強力で差別化されたツールをリリースしたり、OSS コミュニティからより優れたソリューションが生まれたりしたときに強く感じることです。
かつて、個々のプロバイダーのプロプライエタリな API の上に抽象化レイヤを構築し、1 つのツールで複数のクラウドを仲介することで、この技術的負債からコンシューマー企業を救おうとした会社がいくつかありました。しかし、この方法は脆く、ぐちゃぐちゃになりがちで、複数のクラウドの最大公約数的な形で妥協しがちです。また、顧客のロックインを維持するため、クラウド プロバイダーが戦略的に切り崩してくることもよくあります。
オープン アーキテクチャ
もっとも、テクノロジーはそんなものばかりではありません。不要なロックインのリスクを受け入れたり、最大公約数的なサービスに我慢したりしなくても、スケーラビリティが高く、高パフォーマンスでコスト効率の高いシステムを効率的に構築することは可能です。必要に応じてオープンな API で移行できることが前もってわかっていれば、プロプライエタリなインフラストラクチャ製品を使うことさえできます。
もちろん、「移行は複雑で高度な作業ではない」などと言うつもりはありません。複雑で高度な作業です。しかし、必要とされる時間と労力は日に日に大きく短縮、縮小されていきます。ユーザーはレバレッジを手にします。自由が広がれば広がるほど、プロパイダーをコモディティという本来の姿で扱えるようになっていきます。
私たち Google は、プロプライエタリな開発の価値を理解しています。私たちは、スケーラビリティ、パフォーマンス、セキュリティ、柔軟性が高くなるように意識してチューニングされたクラウド スタックを作ってきました。そして、宣伝、アプリケーション、クラウド ビジネスを通じて、この投資から本物の価値を引き出しています。しかし、Google Cloud Platform(GCP)とより広範な技術コミュニティの他プロバイダーやメンバーは、力を与えられたユーザーが、本当に強力なことができることを知っています。
私たちは、プロプライエタリで閉じた API に走らずに、パフォーマンスおよび安定性の高さとコストの低さから差別化されるサービスをお届けするよう努力してきました。もちろん、そうしたサービスの場合は、ユーザーは GCP を使うのを止めたくなったときに止めることができます。しかし、ユーザーにとってはそれこそが、GCP を使うリスクを軽減化するパワーになると、私たちは思うのです。
一部の優れた人々は、このアプローチを “GIFEE”(Google Infrastructure For Everyone Else)と
呼び始めました
。しかし、
Kubernetes のケース
に代表されるように、圧倒的な数の参加者と個人、そしてあらゆる規模の企業からの関連 OSS プロジェクトに対するソースコードのコントリビューションを考えると、“Everyone's Infrastructure, For Every Cloud”(すべての人々の、すべてのクラウドのためのインフラストラクチャ)と呼んだほうがおそらく正確でしょう。しかし、これでは頭文字を並べたときに、大変なことになってしまいます。
リンク :
AppScale
、
Kubernetes
、
Apache HBase
、
Druid
、
Apache Drill
、
Vitess
、
Apache Beam
、
TensorFlow
、
Minio.io
、
Spinnaker
いくつか顕著な例を挙げておきましょう。
アプリケーションを実行するコンテナの管理システムとしては、Google が開発を支援した OSS の
Kubernetes
があります。
Google Container Engine(GKE)
または他プロバイダー、あるいはその両方で管理、ホスティングされています。
Kubernetes は、コンテナが決してロックインされないようにします。
ウェブ アプリケーションを実行する PaaS 環境としては、OSS アプリケーション管理フレームワークの
AppScale
があります。
Google App Engine
または他プロバイダー、あるいはその両方で管理、ホスティングされています。重要なのは、アプリケーションで必要な NoSQL トランザクション ストアもここに含まれることです。ストレージ レイヤとして
Cassandra
を使用するストアは、Google App Engine Datastore API をアプリケーションに提供する AppScale でも、App Engine ネイティブのものでもかまいません。
AppScale は、アプリケーションが決してロックインされないようにします。
NoSQL のキーバリュー ストアとしては、
Bigtable ホワイトペーパー
から生まれた Apache
HBase
があります。
Cloud Bigtable
または他プロバイダー、あるいはその両方で管理、ホスティングされています。
HBase は、NoSQL が決してロックインされないようにします。
OLAP システムのエンジンとしては、Google の Dremel システムからヒントを得た OSS OLAP エンジン、
Druid
と
Drill
があります。これらは BigQuery と非常によく似ており、あらゆるインフラストラクチャのもとで実行できます。
Druid と Drill は、OLAP システムが決してロックインされないようにします。
高度な RDBMS の構築には、Google が開発を支援した OSS MySQL ツールキットの
Vitess
が使用できます。
Google Container Engine
または他プロバイダーが
Kubernetes を介して
、あるいはその両方でホスティングされています。
Google Cloud SQL
を使用し、GCP 上でフルマネージドの MySQL を実行することも可能です。
Vitess は、RDBMS が決してロックインされないようにします。
データ オーケストレーションの実行には、Google が開発を支援した OSS ETL エンジン、Apache
Beam
が使用できます。
Google Cloud Dataflow
または他プロバイダー、あるいはその両方で管理、ホスティングされています。
Beam は、データ ETL が決してロックインされないようにします。
機械学習サービスの構築には、Google が開発を支援した OSS 機械学習ツール、
TensorFlow
が使用できます。
Google Cloud Machine Learning
または他プロバイダー、あるいはその両方で管理、ホスティングされています。
TensorFlow は、機械学習が決してロックインされないようにします。
オブジェクト ストレージの構築には、OSS を介して S3 API を提供する
Minio.io
が使用できます。同じく S3 API をエミュレートする
Google Cloud Storage
または他プロバイダー、もしくはその両方で管理、ホスティングされています。
Minio は、オブジェクト ストアが決してロックインされないようにします。
継続的デプロイ ツールとしては、Netflix と OSS のチームが発足させたプロジェクト
Spinnaker
が使用できます。
GKE
または他プロバイダー、あるいはその両方でホスティングされています。
Spinnaker は、継続的デプロイ ツールが決してロックインされないようにします。
まだプロプライエタリだが、たぶん大丈夫
CDN、DNS、ロード バランシング
これらのサービスに対するインターフェースはコードではなくネットワーク構成なので、今までのところ、これらはプロバイダー全体を通じてプロプライエタリなまま残っています。
NGINX と Varnish は素晴らしい OSS のロード バランサ / フロントエンド キャッシュを作りましたが、切り替えに伴う摩擦やリスクが低いことから、パブリック クラウドで DNS やロード バランシング サービスを避けようとする本格的ニーズはありません。本当に動的なことをしたい場合や自動化のためのコードを書く場合は、コードに対するオープンなインターフェースを確保するために Netflix の Denominator を使うことになるでしょう。
ファイル システム
ファイル システムは、クラウド プロバイダーが大規模なマネージド サービスとして提供するのがまだ難しい分野です。
GlusterFS、Avere、ZFS
などは、環境と関係なく専用の POSIX レイヤを提供するため本当に役に立ちます。もし Kubernetes の内部に構築するのであれば、CoreOS の
Torus
プロジェクトを参照するとよいでしょう。
ソフトウェアだけではない、本命はデータ
ロックインのリスクはさまざまな形をまとってやってきます。なかでも強力なのは、データの重さというか、慣性です。
すべてのソフトウェアがインフラストラクチャ間で簡単に移動できるようになっていても、それらのシステムはスループットが制限されたインターネットで接続されており、仮にペタバイトものデータが書き込まれたとしたら、それを移動するのは苦痛になるでしょう。ソフトウェアを 1 分で移動できても、データの移動に 1 か月かかるようなら意味はないのではないでしょうか。
GCP ネイティブのものや、拡大しつつあるパートナー エコシステムのものも含めて、そうしたデータの移動に有用なツールはたくさんあります。
データがオブジェクト ストアに格納されている場合は、
Google Cloud Storage Transfer Service
を使用できます。これは、Amazon から Google へのデータの移動に使用できる、簡単で身近な自動化ツールです。
データがテープやディスクに格納されている場合は、
Offline Media Import / Export
サービスを検討してみるとよいでしょう。Google クラウドとの間で大規模なデータを定期的に転送しなければならない場合は、キャリアや公開ピアリング ポイントを活用して確実に Google に接続できる
Google Cloud Interconnect
を検討してみてください。
クラウドにすばやく移動させたい VM イメージがある場合は、
CloudEndure
を使ってイメージを転送し、Google Compute Engine で実行できる形に変換することをお勧めします。
レプリケートが必要なデータベースがある場合は、
Attunity CloudBeam
を試してみてください。バルク データをマイグレートしたいのであれば、CERN の
FDT
を試してみましょう。
データをインポートするなら、おそらく
Embulk
が使えます。
まとめ
ロックインの罠に陥ることなく、システムの成長を支援するオープンな API とテクノロジーを選択したい。そんなときに本稿の内容がお役に立てば幸いです。
とはいえ、移行の自由を有していることを本当に証明できるのは実際の移行だということを覚えておいてください。実際に試してみましょう。多くのお客様が、私たち Google との交渉の場で、複数プロバイダー間でアプリケーションを間違いなく実行できたときに発見した、自分たちの中の新しい力について語ってくれています。
今回取り上げたツールとプロバイダーとを結ぶ強力なプライベート ネットワークを組み合わせれば、アプリケーションはプロバイダー固有の細かい差異を最小限に抑え、その垣根を越えていくでしょう。
本稿で説明したことに関する実装の方法、この種の考え方で使われるスタックの他の部分、あるいはどうやって始めたらよいかなどについてご質問があれば、
こちら
から Google Cloud Platform にどんどん送ってください。喜んでお手伝いさせていただきます。
- Posted by Miles Ward, Global Head of Solutions
0 件のコメント :
コメントを投稿
60 日間のトライアル
Labels
Anvato
App Engine
AppScale
Big Data
BigQuery
Billing Alerts
Bitbucket
Borg
Cloud Bigtable
Cloud Consoleアプリ
Cloud Dataproc
Cloud Debugger
Cloud Deployment Manager
Cloud Machine Learning
Cloud monitoring
Cloud Natural Language API
cloud Pub/Sub
Cloud SDK
Cloud Speech API
Cloud SQL
Cloud Storage
Compute Engine
Compute user Accounts
Container Engine
Container Registry
deep learning
Deployment Manager
Developers
Firebase
Flexible Environment
GitHub
Go 言語
Google Apps
Google Cloud Console
Google Cloud Dataflow
Google Cloud Datalab
Google Cloud Datastore
Google Cloud Launcher
Google Cloud Logging
Google Cloud Platform
Google Cloud Security Scanner
Google Cloud Shell
Google Cloud Storage
Google Cloud Storage Nearline
Google Compute Engine
Google Container Engine
Google Data Analytics
Google Date Studio
Google Drive
Google Genomics
Google Sheets
IoT
Kubernetes
Managed Instance Group
Maps API
Mission Control
MongoDB
MySQL
neural networks
Next
OLDISM
Panda
Puppet
SRE
Stackdriver
Startups
TensorFlow
Translate API
Vision API
Visualization
Vitess
VM
イベント
コンピューティング
サポート
スタートガイド
ストレージ
セミナー
ソリューション: メディア
データセンター
ビッグデータ
マイクロサービス
マルチクラウド
運用管理
機械学習
月刊ニュース
資格、認定
新機能、アップデート
導入事例
料金
Archive
2016
8
7
6
5
4
3
2
1
2015
12
11
10
9
8
7
6
5
4
3
2
1
2014
12
11
10
9
8
6
5
4
3
2
Feed
月刊ニュースレターに
登録
新着ポストをメールで受け取る
Google
on
Follow @GoogleCloud_jp
0 件のコメント :
コメントを投稿