SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

いまさら聞けないクラウドのアレコレ

いまさら聞けないクラウドのアレコレ(6)
~パブリッククラウドの最適設計~

  • このエントリーをはてなブックマークに追加

 本連載では、すでに5年を経過しようとしている日本のクラウド業界動向を、さくらインターネット研究所の独自調査に基づきご紹介します。今回は『いまさら聞けないクラウドのアレコレ(6)~パブリッククラウドの最適設計~』として、前回同様に私たちを取り巻くコンピューティング環境の変化と実際を見ていきましょう。

  • このエントリーをはてなブックマークに追加

パブリッククラウドの性能限界

 データセンターで展開されるパブリッククラウドにも、物理的・論理的な性能限界があります。あまり知られていないがよく分かる指標の一つとして、「データをアップロードするデータ転送性能」があります。

 図1は、CloudHarmony社が公開するデータから、コンピューティングサービスにおけるデータ転送性能(アップロード/アップリンク)の比較(2015年6月時点)をグラフ化したものです。日本を含む全世界78拠点の仮想サーバーに対するデータアップロードから、このグラフはでき上がっています。

 ご覧のように、ほとんどのパブリッククラウドが10Mbit/secを境としたデータ転送性能の偏りを見せています。10Mバイト程度の小さいデータを転送しているということもありますが、それでも30Mbit/secを出すサービスもありますので、ここでなんらかのデータ転送制限をかけているサービスがあるのでは、と筆者の頭には浮かんできます。

図1. コンピューティングサービスにおけるデータ転送性能の比較(2015年6月時点)
図1. コンピューティングサービスにおけるデータ転送性能の比較(2015年6月時点)

 これを踏まえて、別の検証結果を見ていきましょう。図2は、オンラインストレージにおけるデータ転送(アップロード)の性能限界を調べたものです。どこのサービスかは、あえて伏せておきますが、このサービスではデータ転送性能(アップロード)が7.7Mbit/sec付近で行ったり来たりしていました。この時に行ったデータ転送は、容量が2Gバイトのファイルをオンラインストレージに継続的に送り出すというものです。

図2. オンラインストレージにおけるデータ転送(アップロード)の性能限界(2015年6月時点)
図2.  オンラインストレージにおけるデータ転送(アップロード)の性能限界(2015年6月時点)

 昨今、さまざまなデータをパブリッククラウドで解析・集計する動きが出てきています。前述のオンラインストレージにおけるデータ転送(アップロード)の性能限界を1つの指標として、データ容量の大きさによって、データ転送完了までにどれだけの時間がかかるか試算しています。

 「図1. コンピューティングサービスにおけるデータ転送性能の比較(2015年6月時点)」と併せてパブリッククラウドの利用方法を類推すると、データ容量が10Gバイト未満のデータであれば、いまのところ許容できそうですが、桁が1つ上のデータ容量では、データ収集から解析までの手法を工夫する必要があることが分かります。月次単位のバッチ処理であっても、データ転送に1日以上かかっているのであっては、さすがにやるせない気持ちになってきます。

 これらを踏まえて、以前『モノのインターネット(IoT)の不都合な真実』でご紹介した「センサーからデータを集める」という仕組みについて、パブリッククラウドに当てはめて整理していましょう。

 最初から答えをいってしまえば、「図3. データ転送制限とパブリッククラウドの活用方法」には、仮にパブリッククラウド側にデータ転送制限(アップロード)があったと想定して、データは最初からパブリッククラウド側へゆっくり貯め込んでいくことを示しています。一度にデータ転送ができなければ、小さい単位でゆっくりと時間をかけてデータを貯め込み、一気に解析処理へ回すという考え方です。

図3. データ転送制限とパブリッククラウドの活用方法
図3. データ転送制限とパブリッククラウドの活用方法

 至極当たり前のシステム設計思想ではありますが、「パブリッククラウドは無尽蔵に何でもできる!」と思われている方には、しっかりと理解しておいていただきたいことの一つです(読者の皆さまは大丈夫かと思いますが)。元AWSエバンジェリストの玉川氏が創業して現在ステルスモードにあるIoT向けのプラットフォームサービス「SORACOM」のようなサービスが求められていくのも、おそらく時間の問題なのでしょう。

 余談ですが、私たちが使うパブリッククラウドがインターネットにどれだけの速度で接続されているかを垣間見るために、世界最高速の情報インフラを見ていきましょう。

 図4は、インターネット相互接続拠点における一拠点あたりの最高回線接続帯域を示したものです。インターネットは全世界に点在する数多くのインターネット相互接続拠点や独自回線が相互接続されることで、でき上がっています。このグラフでは、1つの拠点に接続している回線を速度が高速な順に並べています。

 この回線の直下にデータセンターがあれば、そのデータセンターの接続上限は、この一拠点の最高回線接続帯域と類推できます(当然、別の地域へも別の回線が接続されてはいるのですが、そこは今回は割愛します)。

図4. インターネット相互接続拠点における一拠点あたりの最高回線接続帯域
図4.  インターネット相互接続拠点における一拠点あたりの最高回線接続帯域

 現在私たちが使っているWANおよびLANの最高帯域は100Gbit/secのEthernetとInfiniBandです。いずれも普及が始まり世界的にも利用されるようになってきていますが、さらに一桁上のデバイスは、まだ一般企業が気軽に買えるようなものではありません。

 1,000Gbit/secのEthernet、いわゆる1Terabit Ethernetの出現が1973年から予見されていますが、いまだ研究レベルのデバイスでも実用化の一歩手前といったところです。

 私たちがパブリッククラウドを利用する時、こういった回線上の物理限界があり、またサービスを公平にユーザーへ提供するために、なんらかの性能制限を加えられていることをご理解いただければと思います。

 こういった制限も技術革新と回線帯域の増強により、年々緩和されていくものではありますが、それが一気に無制限のものには成り得ないということもご理解ください。

会員登録無料すると、続きをお読みいただけます

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

次のページ
パブリッククラウドの最適設計を考える

この記事は参考になりましたか?

  • このエントリーをはてなブックマークに追加
いまさら聞けないクラウドのアレコレ連載記事一覧

もっと読む

この記事の著者

松本 直人(マツモト ナオト)

1996年より特別第二種通信事業者のエンジニアとしてインターネット網整備に従事。その後システム・コンサルタント,ビジネス・コンサルタントを経て2010年より,さくらインターネット株式会社 / さくらインターネット 研究所 上級研究員。(2016年より一時退任)研究テーマはネットワーク仮想化など。3~5年先に必要とされる技術研究に取り組み、世の中に情報共有することを活動基本としている。著書: 『モノのインターネットのコトハジメ』,『角川インターネット講座 ~ビッグデータを開拓せよ~』など多数。情報処理学会 インターネットと運用技術研究会 幹事

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

  • このエントリーをはてなブックマークに追加
CodeZine(コードジン)
https://codezine.jp/article/detail/8829 2015/07/22 14:00

おすすめ

アクセスランキング

アクセスランキング

イベント

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング