DevとOpsのインフラに対する観点と、両者に最適な「HPE SimpliVity」
DevとOpsを対立から融合へと変え、密接に連携するプラクティスがDevOpsだ。開発と運用のプラクティスについての話題が多いものの、インフラも重要な要素となる。DevOpsにとって最適なインフラはどんなものだろうか。
荒木氏によると、Devにとってインフラは開発環境の利用が柔軟にできて、バックアップは必要なだけできて、開発環境が集中管理できるものがいい。またOpsにとっては、どこからでも同じように運用管理ができて、データの保護や復旧作業が簡単ですぐにできて、スケールアップやアウトが柔軟にできて、インフラの運用や監視にAIが使えたほうがいい。
こうしたDevOpsの要件にうまく合致するのがハイパーコンバージドインフラ(HCI)。サーバーのソフトウェアを使い、仮想化環境を実現するソリューションだ。数あるHCIのなかでも最新で、「DevOpsで使ってほしい」と荒木氏がすすめするのがHPE SimpliVity(以下、SimpliVity)だ。
特徴は簡単な操作で素早くバックアップができることと、必要な時に必要な分だけリソースを柔軟に追加または取り外しができること。またサーバーのセンサーデータから故障を予測して、事前に交換できるため安心して運用できる(詳しくは後述)。データの重複排除や圧縮ができるため、バックアップ時間が短くてすむ。システム管理の作業はとてもシンプルで、インフラの管理や監視にAIを活用しているのも特徴だ。
保守性についても強みがある。リモート環境でも同じツールを用いて一元管理できるのが特徴だ。リモート環境間でバックアップを取って、災害対策に役立てることができる。このリモート環境間のバックアップで重複排除を有効にしておくと、WANの帯域を圧迫することなくスムーズにバックアップできる。
これらのSimpliVityの特徴を活かした得意なソリューションを挙げておこう。リモートオフィスや開発環境など、サーバーが点在する環境でのSimpliVityの機能を活用したDRの仕組みだ。SimpliVityでは離れたサーバー間でデータを互いに持ち合う仕組みがある。そのためある拠点で定期メンテナンスや障害が発生したとしても、別の拠点にあるバックアップからシステムを復元して運用や開発を継続できる。リモートサーバー間のバックアップだけだと心許ないなら、中央にあるサーバーにもデータを一元的にバックアップしておくことも可能だ。
もちろんクラウドも忘れてはいない。クラウドレディ、つまりハイブリッドクラウド環境を構築できることも重要になる。そこで有効になるのがAzure Stack HCIだ。これはWindows Server 2019 DataCenter Editionを用いて実現するハイパーコンバージド基盤となる。主なワークロードはオンプレミスにあるWindows Serverで稼働させ、DRやオフサイトバックアップなどでクラウドを使いたいという時に有効だ。クラウドとの連携やデータの同期はAzureの管理機能を利用する。
なおAzure Stack HCIはマイクロソフトが認定したサーバー構成をとる必要がある。HPEではラック型からタワー型まで幅広く対応機種がそろっているのが特徴だ。そのため本社、支店、工場などサーバー負荷に応じて適切なモデルを選ぶことが可能だ。
またSimpliVityのクラウド管理ツール「InfoSight」もAzure Stack HCIで利用可能だ。もともとInfoSightは「Nimble」や「3PAR」などストレージ製品の保守のためのサービスで、機器のセンサーデータをクラウドで収集し、分析することで故障時期を自動で予測することができる。故障する前に予防的に交換できるため、突然停止することがなく安定して運用することができる。2019年からはSimpliVityの他に「ProLiant」も対応となり、対応機種がますます拡大している。
最新のHCIを支えるCPUとメモリテクノロジー
HCIに使われている最新テクノロジーについても触れておこう。まずはCPUから。現在のメインストリーム向けは第二世代 Intel Xeonスケーラブルプロセッサで、コードネームでは「CascadeLake」と呼ばれていた。2020年春に「CascadeLake-Refresh」と呼ばれる改良版が発表されて、コストパフォーマンスが向上した。
5年前のシステムと比較すると最大で3.5倍パフォーマンスが向上している。新たに追加されたインテル・ディープラーニング・ブーストを活用すると、推論向けAI性能は最大で14倍になる(2017年との比較)。CaffeやTensorFlowなど機械学習のフレームワークに最適化されている。高性能なコンピュータ・ビジョンやディープラーニングを実行するプロセスをチップに組み込めるOpenVINOツールキットもあり、全般的にAI対応が強化されているのが分かる。
もう1つはメモリだ。第二世代Intel Xeon スケーラブルプロセッサ向けに発表されたIntel Optane DCパーシステントメモリーがある。手ごろな価格、大容量、データ永続性がいいバランスで実現できるテクノロジーだ。128GB/256GB/512GBで提供される。インメモリデータベースにおけるDRAMの置き換え、ソフトウェアライセンスの低減といったところで効果を発揮しそうだ。
新しいCPUやメモリのテクノロジーでサーバーの集積度が高まることで、ワークロードの集約化やCPU利用率が向上し、IT基盤の統合化が進む。
最後に荒木氏は次のようにまとめた。「DevOpsの取り組みを成功させるには、DevとOpsが共通の運用観点を持つようにしてください。運用設計は両者で一緒に作りあげていきましょう。また最適なインフラを選択することが重要です。HCIが提供する機能をうまく活用してください」