Innovation Leading Company

サーバーとストレージがくっつく?データ爆発時代に対応する為の次世代ハードウェアとは

2018年4月27日

サーバーとストレージがくっつく?データ爆発時代に対応する為の次世代ハードウェアとは

多くのお客様がデータ処理をよりリアルタイムに処理したいという要望を持っています。また多くのアナリストが今後数年間に世界中で生み出されるデータは現状とは比べ物にならない程大きくなる、いわゆるデータ爆発の時代が到来すると予想しています。この状況にHPEがどう対応しようとしているか、HPEのエバンジェリストが近未来のテクノロジーについて解説します。

高野 勝
高野 勝
日本ヒューレット・パッカード
データプラットフォーム事業統括 エバンジェリスト
国内SIerでシステムインテグレーションのエンジニアを経験後、外資系ストレージベンダーを経てHPEへ入社。現在はデータプラットフォーム事業統括部に籍を置きストレージ業界の課題や展望など自社製品にとらわれない啓蒙活動を広く行っている。Microsoft製品にも明るくMicrosoft MVPを6年連続受賞している。

こんにちは。日本ヒューレット・パッカードの高野です。
前回のブログでは現在プライマリストレージで主力になりつつあるフラッシュにフォーカスを当てて、フラッシュのスピートをどう活かすか?またフラッシュがもたらす効果は単にデータ処理の速さだけでなく、その経済性にも注目が集まっている事などを書きました。
今回のブログでは、さらにその先どういった事が予想され、それにHPEがどう対応しようとしているかについて書いていきたいと思います。

フラッシュを超える次世代ハイブリッドストレージ

フラッシュの良さは前回のブログで書いたとおりですが「処理をもっと早くしたい、特にレイテンシを下げたい」というご要望をいただくことがあります。ドライブの性能にはいくつか要件があり、シーケンシャルI/O(MB/Sec)、ランダムI/O(IOPS)、レイテンシなどが代表的なものですが、シーケンシャルI/Oはドライブを並列に処理することで性能を向上させることが可能です。

旧来のハードディスクベースのストレージにディスクを何台も搭載するのは容量確保や冗長化に加えて、並列処理させることで処理速度向上の為でもあったわけです。

ところが、ランダムI/Oやレイテンシ性能はドライブの性能自体に大きく依存するためドライブ自体の性能を上げる必要があります。前回ご紹介したフラッシュが注目されているのはこういった理由もあるのです。

目安の数値として、ハードディスク(SAS)で8ms前後、フラッシュで1ms前後と言われています。これをもっと下げるアプローチとしてサーバーに搭載したメモリやサーバーのPCIeにフラッシュを直接接続するなどのインメモリ技術を使うこともあります。

解析処理や3D CAD、メディアやエンターテイメント分野の画像処理などは低いレイテンシが欲しい使い方の典型的な例でしょう。

ただインメモリ処理の多くはデータのバックアップやクローンなど、ストレージが持っていたいわゆる「データサービス」の機能を持っていません。

この両方を解消する方法として3PARではヘッドにメモリを搭載して、フラッシュに置いたデータをキャッシュすることでパフォーマンスを上げる仕組みを提供しています。

現在データをハードディスクに置き、フラッシュをキャッシュとして使うモデルをハイブリッドストレージと呼んでいますが、データをフラッシュに置き、メモリをキャッシュとして使うモデルは次世代のハイブリッドと呼んで良いでしょう。

3PARでは下記のようなメモリアーキテクチャを使用してハイブリッドを実現しています。

以上のような理由からメインストリームになりつつあるオールフラッシュアレイですが、現状はハードディスクで稼働していたアプリケーションをオールフラッシュに移行したにすぎません。

メモリとっても種類があり、主記憶装置と呼ばれるDIMMを想像される方が多いと思いますが、ここで使われているのはSCM(ストレージクラスメモリ)と呼ばれるDIMMとフラッシュの間くらいの価格・性能・容量を持つ新しいタイプのメモリです。SCMを高速なNVMeを経由して提供することで既存のデータサービスを提供しながら高速なデータ提供を可能としています。

性能を自在に変えるフェデレーション機能

次世代メモリ技術を使ってパフォーマンスを上げる仕組みを解説しましたが、一般的にアプリケーションがストレージに掛ける負荷というのは常に一定ではありません。

システムの繁忙期や解析実行時だけ高いIOを必要としていて、それ以外はあまり負荷は高くないというシチュエーションは皆さんお持ちなのではないでしょうか?

そういったデータを常にパフォーマンスの高い(=高価な)ストレージに置いておくのは費用的に効率的とは言えません。

こういった状況を回避するために3PARではフェデレーションという機能を提供しています。フェデレーションはストレージの筐体間でデータをオンラインで移動する機能ですが、WWNなどのサーバーからアクセスする情報は保持したままデータの移動ができるというのが特徴です。これにより繁忙期の前にヘッドにSCMを搭載した高速ストレージに移動して、繁忙期が終わったら安いモデルのストレージへ移動するといった運用が可能になります。

またこのフェデレーションの機能を使って、ハードウェアのリプレース時のダウンタイムを最小限にすることも可能です。新しい機器をフェデレーションのリングに入れて、データをオンラインで移行した後古い機器を取り外すと行った方法で機器の入れ替えを行うことができます。

近未来のコンピュータのデザインとは?

今現在はSCMを使用して高速なデータ処理を可能としていますが、近い将来それでも処理スピードが足りなくなると、多くのアナリストが予想しています。

その大きな理由が「ムーアの法則の終わり」と「データ爆発」です。

2017年現在世界中には約12ZB(ゼタバイト)のデータがあると言われていますが、これが2020年には40ZBくらいまで拡大すると予想されています。コンピュータが一般に普及しはじめた1990年台から20年掛けて作ったデータが12ZBなのに、あと2年で28ZB作り出されるわけです。この増えるデータの多くがIoTに代表される「機械が作り出したデータ」だと言われています。

今後はこのデータを使うために分析・解析処理をしなければいけませんが、CPUの処理スピードがこの状況に追いついていません。また昨今キーワードで取り上げられることがある「ムーアの法則の終わり」と呼ばれるCPU進化の頭打ちもこの状況に拍車をかけています。

処理すべきデータの急激な増え方にCPU処理スピードの進化がついていけなくなっているということです。

この状況を見越してHPEでは「The Machine」という次世代のコンピュータを提唱し、開発しています。

The Machineは従来CPUを中心にデザインされていたコンピュータのアーキテクチャをメモリ中心に変えるものです。

今まではCPUを中心としてメモリやディスクドライブが構成されていたため、メモリからディスクドライブへのデータ移動や、隣のCPUとのデータのやり取りにCPUの処理能力を必要としていました。実はこれが非常に大きな負荷となっており、肝心のデータ処理にCPUの性能を使えないという状況が置きていました。

これを巨大な不揮発性のメモリ(再起動してもデータが消えないメモリ)を作り、そこにCPUを割り当てる方法でコンピュータのデザインを再構成したのがThe Machineです。これによりメモリとディスクドライブとのデータやり取りは必要を無くなります。また、置いてあるデータに目的に特化したCPUを自在に割り当てられるようになり、CPU間のデータコピーも必要最小限ですみます。

こうした事で不足していたCPUの処理性能を補っていくというアプローチです。

The Machineはまだテスト段階ですが、すでにベータマシンは完成しており160TBのメモリを持つマシンとして稼働しています。

こちらにまとまった記事がありますので、興味がある方は是非読んでみてください。

また実際にテストでThe Machineを使った結果、航空機の運行シミュレーションで旧来の100倍、金融モデルのシミュレーションで10,000倍という性能を出しているようです。

The Machineの市場への投入は2020年を予定しており、今の所予定通り進んでいるとの事です。出てすぐにHPEの製品ラインナップに乗って、どなたも使えるという訳では無いですが、非常に大きな演算処理能力を必要とするお客からはベータから使ってみたいというご要望をたくさんいただいているようです。

いかがでしたでしょうか?今回はちょっと近未来のテクノロジーについて書きましたが、この状況がどうなるか数年後には解ることでしょう。

次回、2017年にHPEに合流したNimbleストレージとInfoSightについてご紹介します。