20160625 cloud samuai_final
-
Upload
takano-masaru -
Category
Technology
-
view
754 -
download
1
Transcript of 20160625 cloud samuai_final
Windows Server 2016 Storage 新機能紹介とストレージの将来像
Interact x Cloud Samurai 2016 Summer 2016/06/25
System Center User Group JapanMicrosoft MVP - Cloud and Datacenter Management
高野 勝( Masaru Takano )
高野 勝( Masaru Takano ) 日本ヒューレット・パッカード 所属。 専門分野:ストレージ Microsoft MVP - Cloud and Datacenter Management
自己紹介
2
セッションの目的◦ Windows 2016 の新機能を中心に Windows に実装されているストレージ
機能について特徴や使い方理解する
◦ ストレージの将来像を考える事で、上記の新機能が将来像の中でどういった役割を果たしているか、なぜ必要なのかを考える
本日の目的
3
Windows Server 2016 Storage 新機能◦ SMB 3.1.1◦ Storage Spaces Direct◦ Storage Replica◦ Storage QoS
ストレージの将来像 まとめ
アジェンダ
4
Windows Server 2016 Storage 新機能
5
SMB 3.1.1
6
SMB 2.0 以降とレガシーな SMB 1.0/CIFS とは別物 より速く! FC SAN と同等のパフォーマンスをシンプルに より安全に! 成熟した管理機能、セキュリティ、高可用性
SMBLAN ManagerWindows 95Windows NT
SMB 2.0Windows Vista & Server 2008
SMB 2.1Windows 7 & Server 2008 R2
SMB 3.0/3.0.2Windows 8 & Server 2012
SMB 3.1.1Windows 10 & Server 2016
1980年代~ 2006年 2009年 2012年 2015年
・コマンドの結合・読取 / 書込サイズの拡大・切断時の透過的再接続
・メッセージ署名の改善 (HMAC SHA-256)・スケーラビリティの向上・シンボリックリンクのサポート
・クライアント oplock リース モデル・大きい MTU のサポート ( 最大 64KB → 1MB)・スリープモード移行の強化
SMB 3.x での新機能・改良点
7
セキュリティ
管理
パフォーマンス
可用性 SMB 透過フェールオーバー
SMB スケールアウト
SMB マルチチャネル
ボリュームシャドーコピーの
SMB 共有対応
SMB 暗号化
SMBディレクトリース
オフロード・データ転送 (ODX)
SMB 用 Windows
PowerShell
SMB 用の新しいパフォーマンス
カウンター
SOFS クライアントの自動再配分
セッション事前認証の強化
(SHA-512)
SMB 暗号化の高速化
(AES-128-GCM)
クラスター環境での SMB Dialect
自動判別
スケールアウト ファイルサーバーでの複数 SMB インスタンスの
サポート
SMB ダイレクト
SMB イベントメッセージの強化
Hyper-V ライブマイグレーション
over SMBSMB 1.0 のオプション化
ゲスト クラスタリング(VHDX) の強化
SMB 帯域幅管理の向上
3.0.2 3.1.13.0.0
SMB ダイレクト によるオフロード
8
ローカルストレージに匹敵する超高速な低遅延ネットワーク I/O 処理におけるサーバー CPU 負荷の削減 SMB マルチチャネルとの併用による高速化と冗長化に対応
RDMA を活用した高速なアクセス基盤の実現
サーバー /クライアント
ファイルサーバー
SMB サーバー
SMB クライアント
ユーザーモードApplication
DiskR-NIC
RDMA サポートのネットワー
ク
NTFSSCSI
RDMA サポートのネットワー
ク
R-NIC
RDMA (Remote Direct Memory Access)ネットワークデータ転送を、 OS を介さずに
ディスクと NIC で直接やり取りをする I/O 方式
RDMA 対応ネットワーク機器が必要
※ 3 種類の RDMA 提供方式 ・ iWARP ・ InfiniBand ・ RoCE (RDMA over Converged Ethernet)
カーネルモード
記憶域スペース (Storage Space) とは
9
記憶域スペース(仮想ディスク)◦ 記憶域プールから必要な領域を切り出し◦ 柔軟な回復性タイプ
記憶域プール◦ 複数の物理ディスクを論理的に1つに統合◦ ディスク増設時に動的な容量拡張が可能◦ マルチテナントを想定した管理者の定義
記憶域スペースは Windows Sever 2012 から実装
仮想ディスク 仮想ディスク記憶域
スペース
記憶域プール
サーバー
物理ディスク or
SASSATAUSB
共有 SAS
記憶域スペースの構造
10
物理ディスク
記憶域プール
仮想ディスク
記憶域スペース
Storage Spaces Direct
11
File Server File Server
共有ストレージありActive Active
記憶域スペース
共有ストレージなし (Storage Spaces Direct)Active
File Server File Server
Active ActiveFile Server File Server
Active
記憶域スペース
各ノードの“ローカルストレージ”で SOFS の信頼性と拡張性を実現
Storage Spaces Direct の利用パターン
12
Compute Node / Storage Node 分離• 明確な管理上の境界と柔軟な拡張性• 大規模環境に最適
Compute Node/Storage Node 同居• シンプルなシステム構成• 中小規模環境の最適
SCALE-OUT FILE SERVER CLUSTER
Private Cloud Storage
HYPER-V CLUSTER(S)
SMB3 STORAGE NETWORK FABRIC
Compute Node と Storage Node を分離• 明確な管理上の境界と柔軟な拡張性• 大規模環境に最適
HYPER-V CLUSTER
Hyper-convergedCompute Node と Storage Node を同居• 管理対象ノード数の削減• 中小規模環境に最適
Storage Spaces Direct のデータ配置
13
仮想ディスク◦ 1GB ごとのエクステント ( データ領域 ) による構成
(100GB の仮想ディスクであれば 100個のエクステント )
スケールアウト◦ エクステント単位で各サーバーに分散配置
回復性◦ 同一構成のエクステントを別のサーバー上で保持
(3 方向ミラーにより、 3 つのサーバーに配置される )
Extent A Extent B Extent C仮想ディスク エクステント
ノード#5
ノード#2
ノード#3
ノード#4
ノード#1
A A’ A’’B B’ B’’C C’C’’
Storage Spaces Direct のスケーラビリティ
14
3 – 12 ノード構成◦ 3ノードからサポート ( TP5 より 3ノード構成をサポート)◦ 最大 12ノードまで拡大可能
拡張可能な記憶域プール◦ 仮想ディスク上のデータを複数ノードに分散配置
高速なクラスター内通信◦ SMB 3.1.1◦ SMB ダイレクト (RDMA) による
CPU 負荷およびネットワーク遅延の低減
容易なストレージ拡張◦ ストレージノードの追加およびプールの拡張後、データを自動再配置
ノード#5
ノード#2
ノード#3
ノード#4
ノード#1
A A’ A’’B B’B’’CC’
C’’D D’ D’
’
3方向ミラー
Storage Spaces Direct の管理方法の追加
15
SCVMM からも Storage Spaces Direct の管理が可能になった( TP5 からの追加)
NVMe + SSD + HDD 3階層構成の追加
16
SSD+HDD の構成に加え TP5 より 3階層構成がサポート( TP5 からの追加) 以下のパターンの構成が可能
◦ SSD + HDD◦ NVMe + HDD◦ NVMe + SSD◦ SSD + SSD◦ NVMe + SSD + HDD
NVMe とは
17
「NVM Express(Non-Volatile Memory Express、NVMe)」 PCI Express の技術を使用した接続規格 主に SSD 用に設計された接続規格
◦ SCSI や SATA ( Serial ATA )では SSD の能力についてこれなくなってしまった◦ SATA の転送速度は 600MB/s◦ PCI Express Gen ( Generation ) 3 は 1 レーン 当たり約 1GB/s の転送速度があり、 PCI Express Gen3x4 レーン の場合
4GB/s ◦ たった 1 本の SSD で 44万 IOPS を出すことも可能にhttp://www.intel.co.jp/content/www/jp/ja/solid-state-drives/solid-state-drives-750-series.html
Storage Replica
18
柔軟性
• ストレージ ハードウェア非依存
• 同期モード / 非同期モード
• 4 種類の複製パターン
複製機能の提供
• ブロックレベル、ボリューム単位
• SMB 3.1.1 による転送(SMB ダイレクト / マルチチャネル等の活用 )
統合管理
• フェールオーバークラスターマネージャーまたは PowerShell による管理
• Azure Site Recovery との連携も可能になる予定
拠点 A 拠点 B
Storage Replica の動作モード:同期モード
19
拠点 B 拠点 B
アプリケーション(local or remote)
Source Server( 複製元ノード )
Data Log
1
t 2
Destination Server
( 複製先ノード )
Data Log
t1 3
25
4
• I/O 発生時に、複製元 / 複製先両方のログディスクへの書き込みを保証する
Storage Replica の動作モード:非同期モード
20
拠点 B 拠点 B
アプリケーション(local or remote)
Source Server( 複製元ノード )
Data Log
1
t 2
Destination Server
( 複製先ノード )
Data Log
t1 5
43
6
• 複製先ノードでの書き込みを待たずに I/O 完了とみなす• ネットワークの帯域幅や遅延で同期モードを利用できない場合に検討
Storage Replica のシステム要件
21
必須要件Windows Server 2016 Datacenter EditionActive Directoryディスク [ データディスク / ログディスク共通 ]
GPT 形式 (MBR 形式は不可 )JBOD, ローカルディスク , SAN (iSCSI / FC)
などのストレージ( リムーバブルメディアは不可 )
複製元と複製先での同一ディスク配置構成およびパーティション
%SystemRoot%, page file, ハイバネーションファイル , Dump ファイルを含まないこと
ディスク [ ログディスク ]NTFS/ReFS ボリュームかつ固定サイズ
ファイアウォール ポートSMB, WS-MAN
推奨要件 ( 同期モード ) ネットワーク遅延
平均 5ms 以下 (round-trip) ネットワーク帯域幅
1 Gbps 以上 ディスク [ ログディスク ]
フラッシュストレージ (SSD, NVMe など ) できるだけ多くの空き容量
推奨要件 (非同期モード ) ネットワーク遅延
特に要件なし ネットワーク帯域幅
書込み頻度に依存 (明確な要件なし ) ディスク [ ログディスク ]
( 同期モードと同一 )
Storage Replica を使うための準備
22
機能の追加で「 Storage Replica」を追加
Storage Replica の管理方法
2323
モジュール名 : StorageReplicaGet-SRGroupGet-SRPartnershipNew-SRGroupNew-SRPartnership ( 新規作成 )Remove-SRGroupRemove-SRPartnershipSet-SRGroupSet-SRPartnership ( 複製方向の変更 )Suspend-SRGroupSync-SRGroupTest-SRTopology (Storage Replica システム 要件確認テスト )
Storage Replica : 4 種類の複製パターン
24
同期 /非同期モードを選択可能
手動フェールオーバーのみ対応 (PowerShell / Azure Site Recovery)
「汎用ファイルサーバー」シナリオに最適
《 Server to Server》 2つのサーバー間でのレプリケーション
《 Cluster to Cluster》2つの異なるクラスター間でのレプリケーション
SRV1
SR over SMB3
SRV2
Man
hatta
n DC
Jerse
y City
DC
NODE1 in FSCLUS NODE2 in DRCLUS
NODE3 in FSCLUS NODE4 in DRCLUS
NODE2 in FSCLUS
NODE4 in FSCLUS
NODE1 in DRCLUS
NODE4 in DRCLUS
SR over SMB3
Man
hatta
n DC
Jerse
y City
DC
Sever to Server のクラスター版( 機能/制約等は基本的に同一 )
クラスターによる高可用性 (HA) と、レプリケーションによる災害対策 (DR) をそれぞれ独立した機能として提供
「スケールアウトファイルサーバー」シナリオに最適
Storage Replica : 4 種類の複製パターン
25
SRV1
SR over SMB3
NODE1 in HVCLUS
SR over SMB3
NODE3 in HVCLUS
NODE2 in HVCLUS NODE4 in HVCLUS
Man
hatta
n DC
Jerse
y City
DC
高可用性 (HA) と災害対策 (DR) を組み合わせて提供
自動的なフェールオーバーが可能
フェールオーバー クラスターマネージャーによる GUI 管理が可能
同期モードのみサポート
「 Hyper-V」や「汎用ファイルサーバー」に最適 ( スケールアウトファイルサーバーには不適 )
《 Stretch Cluster》 単一クラスター内でのレプリケーション
《 Server to Self》 サーバー内でのボリューム間レプリケーション
ボリュームの移設・転送に最適( データコピーが実施できない環境など )
Storage Replica : 構成と運用 Tips
26
運用 Tips◦ 「 New-SRPartnership」のログサイズが小さすぎるとコマンドが実行できない
(エラーになる)◦ 初回実行には結構時間がかかる◦ Destination側のデータ Volume は表示されなくなる◦ Destination側を表示する場合は「 Remove-SRPartnership」で一旦関連を解除
構成 Tips◦ Workgrpoup 認証 未サポート◦ 別な Windows Domain 同士の Storage Replica は可能◦ Cluster to Server , Server to Cluster の複製は未サポート。この場合は Server側を
シングルノードクラスタ構成にする◦ GUI でコントロールできるのはクラスタ構成のみ
Storage Quality of Services ( QoS)
27
柔軟性
• 柔軟かつ公平なリソースの分配 制御対象:
VHD, 仮想マシン , サービス , テナント 制御項目:
最小 IOPS, 最大 IOPS
帯域管理機能の進化
• ストレージを共有するすべての Hyper-V 環境を、ポリシーによって一元管理
• 帯域管理に必要なメトリクスを自動計測 (計測対象: VHD, VM, ホスト , ボリューム )
統合管理
• System Center (SCVMM / SCOM) または PowerShell による管理
• Storage Health Provider によるすべてのストレージレイヤーを包含した管理
仮想マシン
RateLimiters
RateLimiters
RateLimiters
RateLimiters
Hyper-V クラスター
SMB 3.x ストレージネットワーク
I/Oscheduler
I/Oscheduler
I/Oscheduler
スケールアウト ファイルサーバーポリシー
マネージャー
Storage performance metrics
QoS のタイプ
28
マルチインスタンス 個々の仮想マシンに対して適用 仮想マシン単位で提供するサービスに最適
シングルインスタンス 複数の VM をまとめたリソースに適用 クラスターやテナント単位で提供する
サービスに最適
020406080
100120140160180200
120
80
VM1 VM2VM1 VM20
20
40
60
80
100
120
140
160
180
200
200 200
Max
imum
IOPs
= 2
00
Max
imum
IOPs
= 2
00
PowerShell からの管理
29
モジュール名 : StorageQoS◦ Get-StorageQosFlow◦ Get-StorageQosPolicy◦ Get-StorageQosVolume◦ New-StorageQosPolicy◦ Remove-StorageQosPolicy
# QoS ポリシーの作成New-StorageQosPolicy -Name DesktopVM -PolicyType MultiInstance -MaximumIops 200
ストレージの将来像
30
2016年 -2017年は変革の年
31
CPU の世界ではムーアの法則が終焉
AFA (オールフラッシュストレージ)の台頭により市場&メジャープレイヤーに変化が◦ 今現在の日本市場における AFA の導入率は約 4.8%◦ 年率 150% で成長中◦ 2022年に外付けストレージの 50% が AFAへ移行すると予想されている
変化のキーファクター◦ 単価の下落
2017年中に SAS HDD よりもフラッシュ Disk の容量単価が下回ると予想
◦ フラッシュ容量の劇的な向上と HDD 容量の頭打ち フラッシュは 2倍 /年を超えるスピードで容量が増加 2016年 4TB, 8TB 2017年 16TB, 32TB
新たな需要の発生
32
アプリケーションへの貢献◦ データベース、ミドルウェアなどの処理が遅い理由の多くがストレージボトルネック◦ SSD の登場によりストレージボトルネックが解消◦ 今まで処理に時間がかかって実現できなかった事が簡単に実現可能に
新たなアプリケーションの登場(期待)◦ SSD を使う事を前提としたアプリケーション(フラッシュネイティブアプリケーション)の登場◦ 超低レイテンシ(ミリセカンド→マイクロセカンド)を使った環境へ
リアルタイム処理 拡張現実( AR)
新たな問題の発生
33
ボトルネックの変化◦ 旧来のストレージボトルネックは主に HDD の処理待ちが多かった◦ SSD のスピードは HDD の 100倍程度◦ ストレージのボトルネックはディスク部分からヘッドへと移行◦ ヘッドボトルネックが解消するとサーバーとストレージ間の経路がボトルネックに
既存のアーキテクチャを覆すハードウェアの登場
34
ここからは HPE としてのアプローチ
PM Brings Storage
メモリスロットへ
PM
メモリの速度
ストレージの耐久性
ストレージの場所をサーバーにより近い場所へ経路がボトルネックになるなら直接挿しちゃえばいいじゃない
不揮発性メモリ( Persistent Memory) の登場
不揮発性メモリ( Persistent Memory)
1987 2000 2010 2016
4ms HDD
0.05ms SSD
20ns Memristor
15x faster in 20 years10-2
10-3
10-4
10-810-710-610-5
10-1 Persistent store access times60ms HDD
½ million x faster in 5 years
Storage technology trajectory
Memory technology trajectory
不揮発性メモリの速度ってどのくらい?
CPU からストレージまでの距離
CPU socket Memory Subsystem Storage Subsystem
Latency to data
Data volatility
Time
従来のデザイン :
Time
Persistent memory 用のデザイン :SoC: CPU + Memory (Storage)
Latency to data
Data volatility
Executionunits
CacheL1
CacheL2
Persistent memory Flash
Main memory(DRAM)
IO accelerator(Flash) Cache HDD /
SSD ArchiveCacheL1
CacheL2
CacheL3
Executionunits
アプリケーションからストレージへのアクセスステップも変化
Compiler
TodayHorizon 3:Languages
Horizon 1:PM Middleware
Horizon 2:PM Libraries
Application
File System File System
File System
PMSSD
Application Application
ApplicationPM Library
File System
PM PM
Disk Driver
コンピュータデザインの変化
プロセッサを中心としたデザインから…
SoC SoCSoC
SoC
SoC
SoCSoC
SoCSoC
SoC
SoC
SoC
MemoryMemory
Mem
ory
Mem
oryM
emory
Memory
MemoryMemory
Mem
ory
Mem
ory
Mem
ory
Memory
Memory+
Fabric
SoC SoC
SoCS
oC
SoC
SoCSoC
SoC
SoC
SoC
SoC
SoC
…メモリを中心としたデザインに変化
NVM Express と RDMANVM Express (NVMe)
SCSI Replacement – Block protocol over PCIeInitially for direct attached SSDsVery efficient queue and data flow structures< 10 uS read latencies demonstrated
RDMADefined for storage (ISER) for 10 yearsGaining popularity due to flash memoryEliminates software overhead by avoiding kernel
両方を組み合わせた「 Networked NVMe」
HPE の目指すコンピュータの新しい形
41
The Machine
Photonics光通信(~ 20TB/s)
用途特化コア 不揮発メモリプール
まとめ
42
Windows2016 のストレージ機能は主に以下の機能が拡充・追加されています◦ SMB3.1.1◦ Storage Spaces Direct◦ Storage Replica◦ Storage QoS
実はこの先数年はハードウェアも熱い!◦ ハードウェアにも面白い機能がたくさん搭載されるので、お見逃しなく
43
ご清聴、ありがとうございました。
ご不明点等ございましたら、お気軽にご質問ください。