Stand Mai Neues in der Windows Server 2016 Virtualisierung

Ähnliche Dokumente
Software Defined Storage in Windows 2016

Hochverfügbarkeit mit Windows Server vnext. Carsten Rachfahl Microsoft Hyper-V MVP

WAS IST NEU IN WINDOWS SERVER 2016 TP2 - VIRTUALISIERUNG, CLUSTER & STORAGE

Webinar Neuerungen in Failover Clustering in Carsten Rachfahl Cloud and Datacenter Management MVP Microsoft Regional Director

Manfred Helber Senior Consultant für Microsoft Lösungen

WISSENSWERTES ÜBER WINDOWS SCALE-OUT FILE SERVER

» Hyper-V unter Windows Server 2016

Automatisierung, Virtualisierung & Management Es muss nicht immer VMware sein

Neues aus Redmond: Windows Server 2016 in der Praxis

The Future of Storage JBOD, Storage Spaces, SMB 3.0 and more

IBM Storage Virtualisierungslösungen. sungen

WORTMANN AG empfiehlt Windows.

Windows Server 2016 Storage Spaces Direct (S2D)

PROVIGO MICROSOFT NAS 2170M

HyperV und vnext - ein aktueller Blick auf den Stand der Technologie. Dipl.-Inf. Frank Friebe

PROVIGO MICROSOFT NAS 4275M

SMB v 3.1, WIN10, Skype+Lync. Bernhard Schnabel Carpe diem GmbH

Windows Server 2016 Microsoft's neues Flagschiff

Neues in Hyper-V Version 2

Windows Server Windows, die Cloud kommt in mein Rechenzentrum

Windows Server 2016 Storage Spaces Direct Cluster. Marc Grote

Windows Server 2016 richtig lizenziert

Windows Server 2016 Storage Spaces Direct Cluster. Marc Grote

Oracle Database Appliance und Virtualisierung: OVM oder KVM?

Storage 3.0 mit Windows Server 2012 (R2): Neue Technologien - Neue Szenarien. Carsten Rachfahl, MVP Virtual Machine

HYPER-CONVERGED INFRASTRUCTURE. Höhere Performance Reduzierte Ausfallzeiten Verbesserte Auslastung Niedrigere Kosten

Windows Server 2016 Was ist neu im Komplettueberblick

Herzlich Willkommen zum HP Storage Summit 2015

Inhalt. Einleitung. Hyper-V im Überblick. Was wir Ihnen bieten... Das Buch als Ganzes...

Manfred Helber Microsoft Senior PreSales Consultant

Infrastructure days 2017 INFRASTRUCTURE DAYS 2017

ODA Erfahrungen und Neuigkeiten

Ist nur Appliance ODA schon Rechenzentrum in der Kiste?

Neuerungen in System Center 2016 Virtual Machine Manager. Marc.Grote aka Jens Mander aka Marcimarc

Veeam und Microsoft. Marco Horstmann System Engineer, Veeam

SAFE HARBOR STATEMENT

Keep your SAN simple Spiegeln stag Replizieren

SAP HANA Betriebsprozesse im Rechenzentrum

Microsoft System Center Data Protection Manager Hatim SAOUDI Senior IT Consultant

Microsoft-Prüfung. Installation, Storage, and Compute with Windows Server Preview EXAM PACK

Implementing a Software- Defined DataCenter MOC 20745

LDom Performance optimieren

Customer Reference Case: Microsoft System Center in the real world

PROFI UND NUTANIX. Portfolioerweiterung im Software Defined Data Center

herzlich vsankameleon Anwendungsbeispiel Titelmasterformat durch Klicken bearbeiten willkommen Titelmasterformat durch Klicken bearbeiten

Veeam Availability Platform. Marco Horstmann System Engineer, Veeam

Linux High Availability out of the Box der Thomas Krenn Cluster

GSCC General Storage Cluster Controller. TSM Verfügbarkeit

euronas Fibre Channel SAN Cluster Datenblatt

Neuerungen in System Center 2016 Virtual Machine Manager. Marc.Grote aka Jens Baier aka Marcimarc

Aufbau und Anwendung eines objektbasierten Speichersystems. guug Frühjahrsfachgespräch Christian Schubert

ConfigMgr und Azure? Conditional Access. PowerBI Azure Infrastruktur. Cloud-Based Distribution Points. Updates and Services.

LDom Performance optimieren

2010 DataCore Software Corp. All rights reserved

IBM Rechenzentrum Boeblingen. Hardware Entwicklung

Windows Server 2016 Überblick

Dell Fluid Cache für SAN Kompatibilitätsmatrix

S3 your Datacenter. Software Defined Object Storage. Die kostengünstige und skalierbare Lösung für Ihre unstrukturierten Daten

IT-Symposium C01 - Virtualisieren mit dem Windows Server 2008

M5000 einfach ablösen durch T4/T5 LDoms und Solaris Zonen

Upgrading Your Supporting Skills to Windows Server 2016

Hyperkonvergente Infrastrukturen in der IT

Cloud OS. eine konsistente Plattform. Private Cloud. Public Cloud. Service Provider

Neuerungen in Windows Server 2012 R2. Marc Grote

SAP und Oracle RAC virtualisiert in Solaris Containern. Dipl.-Ing. Michael Ahrens Principal Solution Architect & SAP Technology Consultant

IT-Effizienzworkshop bei New Vision GmbH Entry und Midrange Disksysteme

WAN-Optimierung SAN über WAN mit Riverbed Granite

SimpliVity. Hyper Converged Infrastruktur. we do IT better

HP converged Storage für Virtualisierung : 3PAR

Wie setzt Swisscom Solaris 11 ein

Herbsttreffen Hands-on Session

Windows Server 2012 Dateiserver Reloaded. Carsten Rachfahl MVP Virtual Machine

Windows Server 2012 R2

Einfuehrung in den System Center Data Protection Manager Marc Grote

Thomas-Krenn.AG Webinar Hochverfügbarkeit und Datensicherheit mit Open-E JovianDSS

Windows Server 2012 and R2

Upgrading Your Skills to MCSA: Windows Server 2016 MOC 20743

Server virtualisieren mit Hyper-V Nils Kaczenski, Teamleiter Microsoft-Consulting

Installation, Storage and Compute with Windows Server Online-Training Examen 740. Ausbildungsinhalte. ITKservice

Oracle Bare Metal Cloud Service

Fit fürs Rechenzentrum Fileservices in Win Server 8

Windows Server 2016 Überblick

FlexFrame for Oracle. Torsten Schlautmann OPITZ CONSULTING Gummersbach GmbH

BFZ Hyper-V WS 2012 R2 und SCVMM 2012 R2 Workshop

Achim Marx Mittwoch, 2. Oktober 2013 S&L Netzwerktechnik GmbH 1

S T O R A G E - LÖ S U N G E N

HA Storage Cluster Lösung

Data Protection von Microsoft Applikationen mit Tivoli Storage Manager

Hybride Cloud Datacenters

Accelerating possibilities

Die nächste Generation der Speichervirtualisierung

HP STOREVIRTUAL STORAGE. Erweiterbarer Speicher für virtualisierte Umgebungen

Hybride Cloud-Infrastrukturen Bereitstellung & Verwaltung mit System Center 2012

1.1 Was wir Ihnen bieten Das Buch als Ganzes Die elf Kapitel Die Autoren... 27

Copyright 2014 Hewlett-Packard Development Company, L.P. The information contained herein is subject to change without notice.

Workshop. Wie erreicht man eine hochverfügbare Serverumgebung mittels Virtualisierung bei kleinem IT-Budget?

13.15 Uhr Teil 1: Warum Sie Windows Server 2008 (R2) Systeme dringend auf eine neuere Plattform migrieren müssen

Transkript:

Stand Mai 2016 Neues in der Windows Server 2016 Virtualisierung

Rechtliches Die nachfolgende Zusammenstellung stammt aus den Vorträgen: Neuen Funktionen der Windows 2016 Virtualisierung Software Defined Storage (SDS) der CDC-Germany 2016. Rachfahl IT-Solutions GmbH & Co.KG

Verbesserungen im Netzwerk Hot-Add und Remove von Netzwerkkarten unterstützt Generation 2 VMs Netzwerkkarten Gerätebenennung Ist kein CDN! Benamung von Netzwerkadaptern in den VM-Einstellungen spiegeln sich in die VM wieder Konfiguration per PowerShell: Im Host: Rename-VMNetworkAdapter In der VM: Get-NetAdapterAdvancedProperty where DisplayValue -eq Name

Speicheränderung während der Laufzeit Bei VMs mit statischen Hauptspeicher kann zur Laufzeit: RAM vergrößert RAM verkleinert werden Bei Dynamic Memory möglich seit Windows Server 2008 R2 SP1 Achtung: Support durch die Anwendung ist wichtig

Secure Boot Support für Linux VMs Kernel Code Integritätsschutz für Linux Gast-Betriebssysteme Linux Support bisher in: Ubuntu 14.04 und später SUSE Linux Enterprise Server 12 Voraussetzungen: Generation 2 VM (UEFI Support) Microsoft stellt für Linux eigene UEFI CertificateAuthority bereit

Nested Virtualisierung Virtualisierung von VMs in VMs Unterstützte Host Betriebssysteme: Windows Server 2016 TP4 und Windows 10 Unterstütze Gast Betriebssystem: Windows Server 2016 TP4 Hypervisor Support momentan nur für Hyper-V Überraschend gute Performance Microsoft Konfigurations-Script unter: https://raw.githubusercontent.com/microsoft/virtualization- Documentation/master/hyperv-tools/Nested/Enable-NestedVm.ps1

Hyper-V Manager Verbesserungen Verschieden Möglichkeiten um das Remotemanagement von Hyper-V zu verbessern: Verbinden zur IP Adresse des Hosts Support für alternative Anmeldedaten Nutzt WinRM anstatt WMI Möglichkeit verschiebe Hyper-V Versionen durch eine Hyper-V Console zu managen (Windows Server 2012, 2012 R2 und 2016)

Hyper-V Backup Neue Backup Schnittstelle in Hyper-V bietet: Build-in Change Block Tracking kein Bedarf mehr für 3 rd Party Kernel Mode Treiber Verbesserung im SAN Handling Verhinderung von SAN Snapshot pro VM durch Umgehung der VSS Schnittstelle bei VM Sicherung Koordinierung eines SAN Snapshots wenn alle VMs in Konsistenten Sicherungszustand SAN

Shielded VMs Shielded VMs garantieren das nur der Besitzer der VM Zugriff erhält nicht der Administrator Alle Zustände der VM sind verschlüsselt (VHDX, SaveState, Livemigration, etc.) Betrieb der VM ist nur in zugewiesenen Fabrics möglich Verschlüsselung erfordert TPM V2, UEFI und Bitlocker Konvertierung einer Gen2 VM während der Laufzeit in Shielded VM möglich

Distributed Storage QoS Virtual Machines Ermöglicht vorhersagbares End-to-End Management der Storage Bandbreite für Hyper-V VMs Storage QoS Monitor identifiziert und beobachtet I/O Verhalten und Nutzung jeder einzelnen VHDX Policy Regelung wieviel Storage Bandbreite eine VHDX bekommt SingleInstance Policy Regelwerte gelten für alle VHDX in der Policy in Summe MultipleInstance Policy Regelwerte gelten für jede individuelle VHDX Komponenten Hyper-V VMs SMB3 Storage Protokoll mit Scale-Out Fileserver Hyper-V Cluster mit CSV Storage Policy Manager Hyper-V Cluster Rate Limiters Scale-out File Server Cluster I/O Sched Rate Limiters Rate Limiters SMB3 Storage Network Fabric I/O Sched Rate Limiters I/O Sched CSV CSV CSV

Storage Spaces Direct (S2D) Ermöglicht das Cloud Hardware Design DAS (shared Nothing) SATA, SAS und NVMe Vermutlich Support für ausgewählte OEM Konfigurationen Einfache Erweiterbarkeit Support für Große Pools (in TP4 240 Geräte) Einfache Erweiterbarkeit durch Hinzufügen von weiteren Knoten Rebalancing der Daten über die Knoten hinweg Management System Center und PowerShell Shared JBOD Storage Hyper-V Clusters SMB3 Storage Network Fabric Scale-Out File Server

Storage Spaces Direct (S2D) High Availability Failover Cluster Fault Tolerant Disk Enclosure Server Haupt-Szenarien Hyper-V IaaS Storage Storage für Backup Storage für Replikation Hyper-convered Hyper-V Cluster Shared JBOD Storage Hyper-V Clusters SMB3 Storage Network Fabric Scale-Out File Server Hyperconverged Hyper-V Cluster

Cluster Rolling Upgrade Rolling Cluster Upgrade ermöglicht es einen Cluster inplace Upzugraden Vorgehen pro Host: Node Freiräumen und aus Cluster nehmen Betriebssystem neu Installieren Node in Cluster aufnehmen Wiederholen bis alle Nodes auf neuem Betriebssystem sind Clusterfunktionslevel erhöhen Unterstütze Cluster Rollen: Hyper-V Scale-Out Fileserver Win2012 Win2016 R2 Win2012 Win2016 R2 Win2012 Win2016 R2

Cluster Resiliency VM Compute Resiliency erhöht die Verfügbarkeit der VMs bei Netzwerkproblemen VM Compute Resiliency Workflows Im Falle eines Fehlers bei der Inter-Cluster- Kommunikation: Knoten wird isoliert Die VMs werden nicht mehr gemonitort SMB-Storage: VMs laufen weiter Block Storage: VMs sind Paused-Critical Kommunikationsprobleme > 4 Minuten Failover der VMs Host wird als Down gekennzeichnet > 3 Isolierungen pro Stunde => Quarantäne VMs laufen erstmal weiter wenn der Knoten Isoliert wird Network Fehler?

Cluster Resiliency Isolated Mode Knoten ist nicht länger aktives Mitglied des Failover Cluster VMs werden auf dem Knoten weiter betrieben Quarantäne Mode Knoten darf dem Cluster nicht mehr beitreten (Standardwert: 2 Stunden) VMs werden auf andere Knoten migriert

Block Storage Pfad Fehler Verhalten: CSV Redirected Mode - I/O läuft über anderen Knoten VM läuft weiter VM Storage Resiliency findet nicht statt Storage Verbindungs-Fehler Storage Stack Fehler HBA Fehler Kabel Fehler Switch Port Fehler VHD FC/FCoE/iSCSI/SAS

Block Storage Alle Pfade fallen aus Verhalten: VM wechselt in Pause Zustand Redirected Mode macht keinen Sinn da kein Pfad zum Storage vorhanden ist VM bleibt pausiert bis: der Storage wieder verfügbar ist SAN Ausfall betrifft alle Knoten VHD FC/FCoE/iSCSI/SAS 30 Minuten abgelaufen sind - danach wird VM ausgeschaltet und auf anderem Server gestartet

File Storage Pfad Fehler Verhalten: Knoten bleibt im Cluster da es Netzwerkkomunikation gibt VM wechselt in Pause Zustand VM bleibt pausiert bis: der Storage wieder verfügbar ist Netzwerk Verbindungs-Fehler NIC Treiber Hardware NIC Ausfall Kabel Fehler Switch Port Fehler VHD SMB 30 Minuten abgelaufen sind danach wird VM ausgeschaltet und auf anderem Server gestartet

Remote Desktop Verbesserungen RemoteFX Verbesserungen Erheblich verbesserter Grafikkarten Support OpenGL 4.4 und OpenCL 1.1 Support 4k Bildschirm Support und 1GB dedizierter RAM Nutzung des H264/AVC Codec Support für Windows 10 Enterprise und Server 2016 Diverse Verbesserungen Server VM als VDI Gäste (pooled und Personal) Generation 2 VM Support Remote Desktop Server Host unterstützt Stifteingabe

Shared VHDX Verbesserungen im Shared VHDX Umgang Neues Dateiformat VHD-Set Online Backup Hyper-V Replica Online Resize VHD Set

PowerShell Direct Ausführung von PowerShell CmdLets in einer VM vom Management OS aus Kein Netzwerk notwendig Kein CredSSP notwendig Sicherheit durch Authentifizierung Host Betriebssystem support: Windows 10 Windows Server 2016 VM Betriebssystem support: Windows 10 Windows Server 2016

NanoServer Neue GUI-loser, 64-bit Betriebsart des Windows Server 2016 Abgespeckter und stark überarbeitet mit Fokus auf: CloudOS Infrastruktur (Clustering, Storage, Networking) Born-in-the-cloud Anwendungen (PaaS v2, ASP.NET v5) VMs & Containers (Hyper-V & Docker) Erweitert das Server Core Pattern Rolen & Features gibt es nicht in Nano Server Keine Binaries oder Metadata im Betriebssystem Image Standalone Pakete installieren sich wie Apps Voller Driver Support Antimalware SystemCenter Agenten

NanoServer NanoServer Verbesserungen (Quelle Jefrey Snover) Reboots durch Patche Offene Ports Benötigter Plattenplatz

Microsoft Container Vorteile von Container Wesentlicher geringer Footprint als Virtuelle Maschine teilen sich die Betriebssystem Ressourcen Container sind isoliert Ausprägungen von Container Windows Container Hyper-V Container Management Docker PowerShell Build 2016: Hyper-V Containers kommen nach Windows 10

Anwendung auf Hardware Betriebssystem Anwendungen Physischer Host

Anwendung in VMs Betriebssystem Betriebssystem Anwendungen Virtuelle Machine(n) Betriebssystem

Anwendung in Container Operating System Container in VM Operating System Container auf phys. Host

Containers das Ganze Bild Hyper-V Container Windows Server Container Hyper-V Container Windows Server Container Hyper-V Virtuelle Machine Physischer Host

Hyper-V Replica Verbesserungen Veränderungen bei bestehender Replication Replica Support für VHDX Hot-Add und Remove Down- und UP-Level Replikation Replikation von Windows Server 2012 R2 nach Windows Server 2016 Replication von Windows Server 2016 nach Windows Server 2012 R2 Cluster OS Rolling Upgrade Support Hyper-V Replica in Windows Server 2012 R2

Und da ist noch viel mehr Neues VM Binär Format (.VMCX und.vmrs) Update der Integrationskomponenten über Windows Update Livemigration Kompatibilität (2012 bis 2016) Produktions Checkpoints mit VSS Unterstützung Unterstützung von unterschiedlichen Power- Management Modi (z.b. Client Connected Standby) Discrete Device Assignment Neue PowerShell CmdLets: 217 in Server 2016 TP4 (2012 R2 hat 178)

Stand Mai 2016 Software Defined Storage (SDS)

Windows Server 2012 R2 Storage Spaces Warum Storage Spaces in Windows Server 2012 (R2) Kosteneffektiv durch Standard Hardware Scale-Out Design und Elastizität Hyper-V Clusters SMB3 Storage Network Fabric Scale-Out File Server Schnell und Hochverfügbar Hyper-V ist auf SOFS optimiert Nutzung von SMB3 und SMB3 Direct Ziel Szenarien: Hyper-V Storage (mit Mirror) Backup Storage (mit Double Parity) Shared JBOD Storage Shared JBOD Storage Shared JBOD Storage

Storage Spaces Direct (S2D) Hyper-V Clusters SMB3 Storage Network Fabric Scale-Out File Server Shared JBOD Storage Shared JBOD Storage Shared JBOD Storage

Überblick Ermöglicht Cloud optimiertes Hardware Design DAS (shared Nothing) SATA, SAS und NVMe Vermutlich Support für ausgewählte OEM Konfigurationen Einfache Erweiterbarkeit Support für große Pools Einfache Erweiterbarkeit durch Hinzufügen von weiteren Knoten (16 Knoten in TP4) Rebalancing der Daten über die Knoten Management System Center und PowerShell Hyper-V Clusters SMB3 Storage Network Fabric Scale-Out File Server

Deployment Varianten Converged Hyper-V und Storage Cluster separat Compute und Storage skalieren unabhängig voneinander Mehrere Hyper-V Cluster können ein S2D Cluster nutzen Typisch für große Deployments Hyper-V Cluster(s) Hyper-converged Hyper-V und Storage System auf gleichen Knoten Compute and Storage skalieren zusammen Keine externe Nutzung möglich Typisch für kleine bis mittlere Deployments Hyper-V Cluster SMB3 Storage Network Fabric Scale-Out File Server Cluster

Storage Stack Deployment Varianten 1. Scale-Out File Server oder 2. Hyper-Converged File System (CSVFS mit ReFS) Cluster-weiter Daten Zugriff REFS Vorteile wie Multi-resilient Disks und VHDX Handling Storage Spaces Skalierbarer Pool mit allen Storage Devices Resilient virtuelle Disks Software Storage Bus Storage Bus Cache Nutzt SMB3 und SMB Direct Servers mit lokalen Platten SATA, SAS und NVMe Virtual Machines 1 2 Scale-Out File Server Virtual Machines CSVFS Cluster File System ReFS On-Disk File System Storage Spaces Virtual Disks Storage Spaces Storage Pool Software Storage Bus

Software Storage Bus Virtueller Storage Bus aufgespannt über alle Server Virtualisiert physische Platten und Enclosure Besteht aus: Clusport: Initiator (virtueller HBA) ClusBflt: Target (virtuelle Platte / Enclosure) SMB3/SMB Direct Transport RDMA Netzwerk für geringe Latenz und CPU Bandbreiten Management Fairer Geräte Zugriff von jedem Server aus IO Priorisierung (App gegen System) De-Randomisierung von Random-IO Fördert sequenziellen IO auf rotierenden Platten Node 1 File System Virtual Disks SpacePort ClusPort Application Cluster Shared Volumes File System (CSVFS) ClusBflt Physical Devices Block over SMB ClusBflt Node 2 File System Virtual Disks SpacePort ClusPort Physical Devices

Software Storage Bus Cache Bestandteil des Software Storage Bus Nutzt Cache auf lokaler Maschine Agnostisch zu den Storage Pools Read und Write cache (siehe Tabelle) Automatische Konfiguration bei Aktivierung von S2D Spezielle Partition auf jedem Caching-Device Lässt 32 GB für Pool- und vdisk-metadaten übrig (Journal) Round Robin-Bindung von SSDs zu HDDs Neuzuordnung bei Wechsel der Konfiguration Caching Devices Capacity Devices Storage Configuration Caching devices Capacity devices Caching behavior SATA SSD + SATA HDD All SATA SSD All SATA HDD Read + Write NVMe SSD + SATA HDD All NVMe SSD All SATA HDD Read + Write NVMe SSD + SATA SSD All NVMe SSD All SATA SSD Write only

Metadaten-Verteilung im Storage Pool Metadaten werden auf einem Teil der Datenträger abgelegt Verbessert Skalierbarkeit bei Pools > 80 Datenträgern Auswahlkriterien für Datenträger schnellere Datenträger werden bevorzugt Bis zu zehn Stück Verteilung innerhalb der Fault Domain dynamisches Update bei Ausfall von Devices Potential metadata devices

Fault Tolerance Resiliency Disk Server <- Standard Chassis Rack Fault Domain Awareness Platzierung der Daten, Reparatur und Rebalancing Disk Fehler Automatische Reparatur auf verbleibende Datenträger Automatisches Rebalancing bei Datenträger- Austausch Server Neustart Automatischer Daten-Resync, wenn Server wieder online kommt Dauerhafter Server Fehler Reparatur durch den Administrator, kein Automatismus Chassis 1 U 1 U 1 U 1 U 1 U 1 U 1 U 1 U 1 U 1 U 1 U 1 U Rack 31 U 1 U 1 U 1 U 1 U 1 U 1 U 1 U 1 U 1 U 1 U 1 U 1 U 31 U

Multi-Resiliency Virtual Disks Datenbereich bestehend aus zwei Tiers Gespiegelter Bereich (Geschwindigkeit) Parity-Bereich (Speicherplatz) Mirror wird für alle Schreibvorgänge benutzt Empfehlung: minimum10% Mirror-Speicherplatz Vorteil des Parity-Bereichs Je mehr Nodes, desto mehr Netto-Speicherplatz Verteilung der Daten auf mehreren Nodes Mirror tier Nodes Mirror tier Efficiency Virtual Disk Parity Tier Efficiency Parity tier Resiliency 4 33% ~50% 2 node 8 33% ~62% 2 node 16 33% ~75% 2 node Mirror A A B B A B LRC Erasure Coding in Storage Spaces Parity Group 1 Group 2 X 1 X 2 P x Y 1 Y 2 P y Q Server 1 Server 2 Server 3 Server 4 Server 5 Server 6 Server 7

ReFS Real-Time Tiering Multi-Resiliency Virtual Disks mit REFS Real- Time Tiering 1. ReFS schreibt immer in Mirror Tier Kein direktes Schreiben auf Parity Tier 2. Daten werden abgespeichert Ablage auf SSDs 3. Auslagerung auf HDDs Daten werden bewegt, sobald kalt W Mirror Tier ReFS Parity Tier Änderungen im Parity-Tier bedeuten: Schreiben im Mirror-Tier Alte Daten im Parity-Tier werden ungültig

Management PowerShell Cluster erzeugen Aktivieren von Storage Spaces Direct Erzeugen von Volumes / File Shares Health Monitoring System Center Bare Metal Deployment Unterstützt Hyper-converged und Converged Support für VM Management Support für Storage QoS und Storage Replica Cluster Aware Updating Startet Node Update nur wenn alle Volumen Healthy sind Integrated health monitoring One monitoring point for everything. Debug- StorageSubSystem Aggregated metrics, fast and in-box. Get- StorageHealthRep ort Disk replacement, completely automated. Get- StorageHealthAct ion

Device Konfigurationen Hybrid Storage Konfiguration NVMe oder SATA SSD + SATA HDD Gutes Performance / Kostenverhältnis All-Flash Storage Konfiguration All NVMe und / oder SATA SSD Beste Performance / Höchster Preis NVMe + SSD + HDD Storage (3 Tier Lösung) NVMe für Cache, SSDs für Mirror Tier und HDDs für ParityTier Hervorragende Performance / Moderater Preis

Microsoft and Intel showcase at IDF 15 Showcase Hardware 16 Intel Server System S2600WT(2U) nodes Dual Intel Xeon processor E5-2699 v3 Processors 128GB Memory (16GB DDR4-2133 1.2V DR x4 RDIMM) Storage per Server 4 - Intel SSD DC P3700 Series (800 GB, 2.5 SFF) Boot Drive: 1 Intel SSD DC S3710 Series (200 GB, 2.5 SFF) Network per server 1 Chelsio 10GbE iwarp RDMA Card (CHELT520CRG1P10) Intel Ethernet Server Adapter X540-AT2 for management Load Generator (8 VMs per Compute Node => 128 VMs) 8 virtual cores and 7.5 GB memory DISKSPD with 8 threads and Queue Depth of 20 per thread Load Profile Total IOPS IOPS/Server 100% 4K Read 4.2M IOPS 268K IOPS 90%/10% 4K Read/Write 3.5M IOPS 218K IOPS 70%/30% 4K Read/Write 2.3M IOPS 143K IOPS

Performance Video auf Channel9 Konfiguration: 4x Dell R730XD 2x Xeon E5-2660v3 2.6Ghz (10c20t) 256GB DRAM (16x 16GB DDR4 2133 MHz DIMM) 4x Samsung PM1725 3.2TB NVME SSD (PCIe 3.0 x8 AIC) Dell HBA330 4x Intel S3710 800GB SATA SSD 12x Seagate 4TB Enterprise Capacity 3.5 SATA HDD 2x Mellanox ConnectX-4 100Gb (Dual Port 100Gb PCIe 3.0 x16) Mellanox FW v. 12.14.2036 Mellanox ConnectX-4 Driver v. 1.35.14894 Device PSID MT_2150110033 Single port connected / adapter

Special & Event Hyper-V PowerKurs Special Infos am Stand der acmeo Cloud & Datacenter Conference Nachlese Infos am Stand der MR Datentechnik https://goo.gl/9h57yw

Distributed Storage QoS Virtual Machines Ermöglicht vorhersagbares End-to-End Management der Storage Bandbreite für Hyper-V VMs Storage QoS Monitor identifiziert und beobachtet I/O Verhalten und Nutzung jeder einzelnen VHDX Policy Regelung wieviel Storage Bandbreite eine VHDX bekommt SingleInstance Policy Regelwerte gelten für alle VHDX in der Policy in Summe MultipleInstance Policy Regelwerte gelten für jede individuelle VHDX Komponenten Hyper-V VMs SMB3 Storage Protokoll mit Scale-Out Fileserver Hyper-V Cluster mit CSV Storage Policy Manager Hyper-V Cluster Rate Limiters Scale-out File Server Cluster I/O Sched Rate Limiters Rate Limiters SMB3 Storage Network Fabric I/O Sched Rate Limiters I/O Sched CSV CSV CSV

Manhattan DC Jersey City DC Manhattan DC Jersey City DC Storage Replica Server to Server Ein Desaster Recovery Feature, welches aus Enterprise SAN Systemen bekannt ist Zielt auf Volumes (eigentlich Partition) NODE1 in HVCLUS SR over SMB3 Stretch Cluster NODE3 in HVCLUS SRV1 SRV2 Repliziert auf Block Basis SR over SMB3 Dateisystem Agnostische NODE2 in HVCLUS NODE4 in HVCLUS Unterstützte Szenarien: Server zu Server Stretched Cluster Cluster zu Cluster

Storage Replica Synchrone Replication Funktionsweise Synchrone Replication 1. Anwendung schreibt Block. 2. Block wird in Quellserver Log geschrieben und zeitgleich zum Zielserver mittels SMB3 übertragen. 3. Block wird in Zielserver Log geschrieben. 4. Zielserver bestätigt Quellserver den Schreibvorgang. 5. Quellserver bestätigt Applikation erfolgreichen Schreibvorgang. 6. Block wird auf beiden Datenvolumen der Quell- und Zielserver geschrieben. Anwendung (lokal oder remote) 1 Data Quellserver Node (SR) 5 t 2 Log 2 4 Data Zielserver Node (SR) t 1 3 Log Achtung: Laufzeit sollte unter 5ms liegen Logs sollten auf SSDs liegen

Storage Replica Asynchrone Replication Funktionsweise Asynchrone Replication 1. Anwendung schreibt Block. 2. Block wird in Quellserver Log geschrieben. Anwendung (lokal oder remote) 1 3 3. Quellserver bestätigt Applikation erfolgreichen Schreibvorgang. 4. Block wird mittels SMB3 zum Zielserver übertragen. 5. Block wird ins Zielserver Log geschrieben. 6. Zielserver bestätigt Quellserver den Schreibvorgang. Data Quellserver Node (SR) t 2 Log 4 6 Data Zielserver Node (SR) t 1 5 Log 7. Block wird auf beiden Datenvolumen auf Quell- und Zielserver geschrieben. Achtung: Logs sollten auf SSDs liegen

Windows RDMA

RDMA / SMB Direct Sehr geringe CPU Belastung Mehr Ressourcen für Workload Geringere Latenz Hohe Bandbreiten Zwischen 10 und 100 Gb/s verfügbar Ethernet und Infiniband verfügbar iwarp RoCE Infiniband Beispiel aus der Praxis: VM im Failover Cluster 192 GB RAM 2x 56 Gb/s RDMA NICs SMB Multichannel Resultat: Dauer: 29 Sekunden 95,2 Gb/s == 11,9 GB/s 1% CPU Belastung

Manhattan DC Jersey City DC Manhattan DC Jersey City DC Storage Replica SRV1 Server to Server SRV2 Ein Desaster Recovery Feature, bekannt aus Enterprise SAN Systemen Replikation von Volumes Replikation auf Block Basis Unabhängig von Dateisystem NODE1 in HVCLUS SR over SMB3 Stretch Cluster SR over SMB3 NODE3 in HVCLUS Unterstützte Szenarien: Server zu Server Stretched Cluster Geplant: Cluster zu Cluster NODE2 in HVCLUS NODE4 in HVCLUS

Storage Replica Synchrone Replikation Funktionsweise Synchrone Replikation 1. Anwendung schreibt Block. 2. Block wird in Quellserver Log geschrieben und zeitgleich zum Zielserver mittels SMB3 übertragen. 3. Block wird in Zielserver Log geschrieben. 4. Zielserver bestätigt Quellserver den Schreibvorgang. Anwendung (lokal oder remote) 1 Quellserver Node (SR) 5 2 4 Zielserver Node (SR) 5. Quellserver bestätigt Applikation erfolgreichen Schreibvorgang. t 2 t 1 3 6. Block wird auf beiden Datenvolumen der Quell- und Zielserver geschrieben. Data Log Data Log Achtung: Laufzeit sollte unter 5ms liegen Logs sollten auf SSDs liegen

Storage Replica Asynchrone Replication Funktionsweise Asynchrone Replikation 1. Anwendung schreibt Block. 2. Block wird in Quellserver Log geschrieben. 3. Quellserver bestätigt Applikation erfolgreichen Schreibvorgang. 4. Block wird mittels SMB3 zum Zielserver übertragen. 5. Block wird ins Zielserver Log geschrieben. 6. Zielserver bestätigt Quellserver den Schreibvorgang. Anwendung (lokal oder remote) 1 Data Quellserver Node (SR) 3 t 2 Log 4 6 Data Zielserver Node (SR) t 1 5 Log 7. Block wird auf beiden Datenvolumen auf Quell- und Zielserver geschrieben. Achtung: Logs sollten auf SSDs liegen

ReFS Neues Dateisystem Version 1 in Windows Server 2012 R2 Aktuell Version 3.0 in Windows Server 2016 TP5 Standard-Dateisystem für Daten Volumes Automatische Erkennung und Reparatur von Datenfehlern Verbesserungen und Optimierungen Auflösung von Hyper-V Prüfpunkt (ehemals Snapshot) Erstellung von VHD(X) mit fester Größe Erweiterung von dynamischer VHD(X) Metadaten Checksummen Online Backup und Reparatur von Metadaten

Volume-Typen Volume Optimiert für Einsatzszenario Effizienz Mirror Performance Ausschließlich Hot Data 33 % Parity Kapazität Ausschließlich Cold Data 57 % (+x) Multi-Resilient Gemischt Sowohl Hot als auch Cold Data Unterschiedlich Dateisystem ReFS oder NTFS ReFS oder NTFS ReFS

Multi-Resilient Volume Vereint Performance und Kapazität Nur mit ReFS realisierbar Mirror für Hot Data Eingehende Schreibvorgänge Minimale CPU-Belastung Bevorzugt SSDs Parität für Cold Data Erasure Encoding CPU-Belastung Bevorzugt HDDs Mirror Parity Disk 1 Mirror tier Parity tier A A B A B B X 1 X 2 P x Y 1 Y 2 P y Q Disk 2 Disk 3 Disk 4

ReFS Real-Time Tiering 1. ReFS schreibt immer in Mirror Tier Kein direktes Schreiben auf Parity Tier 2. Daten werden abgespeichert Ablage bevorzugt auf SSDs 3. Auslagerung auf HDDs Daten werden bewegt, sobald kalt W ReFS Änderungen = Mirror Tier Alte Daten werden ungültig Mirror Tier Parity Tier

Verbesserungen im Shared JBOD Design CSV Read Cache Nutzung bei Tiering möglich Mehr als 64 GB möglich Enclosure Awareness Rebalancing im Storage Pool Erweiterung Austausch CS V CSV Read Cache

Distributed Storage QoS Virtual Machines Ermöglicht vorhersagbares End-to-End Management der Storage Bandbreite für Hyper-V VMs Storage QoS Monitor identifiziert und beobachtet I/O Verhalten und Nutzung jeder einzelnen VM Klare Policy Regelung wieviel Storage Bandbreite eine VM bekommt Regelung pro Gruppe oder pro VM möglich Bis zu 10.000 Policys pro Storage Cluster Benötigte Komponenten Hyper-V VMs SMB3 Storage Protokoll mit Scale-Out Fileserver Hyper-V Cluster mit CSV Storage Policy Manager Hyper-V Cluster Rate Limiters Scale-out File Server Cluster I/O Sched Rate Limiters Rate Limiters SMB3 Storage Network Fabric I/O Sched Rate Limiters I/O Sched CSV CSV CSV

VHD Sets Neues Dateiformat:.vhds Online Backup Unterstützt Hyper-V Replica Online Resizing

Nano Server Neue, GUI-lose Betriebsart des Windows Server 2016 Fokus auf CloudOS Infrastruktur (Clustering, Storage, Networking) less is more Weniger Reboots durch Updates Weniger offene Ports Geringerer Speicherplatz

Rolling Cluster Upgrade Failover Cluster Update ohne: Neue IP Neue Namen Vorgehen pro Host: Node Freiräumen und aus Cluster nehmen Betriebssystem neu Installieren Node in Cluster aufnehmen Für alle Nodes wiederholen Clusterfunktionslevel erhöhen Unterstützte Cluster Rollen: Hyper-V Scale-Out Fileserver Win2012 Win2016 R2 Win2012 Win2016 R2 Win2012 Win2016 R2