xvm Platform best Open Systems Day Oktober 2008 Dornach Marco Kühn best Systeme GmbH marco.kuehn@best.de
Agenda Überblick Was steckt hinter der xvm Platform? XVM Server 1.0 OPSCenter 2.0 Seite 2
Überblick Desktop DataCenter Seite 3
Überblick Vollständige Virtualisierung (Typ 2 Hypervisor) Der Virtual Maschine Monitor (VMM / Hypervisor) läuft auf einem Host-Betriebsystem als Applikation im Userspace und fungiert als Übersetzer zwischen Gast und Wirt. Die Virtualisierung wird vor dem Gast vollständig verborgen. Bekannte Vertreter sind: VMware Server, MS Virtual PC, Sun VirtualBox Applikation Gast OS Linux Virtuelle HW Applikation Gast OS Windows Virtuelle HW Applikation Gast OS Solaris Virtuelle HW Virtual Maschine Manager (VMM) Host Betriebssystem + kostenfrei - schlechte Performance - schlechte Qualität x86 HW: CPU, RAM, Devices Seite 4
Überblick Vollständige Virtualisierung (Typ 1 Hypervisor) Der Virtual Maschine Monitor (VMM / Hypervisor) läuft auf einem Host-Betriebsystem im Kernel und fungiert als Übersetzer zwischen Gast und Wirt. Die Virtualisierung wird vor dem Gast vollständig verborgen. Bekannte Vertreter sind: VMware ESX, Xen (xvm Server, XenEnterprise, VirtualIron) Sun LDoms Applikation Applikation Applikation Gast OS Linux Gast OS Windows Gast OS Solaris Host Betriebssystem VMM (Hypervisor) + geringe Kosten Xen, LDoms + gute Performance + Qualität - hohe Kosten ESX - eingeschränkte HW x86 HW: CPU, RAM, Devices Seite 5
Überblick Virtualisierung auf OS Ebene Mehrere Instanzen ein und desselben Betriebsystems laufen virtuell auf einem Kernel. Man spricht auch von Single Kernel Image (SKI). Das Betriebsystem erzeugt mehrere Instanzen, die als Container verwaltet werden. Den Containern werden Resourcen zugewiesen. Bekannte Vertreter: Virtuozzo und Solaris Zones Zone 1 Zone 2 Zone 3 Solaris 10 Solaris 10 Linux Host Betriebssystem: Solaris 10 + geringe Kosten + sehr gute Performance + Device Management + Resource Management - OS Release Hardware: CPU, RAM, Devices Seite 6
Überblick VMware ESX: Hardwareunterstützte Virtualisierung Typ 1 Hypervisor Vollständige Virtualualisierung ESX Server ist Hypervisor xvm Server (Xen): Hardwareunterstützte Virtualisierung Typ 1 Hypervisor Paravirtualisierung Vollständige Virtualisierung Basis: AMD-V, Intel-VT Control Domain ESX Control Domain Hypervisor xvm Hypervisor Windows 2008 mit Hyper-V Seite 7
Agenda Überblick Was steckt hinter der xvm Platform? OPSCenter 2.0 Seite 8
xvm Server Diagramm Seite 9
Die Basis des xvm Servers 1.0: OpenSolaris 2008.05 OpenSolaris Xen 3.1.4 Image Packaging System (IPS) Support für CIFS, NFS, (FC, iscsi) Disks: SATA, SAS, FC Browser UI (BUI) Supported Guest: Windows 2003, 2008 Linux: RHEL 4.6+5.2 Solaris 10 Update 5 OpenSolaris 2008.05 Running Guest: Windows XP, Vista, 2000 Server Linux: RH, Centos, Suse, Ubuntu, Debian,.. PV Driver für Windows VMDK (VHD) Windows Hyper-V Support Live DVD Seite 10
Setup Wizard Installation von Live DVD Seite 11
Hardware View Seite 12
Guest View Seite 13
Seite 14
Seite 15
Seite 16
Seite 17
Seite 18
Seite 19
Software Architektur non-java Client Java Client OPSCenter 2.0 JMX Windows mit VBscript oder mit OpenWS-MAN ähnlich WINRM CLI WS-MAN JMX-Remote Services (implemented through MXBEANS) XVM Server Guest OS Guest OS Guest OS Guest OS Seite 20
Treiberarchitektur Der Hypervisor als kontrollierende Instanz muss das korrekte Verhalten als Reaktion auf die Instruktionen des Gastes erreichen. VMware filtert diese aufwendig, während die Paravirtualisierung von Xen das richtige Verhalten durch Hypercalls erreicht, statt die fragliche Instruktion direkt auszuführen. Unveränderte Applikation Xen-ifizierter Kernel Xen Hypervisor Rechner Xen Control Software Dom0 Solaris Original Backend Treiber Treiber Xen API Virtuelle CPU Application Application DomU Linux Xen Kernel DomU Windows HVM Xen Treiber Virtuelles RAM Frontend Treiber Virtuelle Block Geräte Virtuelle Netzwerk Hypervisor: AMD-V, Intel VT x86 HW: CPU, RAM, Devices Seite 21
Virtuelle oder physikalische Resourcen In Solaris und OpenSolaris sind mittlerweile Fault Management Features für x64 CPUs (Intel, AMD) integriert. Dynamic Reconfiguration (CPU, Memory, IO Devices) für xen-ifizirte Gäste wird unterstützt. Physical Domains xvm Server Sol10u5 Sol10u6 XVM Server x64 Hardware 8 CPUs 32 Cores Sol10u7 Sol10u5 Sol10u6 Sol10u7 Domain A Domain B Domain C SPARC64 8 CPUs 32 Cores Seite 22
xvm Server Upgrades mit IPS Mit OpenSolaris 2008.05 gibt es Image Packaging Service (IPS) Online Updates via pkg image-update möglich oder Patches via pkg install <package> Beim Image Update wird ein separates Boot Environment per ZFS Snapshot und Clone erstellt, in dem das Update installiert wird Auf Wunsch kann das neue Boot Environment aktiviert und gebootet werden; bei evtl. Fehlern wird das alte Boot Environment wieder aktiviert marco@tavira> BE -opensolaris opensolaris-1 beadm Active -----NR list Mountpoint ---------/ Space ----2.32G 2.97G Policy -----static static Created ------2008-09-18 15:53 2008-09-18 16:44 Seite 23
xvm Server Backup ist schmerzfrei Mit OpenSolaris 2008.05 liegt das Root Filesystem auf ZFS. Damit kann sehr einfach mit zfs send zfs receive ein Backup erstellt und wieder hergestellt werden. Das ist besonders einfach in Disaster Fällen. # zfs send rpool/opensolaris@a ssh backupsrv zfs receive xvm/opensolaris@a Root Disk Backup Restore Backup Disk # zfs send xvm/opensolaris@a ssh xvmserver zfs receive rpool/opensolaris@a Seite 24
Network Management - Crossbow Mit OpenSolaris und Project Crossbow kann ein physikalisches Netzwerk Interface (NIC) in mehrere VNICs aufgeteilt werden. Diese VNICs können verschiedenen VM Instanzen zugewiesen werden und in verschiedenen VLANs existieren. Windows Sol10u7 VNIC 1 (VLAN 1) VNIC 2 (VLAN 2) VLAN 1 VLAN 2 XVM Server NIC Switch Seite 25
Network Management - Crossbow Hypervisor (oder ähnlich) machen einen guten Job was das Managen von CPU und Memory angeht. Wie sieht es mit dem Netzwerk aus? dom0 domu1 xnb0 xnb1 IP vnic0 domu2 IP IP xnf0 xnf0 vnic1 bge0 hypervisor Seite 26
Storage und Crossbow mit NFS und CIFS Support xvm Server 1.1 mit iscsi und FC Support Hohe Performance mit iscsi über iser (500MB/s) oder FCoE (10Gbit) Crossbow kann Flow Management: Bandbreiten Limitierung Policy Handling Ein Flow korrespondiert z.b. mit einem Protokoll oder einer Virtuellen Maschine. Seite 27
Agenda Überblick Was steckt hinter der xvm Platform? OPSCenter 2.0 Seite 28
OPSCenter 2.0 xvm Bundles xvm Server - Single Node Multi-VM Management BUI Free License Support 7x24, pro jahr pro Node: 500$ xvm Infrastructure Enterprise xvm Server + OPSCenter HA Live Migration Management Agents Policy-based Resource Allocation (DRS) VPool Management Provisioning Virtual Maschines Support 7x24, pro jahr pro Node: 2000$ xvm Infrastructur DataCenter xvm Server + OPSCenter Wie xvm Infrastructure Enterprise +.... Firmware + Hardware Management.. Leightweight Iventory.. HW Monitoring Support 7x24, pro Jahr pro Node: 3000$ Seite 29
Seite 30
Fragen? Danke! Seite 31