DOAG 2013. Praxisbericht: T4-1 mit Oracle VM Server for SPARC. Jens Vogel DB Systel GmbH



Ähnliche Dokumente
Praxisbericht: T4-1 mit Oracle VM Server for SPARC

Hochverfügbare LDOMs mit Oracle Solaris Cluster

SPARC LDom Performance optimieren

Folgende Voraussetzungen für die Konfiguration müssen erfüllt sein: - Ein Bootimage ab Version Optional einen DHCP Server.

Wie setzt Swisscom Solaris 11 ein

Neues in Hyper-V Version 2

Löschen eines erkannten aber noch nicht konfigurierten Laufwerks

QFS als Bestandteil der Offenen Archivsystem-Infrastruktur (OAsIs) 7. SAM-QFS/Oracle HSM 6.0 Nutzerkonferenz 2015

Komplexe Netzwerke mit Oracle VM Server SPARC

WIE ERHÖHT MAN DIE EFFIZIENZ DES BESTEHENDEN RECHENZENTRUMS UM 75% AK Data Center - eco e.v. 1. Dezember 2009

1. Oracle VM Server SPARC. 2. Ausgangslage. 3. Konzept

Switch 1 intern verbunden mit onboard NICs, Switch 2 mit Erweiterungs-NICs der Server 1..6

R-ADSL2+ Einrichthinweise unter Windows 98/ME

Windows Server 2012 RC2 konfigurieren

LDom Performance optimieren

Dynamisches VPN mit FW V3.64

Version Deutsch

WLAN mit WPA (wpa4fh)

Konfigurationsanleitung Access Control Lists (ACL) Funkwerk. Copyright Stefan Dahler Oktober 2008 Version 1.0.

Windows Server 2008 R2 Windows Server 2012 Hyper-V Failovercluster Migration

Solaris im Datacenter Architektur, Implementation und Betrieb

Erfahrungen mit Solaris Zonen und LDoms

LDom Performance optimieren

Virtualisierung mit Solaris

LDAP Konfiguration nach einem Update auf Version 6.3 Version 1.2 Stand: 23. Januar 2012 Copyright MATESO GmbH

VMware vsphere Client

Securepoint Security Systems

Dynamic Ressource Management

Netzwerkeinstellungen unter Mac OS X

Step by Step Webserver unter Windows Server von Christian Bartl

WLAN Konfiguration. Michael Bukreus Seite 1

Hochverfügbare LDoms mit Oracle Solaris Cluster

Systemvoraussetzungen NovaBACKUP 17.6 Die Komplettlösung für Windows Server Backup

Open1X (XSupplicant)

IBM SPSS Statistics Version 22. Installationsanweisungen für Linux (Lizenz für gleichzeitig angemeldete Benutzer)

Walther- Übungsaufgabe 24. Januar 2016 Rathenau- Routing Name: Gewerbeschule Freiburg DHCP Klasse: E3FI1T Seite 1 Punkte: /20 Note:

Aufbau einer Testumgebung mit VMware Server

1CONFIGURATION MANAGEMENT

Workshop: Eigenes Image ohne VMware-Programme erstellen

Cisco AnyConnect VPN Client - Anleitung für Windows7

Windows Server 2012 R2 Essentials & Hyper-V

» Hyper-V Best Practice Microsofts Virtualisierung professionell einsetzen

VirtualBox und OSL Storage Cluster

Kurzanleitung zur Softwareverteilung von BitDefender Produkten...2

NbI-HS. NbIServ Bethenhausen Bethenhausen

Windows Server 2008 (R2): Anwendungsplattform

MSXFORUM - Exchange Server 2003 > SMTP Konfiguration von Exchange 2003

NODELOCKED LIZENZ generieren (ab ST4)

Konfiguration von Igel ThinClients fu r den Zugriff via Netscaler Gateway auf eine Storefront/ XenDesktop 7 Umgebung

Ghost-Boot-CD 2009 V.1pe

Scharl 2010 Dokument ist Urheberrechtlich geschützt. Port Forwarding via PuTTY und SSH. Was ist Port forwarding?

Mobile-Szenario in der Integrationskomponente einrichten

Matrix42. Use Case - Sicherung und Rücksicherung persönlicher Einstellungen über Personal Backup. Version September

Panda GateDefender Virtual eseries ERSTE SCHRITTE

KIP Druckerstatus Benutzerhandbuch KIP Druckerstatus Installations- und Benutzerhandbuch

Hyper-V Grundlagen der Virtualisierung

Version Deutsch

1. IPSec Verbindung zwischen 2 Gateways mit dynamischen IP Adressen

HowTo: erweiterte VLAN Einrichtung & Management von APs mittels des DWC- 1000/DWS-4026/DWS-3160

Konfiguration Firewall (Zyxel Zywall 10) (von Gruppe Schraubenmeier)

Lehrer: Einschreibemethoden

Dokumentation QuickHMI Runtime Manager

Anleitung zum Prüfen von WebDAV

Daten-Synchronisation zwischen dem ZDV-Webmailer und Outlook ( ) Zentrum für Datenverarbeitung der Universität Tübingen

Mobilgeräteverwaltung

2 Die Terminaldienste Prüfungsanforderungen von Microsoft: Lernziele:

Agenda. Einleitung Produkte vom VMware VMware Player VMware Server VMware ESX VMware Infrastrukture. Virtuelle Netzwerke

Wireless & Management

GEZIELT MEHR SICHERHEIT MIT 4I ACCESS SERVER & 4I CONNECT CLIENT

NetMan Desktop Manager Vorbereitung und Konfiguration des Terminalservers

Dokumentation. Black- und Whitelists. Absenderadressen auf eine Blacklist oder eine Whitelist setzen. Zugriff per Webbrowser

IAC-BOX Netzwerkintegration. IAC-BOX Netzwerkintegration IACBOX.COM. Version Deutsch

3 Installation von Exchange

3 Konfiguration OfficeMaster 3.10 SNMP

INSTALLATION DES MICROSOFT SUS-SERVERS AUF WINDOWS XP PROFESSIONAL

Dokumentation CMM Modular Server

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. Dipl.-Inform. Joachim Jäckel

IT macht den Meister mit VDCF Version 5

8. Bintec Router Redundancy Protocol (BRRP) 8.1 Einleitung

Step by Step VPN unter Windows Server von Christian Bartl

Software Release Notes

Pädagogische Hochschule Thurgau. Lehre Weiterbildung Forschung

ProSeminar Speicher- und Dateisysteme

USB 2.0 PCI-Karte mit NEC CHIPSATZ

Whitepaper. Produkt: combit Relationship Manager. combit Relationship Manager und Terminalserver. combit GmbH Untere Laube Konstanz

PayPal PLUS für Shopware

1 Voraussetzungen für Einsatz des FRITZ! LAN Assistenten

Installation DataExpert Paynet-Adapter (SIX)

Deutsche Version. Einführung. Installation unter Windows XP und Vista. LW056V2 Sweex Wireless LAN Cardbus Adapter 54 Mbit/s

HAFTUNGSAUSSCHLUSS URHEBERRECHT

disk2vhd Wie sichere ich meine Daten von Windows XP? Vorwort 1 Sichern der Festplatte 2

OS-Virtualisierung mit Solaris Zonen in der Praxis

How-to: Webserver NAT. Securepoint Security System Version 2007nx

Drucken aus der Anwendung

GeoPilot (Android) die App

HowTo: Einrichtung & Management von APs mittels des DWC-1000

Sie können diesen Service verwenden, um fast beliebig große Dateien auch über 2 GB zu versenden.

vsphere vs. HyperV ein Vergleich aus Sicht eines VMware Partners interface:systems

teamsync Kurzanleitung

Hochverfügbare Linux Cluster mit OSL Storage Cluster 4.0 und RSIO. 11. OSL Technologietage Berlin 24./25. September 2013

Transkript:

DOAG 2013 Praxisbericht: T4-1 mit Oracle VM Server for SPARC Jens Vogel DB Systel GmbH

AGENDA Vorstellung Motivation Planung Testumgebung Virtualisierung SPARC Oracle VM Server für SPARC Virtualisierter oder Direct I/O Live Migration Konfiguration und Test Fazit

Informationen, Zahlen, Fakten Jens Vogel IT-Spezialist DB Systel GmbH Standort Erfurt Systemtechnik Plattform Unix DB Systel GmbH ICT-Dienstleister der Deutschen Bahn ca. 3.100 Mitarbeiter an den drei Hauptstandorten Frankfurt/Main, Berlin und Erfurt zwei Rechenzentren mit über 3.300 Servern Betreuung von ca. 340.000 IP-Adressen, 85.000 Büroarbeitsplätzen & 93.000 VoIP-Anschlüssen Gesamtspeicher-Kapazität von ca. 1,5 Petabyte & Backup-Kapazität von 4,5 Petabyte Deutsche Bahn AG Personen- und Gütertransport per Zug, Lkw, Schiff und Flugzeug die Nummer 2 weltweit unter den Transport- und Logistikunternehmen ca. 2,7 Milliarden Reisende pro Jahr (Bus & Bahn) ca. 25.000 Personenzüge pro Tag Streckennetz von rund 34.000 km mit ca. 5.700 Bahnhöfen Gütertransport im Umfang von 400 Millionen Tonnen pro Jahr (nur Schiene) 6 Millionen Quadratmeter Lagerfläche in 130 Ländern

Ziele/Voraussetzungen Ziele Entwicklungs-Umgebung Install-Server für Solaris 10 und Oracle Solaris 11 Abnahme-Umgebung Install-Server für Solaris 10 und Oracle Solaris 11 AI mit mehreren Oracle Solaris 11-Repositories JET für Solaris 10 je ein DHCP-Server für jede Umgebung und jede Solaris-Version SunOS BOOTP/DHCP-Server für Solaris 10 ISC-DHCP-Server für Oracle Solaris 11 Voraussetzungen Erfahrung im produktiven Betrieb von ca. 1500 Solaris 10-Zonen keine Erfahrungen mit LDOM s 2 Server Oracle T4-1 (8 Cores, 8 Threads/Core, 256 GB RAM) Quelle: www.oracle.com

Planung Testumgebungen Entwurf Konzept jeweils ein dediziertes Entwicklungs- und Abnahmesystem keine Redundanz/Ausfallsicherheit zwei identische Systeme mit LDOM s Redundanz/Ausfallsicherheit durch Live Migration develop Sol10_dev JET & DHCP develop Sol10_dev JET & DHCP Sync accept Sol10_acc JET & DHCP Repositories Solaris 11 Sol11_dev AI & DHCP Sol11_dev AI & DHCP Sol11_acc AI & DHCP esther Sync Live Migration esther accept Sol10_acc JET & DHCP T4-1 develop Sol10_dev JET & DHCP Sync accept Sol10_acc JET & DHCP Repositories Solaris 11 Sol11_acc AI & DHCP Sol11_dev AI & DHCP Sol11_acc AI & DHCP magnus magnus

Warum virtualisieren? Server-Lösungen von heute Systeme haben immer größere Thread-Dichte große Systeme reduzieren Kosten (Minimierung Höhen-Einheiten, Strom, Klima, usw. im RZ) aber nur selten benötigen Kunden/Applikationen solche großen dedizierten Server Virtualisierung bietet: effizientere Nutzung von Ressourcen vereinfachte Administration Minimierung der Kosten (z. B. Lizenzen) schnelle Bereitstellung von Produktions-Umgebungen kostengünstige Bereitstellung von Testsystemen

Virtualisierungsarten SPARC Dynamic System Domains (nur Mx000-Systeme) Virtualisierung auf HW-Ebene Physical System Boards (PSB) Extended System Boards (XSB) Logical System Boards (LSB) jedes LSB eigene OS-Instanz verschiedene Kernel- und Patchstände möglich Logical Domains (Oracle VM Server for SPARC) Virtualisierung auf HW-Ebene (Hypervisor Typ 1) verschiedene Kernel- und Patchstände möglich Solaris Zonen (Solaris Container) Virtualisierung auf OS-Ebene (Kernelsharing) keine verschiedenen Kernel- und Patchstände möglich

Oracle VM Server for SPARC OS-Virtualisierung auf Hypervisor-Technologie (Hypervisor Typ 1) früher: Solaris LDOMs (Logical Domains) - heute: Oracle VM Server for SPARC (aktuell in Version 3.1) früher: nur T-Systeme, da nur diese über Hypervisor verfügten (sun4v) - heute: alle SPARC-Systeme da eine LDOM einer eigenen Server-Instanz entspricht, ist eine Kombination mit Zonen möglich/gängig Quelle: www.oracle.com

Begrifflichkeiten 1 Control-Domain einzige Domain, die Hypervisor konfigurieren kann (es kann nur eine geben ) dient zum Konfigurieren der Guest- und anderer Service-Domains (CPU, Memory) bindet zu Anfang alle Ressourcen, d. h. die Control-Domain selbst muss ebenfalls konfiguriert werden meist werden dieser nur geringe Ressourcen zugewiesen, da i. d. R. keine Produktiv-Systeme zentrales Tool ist LDOM-Manager Service-Domain Domain, die virtuelle I/O-Services für Guest-Domains bereitstellt (NIC, HDD, SAN) werden virtuelle Services zur Verfügung gestellt, dann ist die Control-Domain auch eine Service-Domain mehrere Service-Domains bilden Redundanzen (PCI-Erreichbarkeit) Guest-Domain Domain, die als eigene OS-Instanz als Produktiv- oder Entwicklungs-System dient I/O-Domain Domain, die direkten Zugriff auf PCI-Bus hat (ohne CPU & Memory) jede Service-Domain ist auch eine I/O-Domain Root-Domain Guest-Domain mit direktem Zugriff auf kompletten PCI-Bus incl. CPU & Memory (Direct I/O, Root Complex) spezielle Form einer I/O-Domain

Begrifflichkeiten 2 vsw virtual switch service Service zur Netzwerk-Virtualisierung nur in Service-Domains vds virtual disk server Service zur Disk-Virtualisierung nur in Service-Domains vcc virtual console concentrator service stellt virtuelle Port-Ranges für serielle Konsolen zur Verfügung und bindet diese an vntsd nur in Control- bzw. Service-Domains Achtung, eine Guest-Domain kann nur an einen vcc gebunden werden (keine Redundanz)! vntsd virtual network terminal server daemon nur in Control- bzw. Service-Domains (abhängig von vcc) Terminal-Server des Oracle Solaris Standard-Staus disabled (!)

Virtualisierter oder Direct I/O Klassische Control-/Service- Domain mit Gästen Control-Domain mit zwei I/O- Domains als Gäste Control-Domain als I/O-Domain vds vsw Gast-LDOM 1 vdisk vnet Gast-LDOM 2 vdisk vnet Control-Domain ohne I/O Gast-LDOM 1 als Root-Domain Gast-LDOM 2 als Root-Domain Hypervisor Hypervisor PCI Hardware CPU RAM Hardware PCI CPU RAM

Live Migration Voraussetzungen sind virtueller I/O, gesharte SAN-LUN s und identische Namen für vds und vdisk Control-Domain als I/O-Domain vds vdisk Gast-LDOM Control-Domain als I/O-Domain vds vdisk Gast-LDOM Hypervisor Hypervisor PCI Hardware Hardware PCI LUN

Schaltplan T4-1

Testaufbau detailliert Sol10_dev JET & DHCP Sol10_acc JET & DHCP - System soll als Entwicklungsund Abnahme-Server für Solaris-Installationen dienen Control-Domain als I/O-Domain vsw_prim vds_prim develop Sol11_dev AI & DHCP Repositories Solaris 11 Hypervisor accept Sol11_acc AI & DHCP Repositories Solaris 11 - eine Service-Domain als Control- und I/O-Domain - zwei Guest-Domains (develop & accept) - jeweils zwei Zonen (eine für Solaris 10-Clients, eine für Oracle Solaris 11-Clients) - Repositories liegen in den globalen Zonen, um die lokalen Zonen zu installieren PCI Hardware - in allen Domains und Zonen wird Solaris 11 installiert

Konfigurationsablauf Vorbereitung Bereitstellung Netz & Storage Installation LDOM-Manager Control-Domain Zuweisen von CPU & Memory Erzeugen virtueller Switches Anhängen physischer Devices an virt. Switches Installation Guest-Domains Oracle Solaris 11 Guest-Domains Guest-Domains erzeugen Zuweisen von CPU & Memory Erzeugen virt. Devices aus virt. Switches der I/O-Domain Guest-Domains an Control- Domain binden und starten Installation Zonen Oracle Solaris 11 Installation & Konfiguration Install-Server AI/JET Repo-DB s DHCP-Server

LDOM-Manager LDOM-Manager ist zentrales Konfigurations-Tool und somit Grundvoraussetzung root@esther:~# pkg list ldomsmanager NAME (PUBLISHER) VERSION IFO system/ldoms/ldomsmanager (solaris) 3.0.0.4-0.175.1.9.0.4.0 i-- root@esther:~# pkg info system/ldoms/ldomsmanager Name: system/ldoms/ldomsmanager Summary: Logical Domains Manager Description: LDoms Manager - Virtualization for SPARC T-Series Category: System/Virtualization State: Installed Publisher: solaris Version: 3.0.0.4 Build Release: 5.11 Branch: 0.175.1.9.0.4.0 Packaging Date: June 28, 2013 09:40:36 PM Size: 4.06 MB FMRI: pkg://solaris/system/ldoms/ldomsmanager@3.0.0.4,5.11-0.175.1.9.0.4.0:20130628t214036z Nach Installation wird automatisch Control-Domain erzeugt - immer primary, nicht änderbar root@esther:~# ldm list NAME STATE FLAGS CONS VCPU MEMORY UTIL NORM UPTIME primary active -n-c-- UART 64 261632M 1.0% 1.0% 17d 1h 42m

Control-Domain konfigurieren CPU s zuweisen root@esther:~# ldm set-vcpu 4 primary Speicher zuweisen root@esther:~# ldm set-memory 8g primary virtuelle Disk-Switch vds-prim erzeugen root@esther:~# ldm add-vds vds-prim primary LUN s an virtuelle Disk-Switch binden (komplette Disk Slice 2) root@esther:~# ldm add-vdsdev /dev/dsk/c0t4849544143484920373730313038363430303430d0s2 \ c0t4849544143484920373730313038363430303430d0@vds-prim root@esther:~# ldm add-vdsdev /dev/dsk/c0t4849544143484920373730313038363430303433d0s2 \ c0t4849544143484920373730313038363430303433d0@vds-prim virtuelle Netzwerk-Switch vsw-prim erzeugen und Netz-Interface an diese binden root@esther:~# ldm add-vsw net-dev=net12 mac-addr=2:21:28:57:47:17 vsw-prim primary virtuelle Console vcc-prim erstellen und Port-Range festlegen root@esther:~# ldm add-vcc port-range=5000-5100 vcc-prim primary Konfiguration als DOAG-2013 abspeichern, anschl. System-Reboot root@esther:~# ldm add-config DOAG-2013; init 6

Prüfen der Konfiguration - 1/2 gesicherte Konfigurationen root@esther:~# ldm list-config factory-default DOAG-2013 [current] LDOM-Übersicht (Kurzausgabe) root@esther:~# ldm list NAME STATE FLAGS CONS VCPU MEMORY UTIL NORM UPTIME primary active -n-cv- UART 4 8G 0.9% 0.9% 10m Bedeutungen der Spalte FLAGS : - Placeholder c Control domain d Delayed reconfiguration (Konfiguration wurde geändert) e Error n Normal s Column 1 - starting or stopping Column 6 - source domain t Column 2 - transition Column 6 - target domain v Virtual I/O service domain (Control- oder Service-Domain)

Prüfen der Konfiguration - 2/2 I/O-Konfiguration (vds, vsw und vcc) root@esther:~# ldm list -o disk,network,console NAME primary MAC VCC 00:10:e0:2a:d8:b6 NAME PORT-RANGE vcc-prim 5000-5100 VSW NAME MAC NET-DEV ID DEVICE LINKPROP DEFAULT-VLAN-ID PVID vsw-prim 02:21:28:57:47:17 net12 0 switch@0 1 1 VDS NAME VOLUME OPTIONS MPGROUP DEVICE vds-prim c0t4849544143484920373730313038363430303430d0 /dev/dsk/c0t4849544143484920373730313038363430303430d0s2 c0t4849544143484920373730313038363430303433d0 /dev/dsk/c0t4849544143484920373730313038363430303433d0s2

Guest-Domain manuell erstellen CPU s, Memory und I/O root@esther:~# ldm add-domain develop root@esther:~# ldm add-vcpu 16 develop root@esther:~# ldm add-memory 64g develop root@esther:~# ldm add-vdisk disk01_develop c0t4849544143484920373730313038363430303430d0@vds-prim develop root@esther:~# ldm add-vnet vnet_develop vsw-prim develop auto-boot?=false für OPB der Guest-Domain setzen root@esther:~# ldm set-var auto-boot\?=false boot-device=disk01_develop develop Guest-Domain an die Service-Domain binden (hiermit werden die konfigurierten Ressourcen persistent gebunden) root@esther:~# ldm bind develop Guest-Domain starten root@esther:~# ldm start develop LDom develop started LDOM-Übersicht root@esther:~# ldm list NAME STATE FLAGS CONS VCPU MEMORY UTIL NORM UPTIME primary active -n-cv- UART 4 8G 0.2% 0.2% 2d 21h 14m develop active -t---- 5000 16 64G 6.2% 6.2% 27s

Guest-Domain mit XML-File erstellen XML-File aus einer vorhandenen LDOM erzeugen (hier develop) root@esther:~# ldm list-constraints -x develop > /tmp/ovm/develop.xml XML-File bearbeiten (develop accept, Platten tauschen, uuid entfernen wird automatisch neu erzeugt) root@esther:~# cp /tmp/ovm/develop.xml /tmp/ovm/accept.xml root@esther:~# gsed -i 's/develop/accept/' /tmp/ovm/accept.xml root@esther:~# gsed -i \ 's/c0t4849544143484920373730313038363430303430d0/c0t4849544143484920373730313038363430303433d0/' \ /tmp/ovm/accept.xml root@esther:~# gsed -i '/uuid/d' /tmp/ovm/accept.xml Guest-Domain accept erzeugen root@esther:~# ldm add-domain -i /tmp/ovm/accept.xml Guest-Domain an die Service-Domain binden & starten root@esther:~# ldm bind accept; ldm start accept LDom accept started LDOM-Übersicht root@esther:~# ldm list NAME STATE FLAGS CONS VCPU MEMORY UTIL NORM UPTIME primary active -n-cv- UART 4 8G 0.2% 0.2% 3d 1h 39m accept active -t---- 5001 16 64G 6.2% 6.2% 24s develop active -t---- 5000 16 64G 6.2% 6.2% 3h 14m

log in virtual network terminal server daemon (vntsd) in Control-/Service-Domain starten root@esther:~# svcs -a grep vntsd disabled Nov_01 svc:/ldoms/vntsd:default root@esther:~# svcadm enable vntsd Verbindung mit Console herstellen (hier develop) root@esther:~# telnet localhost 5000 Trying ::1... telnet: connect to address ::1: Connection refused Trying 127.0.0.1... Connected to localhost. Escape character is '^]'. Connecting to console "develop" in group "develop"... Press ~? for control options.. ~? {0} ok ~? Supported escape sequences: ~. - terminate connection ~B - send a BREAK to the remote system ~C - open a command line ~R - Request rekey (SSH protocol 2 only) ~^Z - suspend ssh ~# - list forwarded connections ~& - background ssh (when waiting for connections to terminate) ~? - this message ~~ - send the escape character by typing it twice

MAC-Adresse für DHCP MAC aus Banner ist nicht die Richtige! {0} ok banner SPARC T4-1, No Keyboard Copyright (c) 1998, 2012, Oracle and/or its affiliates. All rights reserved. OpenBoot 4.34.2.a, 65536 MB memory available, Serial #83395546. Ethernet address 0:14:4f:f8:83:da, Host ID: 84f883da. Anzeige Gerätenamen-Aliases {0} ok devalias disk01_develop vnet_develop net disk virtual-console name /virtual-devices@100/channel-devices@200/disk@0 /virtual-devices@100/channel-devices@200/network@0 /virtual-devices@100/channel-devices@200/network@0 /virtual-devices@100/channel-devices@200/disk@0 /virtual-devices/console@1 aliases Eigenschaften Netzwerk-Device (tatsächliche MAC) {0} ok cd vnet_develop {0} ok.properties local-mac-address 00 14 4f fb ee 3f max-frame-size 00004000 address-bits 00000030 reg 00000000 compatible SUNW,sun4v-network device_type network name network

Fertigstellung OS-Installationen der LDOM s Erstellen der Repo-DB s pro globaler Zone (Guest-Domain) Konfiguration und Installation der Zonen Sol10_dev, Sol11_dev, Sol10_acc, Sol11_acc Installation Automated Installer (AI) pro Sol11-Zone Sol11_dev & Sol11_acc Installation & Konfiguration JET in den Sol10-Zonen Sol10_dev & Sol10_acc Installation und Konfiguration der DHCP-Server Sol10_dev, Sol11_dev, Sol10_acc, Sol11_acc

Bedingungen Live Migration identischer Firmeware-Stand auf beiden Systemen LDOM-Manager muss in identischer Version installiert sein LUN s müssen von beiden Systemen erreichbar sein (shared storage) beide Systeme müssen über Netzwerk kommunizieren könen I/O muss auf beiden Systemen virtualisiert sein (Service-Domains) vsw, vcc und vds müssen auf beiden Systemen identischen Bezeichner haben

Test Live Migration Migrations-Test im dry-run root@esther:~# ldm migrate-domain n develop magnus Target Password: Guest-Domain develop von Server esther auf Server magnus migrieren root@esther:~# ldm migrate-domain develop magnus Target Password: Migrations-Übersicht auf magnus root@magnus:~# ldm list o status develop NAME develop STATUS OPERATION PROGRESS SOURCE migration 23% esther LDOM-Übersicht auf magnus oot@magnus:~# ldm list NAME STATE FLAGS CONS VCPU MEMORY UTIL NORM UPTIME primary active -n-cv- UART 4 8G 0.2% 0.2% 3d 1h 39m develop active -t---- 5000 16 64G 6.2% 6.2% 1d 9h 14m

Fazit günstige Variante für Entwicklungs- und Abnahme-Umgebungen Ressourcen für diese Zwecke völlig ausreichend für produktive Systeme eher Hardware mit mehreren Bussen dann Direct I/O Verbesserung des Durchsatzes, da der zusätzliche Layer der virtualisierten Services entfällt oder zusätzliche Service-Domain(s) Nutzung von IPMP und MPxIO zur Erhöhung der Verfügbarkeit & Ausfallsicherheit Live Migration

Fragen?