The Unbreakable Database System



Ähnliche Dokumente
The Unbreakable Database System

RAC auf Sun Cluster 3.0

Verfügbarkeit von Applikationen und Failover Szenarien. Winfried Wojtenek.

Hochverfügbarkeit - wie geht das?

Solaris Cluster. Dipl. Inform. Torsten Kasch Bielefeld.DE> 8. Januar 2008

Datensicherheit und Hochverfügbarkeit

Oracle Real Application Clusters: Requirements

Keep your SAN simple Spiegeln stag Replizieren

PROLAG WORLD 2.0 PRODUKTBESCHREIBUNG SERVERSYSTEM, CLUSTERSYSTEME FÜR PROLAG WORLD

Hochverfügbarkeit mit Windows Server vnext. Carsten Rachfahl Microsoft Hyper-V MVP

Daten: Gründungsjahr 1995 Schwerpunkte Oracle, VMware, Microsoft, Linux und Novell Ausschließlich zertifizierte Techniker:

IT-Frühstück IT Trend Virtualisierung Hype oder Nutzen? Praxisaspekte

Clustering mit Shared Storage. Ing. Peter-Paul Witta

OSL Simple RSIO. I/O Aufgabenstellungen einfach lösen

OSL Storage Cluster und RSIO unter Linux Storage-Attachment und Hochverfügbarkeit in 5 Minuten

Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC. Alexander Scholz

Oracle Hot Standby. XE, SEOne, SE. Maximum Performance Mode. WIN, Linux, Unix Einfache Lösung. bis zu 10 Standby DB

Installation SQL- Server 2012 Single Node

Hochverfügbare LDOMs mit Oracle Solaris Cluster

Well-Balanced. Performance Tuning

Oracle HA-Technologien im Überlick

Oracle Real Application Cluster

Ein reales Testumfeld bereitstellen - basierend auf einer Produktionsdatenbank (ohne eine neue Kopie zu erstellen)

56 Maßnahmen zur Sicherung der Verfügbarkeit in Oracle-Umgebungen. Client Client Client Client Client. Public Network. aktiv. Private Network.

Oracle 9i Real Application Clusters

Sichere Daten mit OSL Storage Cluster

Michael Beeck. Geschäftsführer

Konfiguration Firewall (Zyxel Zywall 10) (von Gruppe Schraubenmeier)

GSCC General Storage Cluster Controller. TSM Verfügbarkeit

Infrastruktur fit machen für Hochverfügbarkeit, Workload Management und Skalierbarkeit

WISSENSWERTES ÜBER WINDOWS SCALE-OUT FILE SERVER

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. Dipl.-Inform. Joachim Jäckel

Logischer Aufbau von Storagesystemen. Ernst Fankhauser

Oracle RAC 10g unter Linux Eine kostengünstige Hochverfügbarkeitslösung?

Hochverfügbarkeits-Szenarien

Ora Education GmbH. Lehrgang: Oracle Application Server 10g R3: Administration

MySQL Cluster mit Galera

Switching. Übung 7 Spanning Tree. 7.1 Szenario

Oracle Automatic Storage Management (ASM) Best Practices

Storage Area Networks im Enterprise Bereich

Die Marvel, ein gedrosselter Supercomputer

Produktbeschreibung zum docuform Mercury Cluster & Reprint Modul

Andrea Held. Virtualisierung im Oracle-Umfeld Virtualisierungslayer Voraussetzungen Schnittstellen Workload Management Grid Control

Systemanforderungen für MSI-Reifen Release 7

vsphere vs. HyperV ein Vergleich aus Sicht eines VMware Partners interface:systems

2 Die Terminaldienste Prüfungsanforderungen von Microsoft: Lernziele:

WINDOWS 8 WINDOWS SERVER 2012

OSL Storage Cluster 3.1

Dynamic Ressource Management

HVS32 Datenbank Archivierungs Dienst

Oracle. 1. Software-Download 2. Lifetime-Support

VirtualBox und OSL Storage Cluster

Formular»Fragenkatalog BIM-Server«

Hochverfügbare Linux Cluster mit OSL Storage Cluster 4.0 und RSIO. 11. OSL Technologietage Berlin 24./25. September 2013

FastViewer Remote Edition 2.X

MailUtilities: Remote Deployment - Einführung

Umbenennen eines NetWorker 7.x Servers (UNIX/ Linux)

Tipps & Tricks: März Parameter der tnsnames.ora im RAC Umfeld. 1. Parameter: Bereich: Erstellung: RAC 03/2011 SH. Letzte Überarbeitung: 11.

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. 7 Key Features.

SolarWinds Engineer s Toolset

HA Architekturen mit MySQL

Vorstellung SimpliVity. Tristan P. Andres Senior IT Consultant

Mindestanforderungen an Systemumgebung Für die Nutzung von excellenttango

Fragen zur GridVis MSSQL-Server

4D Server v12 64-bit Version BETA VERSION

Prozessarchitektur einer Oracle-Instanz

Naxtron GmbH Schlosstalstrasse Winterthur. Subject. New Features Oracle 9i Architecture

EINSATZ VON MICROSOFT TERMINAL-SERVICES ODER CITRIX METAFRAME

Der Storage Hypervisor

Datenbankadministration

HP IT-Symposium Stephan Haas. Server Technology Competence Center ORACLE Deutschland GmbH. Page

IBM Software Demos Tivoli Provisioning Manager for OS Deployment

Oracle Database 10g Die RAC Evolution

Storage as a Service im DataCenter

SAP Memory Tuning. Erfahrungsbericht Fritz Egger GmbH & Co OG. Datenbanken sind unsere Welt

Ab der aktuellen Version kann der Windows Internet Explorer 11 als Browser für das Web-Interface der Server- Konfiguration genutzt werden.

Speichernetze (Storage Area Networks, SANs)

Standortübergreifende Cluster mit RHEL/CentOS (stretched Cluster)

Perceptive Document Composition

KONFIGURATION TECHNICOLOR TC7200

Virtualisierung mit iscsi und NFS

das Portfolio wurde um eine freie Edition und eine lizenzpflichtige Edition ergänzt

Überblick über Oracle Technologie im Bereich Hochverfügbarkeit. Tage der Datenbanken FH Köln Campus Gummersbach 20. Juni 2013 Dierk Lenz

Citrix Provisioning Server Marcel Berquez. System Engineer

MySQL High Availability. DOAG 2013 Datenbank. 14. Mai 2013, Düsseldorf. Oli Sennhauser

3PAR STORESERV STORAGE. itelio Hausmesse 2014

Oracle GridControl Tuning Pack. best Open Systems Day April Unterföhring. Marco Kühn best Systeme GmbH

PView7 & Citrix XenApp

MSSQL Server Fragen GridVis

Im Kapitel Resourc Manager werden die verschiedenen Möglichkeiten der Überwachung von Messwerten eines Server oder Benutzers erläutert.

Oracle Real Application Cluster Architektur & Erfahrungsbericht

Bei der Benutzung des NetWorker Client Configuration Wizards könnten Sie die Namen Ihrer Datenbanken verlieren

Löschen eines erkannten aber noch nicht konfigurierten Laufwerks

Multimedia und Datenkommunikation

HAFTUNGSAUSSCHLUSS URHEBERRECHT

ShadowProtect 4 Backup Fast, Recover Faster

Hochverfügbare Lösungen für Windows Serversysteme

Oracle Backup und Recovery

Technote - Installation Webclient mit Anbindung an SQL

Transkript:

The Unbreakable Database System Real Application Cluster auf Sun Cluster 3.0 Unterföhring, 11.2002 M. Beeck, M. Kühn 1

Comparisson HA - HA Ziele, DataGuard, HA Oracle, RAC Sun Cluster 3.0 Key Features - Availability, Manageability, Maintenance OPS+SC 2.2 / RAC+SC3.0 - Cache Fusion, TAF, Load Balancing Konfiguration - best Practice Sun + Oracle zertifizierte Komplettlösungen Projekt: WireCard Live Demo 2

Comparisson HA: HA Ziele Reduzieren bzw. Vermeiden von Ausfallzeiten - Software-, Hardware-, Human Error, Disaster Daten und Anwendungen für Benutzer verfügbar halten Erhöhung des Applikationsdurchsatzes durch horizontale Skalierung Erhöhte Verfügbarkeit auch während Wartung oder Upgrade 3

Comparisson HA: DataGuard Vorteile - Schutz gegen Human Errors - Standorte können beliebig sein (Disaster Recovery) - Bis zu 10 Standby Server - No Data Loss im Guaranteed Protect Mode - Gap Detection / Gap Resolution Nachteile - Kein automatisches Failover - Hoher administrativer Aufwand - Gracefull Database Failover ist zeitintensiv - Datenverlust, wenn nicht im Guaranteed Protect Mode - Je höher der Datenschutz, desto schlechter die Performance Primary Standby Redo Logs Redo Logs Local Remote Archiving via Oracle Net Local Standby 2, 3,.., 10 Archived Redo Logs Archived Redo Logs 4

Comparisson HA: HA Oracle Vorteile - automatische Übernahme im Fehlerfall - schnelle Fehlererkennung - kein Datenverlust - Aktiv / Aktiv Konfiguration - geringer administrativer Aufwand Disk 1 Ora1 Ora2 Mirror 1 Nachteile - keine horizontale Skalierung - Im Fehlerfall müssen sich alle User wieder verbinden - Standort maximal 10km getrennt (Campus Cluster) Disk 2 Ora1 Ora2 Failed Mirror 2 Disk 1 Mirror 1 Disk 2 Mirror 2 5

Comparisson HA: Oracle 9i RAC Vorteile - Skaliert über alle Knoten - Hohe Performance durch Cache Fusion - Im Fehlerfall sind nur wenige Benutzer (hier 33%) betroffen - Automatische Benuzterübernahme - Sehr schnelle Übernahme (<1min) - Applikationen werden fortgeführt (TAF) Nachteile - Hohe Kosten - Standort maximal 10km getrennt Inst1 Disk Inst2 Inst3 FC Switch Mirror Inst1 Inst2 Failed FC Switch Disk Mirror 6

Comparisson HA: Bewertungstabelle Criteria Data Guard HA Oracle RAC Performance Low Normal High Availability Normal High Very high Failover 8-10min 2-3min < 1min Data Loss High Low Very low Manageability Complex Easy Easy Cost Low Normal High 7

Comparisson HA - HA Ziele, DataGuard, HA Oracle, RAC Sun Cluster 3.0 Key Features - Availability, Manageability, Maintenance OPS+SC 2.2 / RAC+SC3.0 - Cache Fusion, TAF, Load Balancing Konfiguration - best Practice Sun + Oracle zertifizierte Komplettlösungen Projekt: WireCard Live Demo 8

Sun Cluster 3.0: Overview Integriert in Solaris 8 Kernel Bis zu 8 Knoten Failover und Scalable Data Services clusterweite Filesysteme, Devices und Interfaces Builtin Load Balancing Global Networking Node 1 Node 2 Node 3 Node 4 Node 5 Node 6 Node 7 Node 8 Global File System 9

Sun Cluster 3.0: Global Devices Global Devices sind überall verfügbarbar Zugriff erfolgt über Global Namespace - überall gleiche Pfade: /dev/global dual-hosted Devices sind für Applikationen kontinuierlich verfügbar, selbst wenn der Primary Path ausfällt Global Networking Node 1 Node 2 Node 3 Node 4 Node 5 Node 6 Node 7 Node 8 Global File System 10

Sun Cluster 3.0: Global File Service Kein neues FS Cluster File System - hochverfügbar, distributed, cache-coherent Kernel-basierte Client/Server Architektur - PxFS Mechanism basiert auf vnode interface unabhängig vom FS Type und Volume Manager Failover/Switchover transparent zur Application und zum User Global Mount von einem Knoten für alle Knoten - mount -o global - /etc/vfstab Application Global File Service File System Volume Manager vnode layer vnode layer 11

Sun Cluster 3.0: Global File Service Wie das Cluster File System funktioniert!!! Shared Storage 12

Sun Cluster 3.0: Global File Service Wie das Cluster File System funktioniert!!! Shared Storage 13

Sun Cluster 3.0: Vorteile für RAC GFS für Oracle Binaries und Config Files auf allen Knoten permanent verfügbar Vereinfachte Administration Bootet automatisch im Cluster Mode Update und Patches können im Non-Cluster-Mode Knoten für Knoten installiert werden, ohne den gesamten Cluster zu stoppen Dynamic Reconfiguration Aber: Es sind max. 4 Knoten mit RAC auf Sun Cluster zertifiziert 14

Comparisson HA - HA Ziele, DataGuard, HA Oracle, RAC Sun Cluster 3.0 Key Features - Availability, Manageability, Maintenance OPS+SC 2.2 / RAC+SC3.0 - Cache Fusion, TAF, Load Balancing Konfiguration - best Practice Sun + Oracle zertifizierte Komplettlösungen Projekt: WireCard Live Demo 15

OPS+SC 2.0 / RAC+SC 3.0: SC 2.2 -> SC 3.0 Global Devices - kontinuierliche Verfügbarkeit für File System Services - kontinuierlicher Verfügbarkeit für Network Services Interconnects - bis zu 6 Interconnects - Load Balancing Booting in Cluster Mode - Cluster Framework in Kernel - Fast Failure Detection + Recovery Resource Group - kein logischer Host - Manage the Service not the Server Service Components entkoppelt 16

OPS+SC 2.0 / RAC+SC 3.0: Cache Fusion Optimierung des Cache Coherency Protokolls - Reduzierung der Anzahl Messages - Vermeidung von I/O Eindruck einer global SGA (Shared Global Area) Inst1 Inst2 Inst3 Inst4 Cache Fusion FC Switch Disk Mirror 17

OPS+SC 2.0 / RAC+SC 3.0: OPS Block Ping Node 1 Instance 1 User DLM 1 2 Node 2 Instance 2 SGA 6 5 SGA Block 4711 Sun Block 4711 HP IBM Sun 7 4 DBWR LGWR 3 Anzahl I/O: 2 x Write + 1 x Read 18

OPS+SC 2.0 / RAC+SC 3.0: RAC Bock Shipping Node 1 Instance 1 User GCS 1 2 Node 2 Instance 2 SGA SGA Block 4711 Sun 3 Interconnect Block 4711 HP IBM Sun DBWR LGWR Anzahl I/O: 0 x Write + 0 x Read 19

OPS+SC 2.0 / RAC+SC 3.0: Total Application Failover (TAF) Applikationen und Benutzer werden bei Systemausfall automatisch und transparent mit der nächsten laufenden Instanz verbunden User User User Es sind nur wenige Benutzer betroffen. Hier sind es 1/3 aller Benutzer Übernahme der Benutzer liegt bei weniger als 1 Minute Inst1 Inst2 Failed Client pre-connect möglich, um große Anzahl an Benutzer schneller zu migrieren FC Switch Disk Mirror 20

OPS+SC 2.0 / RAC+SC 3.0: Connection Load Balacing Client 1 3 2 LISTENER Node1: 20% Node2: 90% Node 1 CPU Load 20% LISTENER Node1: 20% Node2: 90% Node 2 CPU Load 90% Listener tauschen sich alle 30 Sekunden über CPU Load aus Shared Server: 1. kleinster Node Load 2. kleinster Instance Load 3. kleinster Dispatcher Load Dedicated Server: 1. kleinster Node Load 2. kleinster Instance Load 21

Comparisson HA - HA Ziele, DataGuard, HA Oracle, RAC Sun Cluster 3.0 Key Features - Availability, Manageability, Maintenance OPS+SC 2.2 / RAC+SC3.0 - Cache Fusion, TAF, Load Balancing Konfiguration - best Practice Sun + Oracle zertifizierte Komplettlösungen Projekt: WireCard Live Demo 22

Konfiguration : best practise - Skalierung Availability durch horizontale Skalierung Performance durch vertikale Skalierung Viele kleine Server produzieren Overhead - Systemload aller Server steigt - Erfahrung: 1 Server 80%, 2 Server 50% + 50% -> 20% Overhead bei Lastverteilung 100 Busy Time in % Empfehlung: ++ wenige große Server -- viele kleine Server 90 80 70 60 50 40 30 20 10 10%W / 90%R 50%W / 50%R 90%W / 10%R 0 1 Node 2 Node (QFE) 2 Node (GE) 23

Konfiguration : best practise - Transparent Application Failover Scenario 1 - shutdown abort von Instance 1 - DB Connect geht automatisch und tranparent zum nächsten Knoten - Failover < 1min Scenario 2 - Power off von Knoten 2 - DB Connect bzw. Client bekommt nichts vom Ausfall mit - TCP/IP Client Timeout Parameter laufen ab, erst jetzt ist der Ausfall bekannt - Failover findet nach 11min statt Lösung zu Scenario 2 - Threshold 1: tcp_ip_abort_interval (default: 480000 ms) - Threshold 2: tcp_ip_abort_cinterval (default: 180000 ms) 24

Comparisson HA - HA Ziele, DataGuard, HA Oracle, RAC Sun Cluster 3.0 Key Features - Availability, Manageability, Maintenance OPS+SC 2.2 / RAC+SC3.0 - Cache Fusion, TAF, Load Balancing Konfiguration - best Practice Sun + Oracle zertifizierte Komplettlösungen Projekt: WireCard Live Demo 25

Sun + Oracle zertifizierte Komplettlösungen: 2 Node Cluster Lizensierung - 2 x Sun Cluster - 2 x VxVM - 2 x CVM - 2 x Oracle Enterprise - 2 x Oracle RAC Sun Fire V480 2 x 900 Inst1Mhz 4 GB RAM 100 MB InterConnect 160 MB/s SCSI 3 Sun Fire V480 2 x 900 Inst1Mhz 4 GB RAM StorEdge D2 12 x 36GB StorEdge D2 12 x 36GB 26

Sun + Oracle zertifizierte Komplettlösungen: 4 Node Cluster Lizensierung - 4 x Sun Cluster, 4 x VxVM, 4 x CVM - 4 x Oracle Enterprise, 4 x Oracle RAC Cluster InterConnect FC Switch Ethernet Switch 1 + 2 Sun Fire V880 4 x 900 Inst1Mhz 8 GB RAM Sun Fire V880 4 x 900 Inst1 Mhz 8 GB RAM Sun Fire V880 4 x 900 Inst1 Mhz 8 GB RAM Sun Fire V880 4 x 900 Inst1 Mhz 8 GB RAM FC Switch FC Fabric Switch 1 + 2 StorEdge T3+ES 2 x 9 x 72GB StorEdge T3+ES 2 x 9 x 72GB 27

Comparisson HA - HA Ziele, DataGuard, HA Oracle, RAC Sun Cluster 3.0 Key Features - Availability, Manageability, Maintenance OPS+SC 2.2 / RAC+SC3.0 - Cache Fusion, TAF, Load Balancing Konfiguration - best Practice Sun + Oracle zertifizierte Komplettlösungen Projekt: WireCard Live Demo 28

Projekt: WireCard : 2 Node Cluster Warum 2 Node RAC? - Wir können uns keinen Datenverlust erlauben. Die Ausfallzeit muß so klein wie möglich sein! Warum Sun Fire V880 Server? - Die Wachstumsrate der User war eine Unbekannte. Vertikale Skalierung war die richtige und günstigere Lösung zum Auffangen der Userlast. Warum als Disk Array A1000er? - Wir wollten zu Beginn die vorhandene HW nutzen. Sun Fire V880 2 x 900 Inst1Mhz 2 GB RAM 1GB InterConnect 40 MB/s SCSI 2 Sun Fire V880 2 x 900 Inst1Mhz 2 GB RAM StorEdge A1000 12 x 36GB StorEdge A1000 12 x 36GB 29

Comparisson HA - HA Ziele, DataGuard, HA Oracle, RAC Sun Cluster 3.0 Key Features - Availability, Manageability, Maintenance OPS+SC 2.2 / RAC+SC3.0 - Cache Fusion, TAF, Load Balancing Konfiguration - best Practice Sun + Oracle zertifizierte Komplettlösungen Projekt: WireCard Live Demo 30

Live Demo: Oracle 9i RAC Stand: Sun best Systeme 31