RAC 11.2 mit Data Guard an einem entfernten Standort. Susanne Jahr DOAG Konferenz + Ausstellung November 2010

Ähnliche Dokumente
Oracle RAC 11.2 mit Standby-System (Data Guard) an entferntem Standort

Oracle und Hochverfügbarkeit Verschiedene Ansätze im Vergleich. Dierk Lenz Herrmann & Lenz Services GmbH DOAG Regio München/Südbayern 14.

RAC News in Oracle 11g Release 2

Hochverfügbarkeit mit der Standard Edition das geht!

Oracle Database Appliance und Virtualisierung: OVM oder KVM?

Andrea Held. Virtualisierung im Oracle-Umfeld Virtualisierungslayer Voraussetzungen Schnittstellen Workload Management Grid Control

RAC News in Oracle 11g Release 2. Dierk Lenz DOAG Konferenz + Ausstellung November 2010

DOAG 2013 HOCHVERFÜGBARKEIT EINER SINGLE-INSTANZ (AKTIV/PASSIV-FAILOVER) OHNE RAC

Oracle Grid Infrastructure 11gR2 im praktischen Einsatz

Erfahrungsbericht, Konsolidierung und Administration Real Application Cluster

Hochverfügbarkeit mit physikalischer Standby-Datenbank. Ablösung EE / Data Guard durch SE One / Dbvisit Standby

Überblick über Oracle Technologie im Bereich Hochverfügbarkeit. Tage der Datenbanken FH Köln Campus Gummersbach 20. Juni 2013 Dierk Lenz

Oracle ACFS / CloudFS zuverlässig nutzbar?

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. Dipl.-Inform. Joachim Jäckel

Eine TEAM-Präsentation

Migration von 2 9i-DBs auf 2*4-Knoten-RAC unter Unbreakable Linux mit ASM, RMAN, NetApp. Dagmar Förster Christian Trieb

Data Guard. Deutsche Oracle Anwendergruppe Regionalgruppe BI / MS / OS. Funktionsweise und Einsatzmöglichkeiten. Klaus Garstecki

Data Guard. Aus der Praxis. Alexander Hofstetter Trivadis GmbH München

Data Guard und OMS / Grid Control -

HL-Monitoring Module

Oracle Real Application Clusters: Requirements

Oracle 11g R2 Unterschiede im RAC

The Unbreakable Database System

Oracle Grid Infrastructure 11gR2 im Einsatz

Ist die Standard Edition noch einsetzbar? Dierk Lenz DOAG 2015 Konferenz

Hochverfügbarkeit mit Data Guard Möglichkeiten und Grenzen

hochverfügbare Oracle DB Anwendungen

ODA Erfahrungen und Neuigkeiten

Andrea Held. Oracle Real Application Cluster (RAC) Clusterware (OCW) Automatic Storage Management (ASM) Workload Management im Cluster Grid Computing

Oracle Backup und Recovery

18. Juni 2008, Berlin. Erfahrungsbericht üb das Backup und Recovery von ORAC Datenbanken mit Commvault QNetix. Dagmar Förster

Aufbau einer 12c RAC & Data Guard Umgebung mit NFS Storage bei der DEVK. Tim Hensel, Nürnberg,

Einfach erklärt: RAC Grundlagen für Dummies

Oracle RAC 10g unter Linux Eine kostengünstige Hochverfügbarkeitslösung?

Oracle Database Appliance - Projektbericht Erfolgreiche Migration bei der make-it

Oracle 12c Real Application Cluster (RAC) und Grid Infrastructure

Datenbankkonsolidierung Multitenant oder nicht? Dierk Lenz DOAG 2014 Konferenz

The Unbreakable Database System

<Insert Picture Here> RAC Architektur und Installation

ODA-Lösungen von H&L

RAC-Tests: Welche sind notwendig? Welche sind durchführbar?

RAC und Standby Datenbanken: Dienste und Daten hochverfügbar

Rückschlüsse durch Host- Performance-Daten auf das Datenbankverhalten. DOAG Regio Karlsruhe 13. Juni 2013

Oracle Database 10g RAC Plattformen im Detail

Daten: Gründungsjahr 1995 Schwerpunkte Oracle, VMware, Microsoft, Linux und Novell Ausschließlich zertifizierte Techniker:

Unser RAC wird 5 Extended Distance RAC und integrierende Oracle Technologien

Einfach erklärt: RAC Grundlagen für Dummies. Ralf Appelbaum

Lutz Fröhlich. Oracle ng. mitp

APEX (Hoch) Verfügbar? Ernst Leber

RMAN Duplicate. von. dbtotal.de. Jaroslav Dutov.

Oracle HA-Technologien Lizenzierung

Oracle RAC Ein Buch mit Sieben Siegeln? Johannes Ahrends Technical Director Quest Software GmbH

<Insert Picture Here> Die RZ-Zentrale - Grid Control hochverfügbar

Herzlich Willkommen. Reorganisation einer 4,6 TB-SAP-Datenbank mit minimaler Auszeit

Hochverfügbarkeit - wie geht das?

Hochverfügbare LDOMs mit Oracle Solaris Cluster

Oracle Database 10g Die RAC Evolution

Ist nur Appliance ODA schon Rechenzentrum in der Kiste?

Zünde den Turbo-Boost! (LOB-Migration beschleunigt)

56 Maßnahmen zur Sicherung der Verfügbarkeit in Oracle-Umgebungen. Client Client Client Client Client. Public Network. aktiv. Private Network.

SCAN, GPnP, GNS und Co. Erfahrungen mit den neuesten RAC Features

Oracle 11g Release 2: Änderungen unter der Haube. Dierk Lenz DOAG 2011 Konferenz und Ausstellung 16. November 2011

Neue Features Oracle Database 12.2 Wann denn endlich?

Oracle DataGuard 10g im WAN

Oracle RAC Services. Deutsche Oracle Anwenderkonferenz Martin Hoermann. Senior Consultant, ORDIX AG, Münster

DB Hostwechsel leicht gemacht Robert Ortel Hypoport AG Berlin

Hochverfügbarkeit mit Data Guard Möglichkeiten und Grenzen

Oracle Database Appliance Datenbank ganz einfach?

GSCC General Storage Cluster Controller. TSM Verfügbarkeit

Network-Attached Storage mit FreeNAS

Oracle RAC CFS Hochverfügbarkeit

Netzwerk Teil 1 Linux-Kurs der Unix-AG

<Insert Picture Here> Exadata Expedition. Die HP Oracle Database Machine aus Anwendersicht. Rainer Marekwia Oracle STU, Oracle Deutschland GmbH

Oracle Data Guard und RMAN das perfekte Team

Migration einer SAP/Oracle Datenbank auf neue Hardware incl. Releasewechsel

Aufbau einer Enterprise Manager Grid Control Testumgebung

RAC auf Sun Cluster 3.0

Datenbankreplikation in der Standard Edition

Performance Tuning & Scale-Out mit MySQL

Oracle Data Guard 11gR2. What s new? DOAG Regionaltreffen Martin Decker

Oracle Backup und Recovery mit RMAN

<Insert Picture Here> Überblick Oracle Recovery Manager

Das Leistung-pro-Kern Dilemma

Oracle Real Application Clusters: Installation und Konfiguration

Alternativen in der Backup-Infrastruktur

Neues in Hyper-V Version 2

Verfügbarkeit von Applikationen und Failover Szenarien. Winfried Wojtenek.

SAP HANA Betriebsprozesse im Rechenzentrum

DOAG Konferenz 2007 in Nürnberg

Komplexe Netzwerke mit Oracle VM Server SPARC

Auto-Deployment von Oracle Enterprise Linux. Sascha Westermann DOAG Konferenz + Ausstellung November 2010

Absichern einer Single Instance unter Zuhilfenahme der Oracle Clusterware. Markus Böhmer arvato Systems DOAG 14. September 2015

SAP und Oracle RAC virtualisiert in Solaris Containern. Dipl.-Ing. Michael Ahrens Principal Solution Architect & SAP Technology Consultant

DER ORACLE CONNECTION MANAGER (CMAN) ALS FIREWALL FÜR DAS ROUTING VON DATENBANK VERBINDUNGEN

Safexpert Oracle Datenbank Konnektor

Martin Klier Systemadministration / Datenbanken. Ein hochverfügbarer Kommunikationsserver

LDom Performance optimieren

Hochverfügbarkeit mit AlwaysOn für die SSISDB. Stefan Grigat,

Transkript:

RAC 11.2 mit Data Guard an einem entfernten Standort Susanne Jahr DOAG Konferenz + Ausstellung November 2010

Herrmann & Lenz Services GmbH Herrmann & Lenz Solutions GmbH Erfolgreich seit 1996 am Markt Firmensitz: Burscheid (bei Leverkusen) Beratung, Schulung und Betrieb/Fernwartung rund um das Thema Oracle Datenbanken Schwerpunktthemen: Hochverfügbarkeit, Tuning, Migrationen und Troubleshooting Herrmann & Lenz Solutions GmbH Produkt: Monitoring Module Stand auf Ebene 2 RAC 11.2 mit Data Guard 2

Beweggründe / Anforderungen Geschäftskritische Webanwendung: Online Bestell-Plattform für Krankenhäuser und Apotheken Größte Last täglich zwischen 10:00 und 13:00 Ausfallsicherheit wichtigster Aspekt Möglichst viele Fehler-Arten sollen kompensiert werden können überwiegt den Aspekt der Skalierung / Performance- Steigerung Umzug der Hardware von einem externen Betreiber ins eigene Rechenzentrum RAC 11.2 mit Data Guard 3

Lösung: RAC mit Data Guard Durch RAC abgesicherte Fehler Ausfall von CPU, Memory oder sonstigen Hardware-Komponenten eines Servers Ausfall eines gesamten Servers Durch Data Guard abgesicherte Fehler Fehler im Shared Storage des RAC Ausfall des gesamten Clusters Eventuell: Anwender-Fehler (falls Delay eingestellt wird) RAC 11.2 mit Data Guard 4

Technische Voraussetzungen (1) Betriebssystem Solaris 10 x86-64 Server SUN Fire X42xx AMD Quadcore, 32 GB RAM Shared Storage NetApp FAS2040 File-Server Cluster-Controller Redundante Netzwerk-Anbindung RAC 11.2 mit Data Guard 5

Technische Voraussetzungen (2) Netzwerkverbindung Sowohl lokal als auch zwischen den Rechenzentren: 10GBit über redundant ausgelegte Cisco3750-Switches Physikalische Netzwerkkarten für das private Netzwerk (Cluster Interconnect) sind redundant ausgelegt und über Link Aggregation zu jeweils einer virtuellen Schnittstelle verbunden RAC 11.2 mit Data Guard 6

Standort-Übersicht RAC 11.2 mit Data Guard 7

Konfiguration Shared Storage (1) Vorbereitung des Shared Storage Cluster-fähige Dateisysteme durch NetApp-Filer bereitgestellt Spezielle NFS-Mount-Optionen beachten! Persistent durch Einträge in die vfstab RAC 11.2 mit Data Guard 8

Konfiguration Shared Storage (2) Beispiel OCR und Voting Disks: <filersta1>:/vol/oraclevdocr - /mnt/oracleasm/oraclevdocr nfs yes rw,bg,hard,nointr, rsize=32768,wsize=32768, proto=tcp,vers=3,noac,forcedirectio Beispiel Datenbankdateien: <filersta1>:/vol/oracledata - /mnt/oracleasm/oracledata nfs - yes rw,bg,hard,nointr,rsize=32768, wsize=32768, proto=tcp,noac,forcedirectio,vers=3,suid RAC 11.2 mit Data Guard 9

Konfiguration Shared Storage (3) RAC 11.2 mit Data Guard 10

Konfiguration OS / Oracle-Umgebung Kernel-Parameter und Shell-Limits für den oracle-user als Projekt in /etc/project Zusätzlich sind einige Parameter-Anpassungen in /etc/system erforderlich! ssh-konfiguration / User Equivalency wird über den Universal Installer konfiguriert (neu in 11.2!) RAC 11.2 mit Data Guard 11

Konfiguration Netzwerk Hinterlegung der Namen und Adressen für Privates Netz Öffentliches Netz und Knoten-VIPs SCAN im DNS Konfiguration der öffentlichen und privaten physikalischen Netzwerk-Schnittstellen Empfehlenswert: redundante Netzwerkkarten verwenden entweder durch Trunking / Link Aggregation oder durch IPMP (IP Multipathing) RAC 11.2 mit Data Guard 12

Link Aggregation vs. IPMP (1) Durch Link Aggregation werden zwei physikalische Netzwerkkarten virtuell vom Betriebssystem als eine Schnittstelle präsentiert # dladm create-aggr -d nge2 -d e1000g2 1 bash-3.00# dladm show-aggr key: 1(0x0001) policy: L4 address: :21:28:3d:7b:84(auto) device address speed duplex link state nge2 0:12:34:5d:6b:78 1000Mbps full up attached e1000g2 0:87:65:c4:3b:21 1000Mbps full up attached # ifconfig aggr1: flags=1000843<up,broadcast,running,multicast,ipv4> mtu 1500 index 2 inet xxx.xxx.117.15 netmask ffff0000 broadcast xxx.xxx.255.255 ether 0:12:34:5d:6b:78 RAC 11.2 mit Data Guard 13

Link Aggregation vs. IPMP (2) Bei Verwendung von IPMP: alle Adapter, die Mitglieder der IPMP-Gruppe sind, als Netzwerke für den Private Interconnect während der Installation angeben! Falls nicht möglich, im Anschluss den betreffenden Adapter manuell hinzufügen (MOS Doc ID # 1069584.1: Solaris IPMP and Trunking for the cluster interconnect in Oracle Grid Infrastructure 11g Rel. 2): $GRID_HOME/bin/oifcfg setif -global nge2/xxx.xxx.117.0:cluster_interconnect RAC 11.2 mit Data Guard 14

RAC 11.2 Was hat sich geändert? Grid Infrastructure statt Clusterware Beinhaltet OCR und Voting Disk sowie ASM und Listener Keine Unterstützung von Raw Partitions / Block Devices für Cluster-Files in neuen Installationen im vorliegenden Projekt Speicherung auf NetApp- NFS-Shares Virtueller Name für das gesamte Cluster (SCAN) zum Verbindungsaufbau durch die Clients RAC 11.2 mit Data Guard 15

Konfiguration SCAN Konfiguration des SCAN und der verschiedenen SCAN-Listener können über srvctl abgefragt und modifiziert werden: oracle@ RAC-Node2:~> srvctl config scan SCAN name: myrac-scan.mydomain.com, Network: 1/192.xxx.xxx.0/255.255.255.0/nge1 SCAN VIP name: scan1, IP: /myrac-scan.mydomain.com/192.xxx.xxx.20 SCAN VIP name: scan2, IP: /myrac-scan.mydomain.com /192. xxx.xxx.21 SCAN VIP name: scan3, IP: /myrac-scan.mydomain.com /192. xxx.xxx.22 RAC 11.2 mit Data Guard 16

SCAN in der tnsnames.ora Die Clients benutzen den SCAN zur Verbindungsaufnahme mit der Datenbank (keine Adresslisten mehr!): MALLPCL = (DESCRIPTION = (ADDRESS = (PROTOCOL = TCP)(HOST = myrac-scan.mydomain.com)(port = 1521)) (CONNECT_DATA = (SERVER = DEDICATED) (SERVICE_NAME = MALLPCL) ) ) RAC 11.2 mit Data Guard 17

Standby-Systeme (1) - Allgemein Drei Datenbanken im Cluster Jede Datenbank bekommt eine physikalische Standby-Datenbank im Backup-Rechenzentrum db_unique_name der Standby- Datenbanken: db_namestb(mallp MALLPSTB) RAC 11.2 mit Data Guard 18

Standby-Systeme (2) - Parameter Eintrag jeder Standby-Datenbank in der listener.ora Erstellung von Passwortdateien mit identischen SYS-Passworten auf Primary- und Standby-Seite Start einer Instanz mit dem korrekten db_unique_name und den erforderlichen DataGuard-Parametern fal_server : zwei Datenbank-Services, die jeweils auf einer der beiden RAC-Instanzen konfiguriert wurden (MALLP_SRV1, MALLP_SRV2) RAC 11.2 mit Data Guard 19

Standby-Systeme (3) - Parameter log_archive_1 wird erweitert ('LOCATION=/mnt/oracleasm/oraclearc/ MALLP VALID_FOR=(ALL_LOGFILES,ALL_ROLES) DB_UNIQUE_NAME=MALLPSTB') log_archive_dest_2 wird als Service zum Log Transport mittels Logwriter konfiguriert ('SERVICE=MALLPCL LGWR ASYNC VALID_FOR =(ONLINE_LOGFILES,PRIMARY_ROLE) DB_UNIQUE_NAME=MALLP') log_archive_config: eine DG_CONFIG mit Primärund Standby-System ('DG_CONFIG=(MALLPSTB,MALLP)' RAC 11.2 mit Data Guard 20

Standby-Systeme (4) - Anlage Erstellung mittels RMAN auf der Standby-Seite Zunächst Anmeldung an die Target-DB (Primary) und die Auxiliary Instance (spätere Standby-DB): rman target sys/xxx@mallp1_srv auxiliary sys/xxx@mallpstb Dann Erstellung der Standby-Datenbank RMAN>DUPLICATE TARGET DATABASE FOR STANDBY FROM ACTIVE DATABASE; RAC 11.2 mit Data Guard 21

Standby-Systeme (5) Standby Redolog Anlage von Standby-Redolog-Dateien für den Log Transport über den Logwriter Anzahl Online-Redolog-Dateien +1 pro Redo-Thread Größe Standby-Redolog = Größe Online-Redolog Sinnvoll als Vorbereitung für den Failover-Fall: Anlage der Standby-Redologs auch schon in den Primär-Datenbanken Konfiguration beider Seiten sowohl für die Primaryals auch für die Standby-Rolle RAC 11.2 mit Data Guard 22

Standby-Systeme (6) - Kontrolle Kontrolle der Synchronität der Standby-Systeme zu ihren Primär-Datenbanken und der korrekten Konfiguration : v$archive_dest v$dataguard_status v$standby_log v$log v$managed_standby v$archived_log v$log_history v$archive_gap RAC 11.2 mit Data Guard 23

Standby-Systeme (7) - Kontrolle Nützliches SQL-Skript MOS Doc ID # 241438.1: Script to Collect Data Guard Physical Standby Diagnostic Information RAC 11.2 mit Data Guard 24

Zusammenfassung Einige Neuerungen im RAC 11.2, diese sind nach bisherigen Erfahrungen gut gelungen Vereinfachung der Anlage von Standby- Datenbanken (schon in 11.1) durch die DUPLICATE FROM ACTIVE DATABASE-Option Failover-Tests der NetApp-Filer verliefen problemlos, Performance absolut zufriedenstellend Es muss also nicht immer ASM sein (jedenfalls in der Enterprise Edition) RAC 11.2 mit Data Guard 25

Fragen & Kontakt susanne.jahr@hl-services.de http://www.hl-services.de Hier in der Ausstellung Ebene 2 (gelb) RAC 11.2 mit Data Guard 26