Client/Server-Systeme

Größe: px
Ab Seite anzeigen:

Download "Client/Server-Systeme"

Transkript

1 Client/Server-Systeme Prof. Dr.-Ing. Wilhelm Spruth WS 2006/2007 Teil 11 Parallelrechner Sysplex Coupling Facility cs 0800 ww6 sch 02-97

2 Rechner Plattformen der Zukunft In der Zukunft werden 4 Plattform-Typen überleben: 1. Embedded Systems Handy, Palmtop, RFID, Kühlschrank Computer, Automobilanwendungen, Registrierkasse 2. Personal Computer Büro, Home Computer für Mail, Briefe und Fotografische Bearbeitung Blades für CPU intensive Anwendungen 3. Spiele Computer X-Box, Sony, Nintendo Blades für CPU intensive Anwendungen 4. Mainframe Enthält Funktionen, die auf den anderen Plattformen nicht verfügbar sind: Performance Impact, unnötige Kosten oder Entwicklungsaufwand, Verfügbarkeit

3 Beispiele für Mainframe Funktionen, die auf den anderen Plattformen nicht verfügbar sind Verfügbarkeit (Availability), Sicherheit Ein/Ausgabe Subsystem (Plattenspeicher, Bandgeräte) > parallele Prozesse Parallelrechner - Funktionen Coupling Facility Virtualisierung Logische Partitionierung Transaktionsverarbeitung mit Java

4 STI Bus Local Data Memory STI - PCI Bridge PowerPC Master Local Processor Memory PowerPC Checker Memory Controller Master Memory Controller PCI Bus Checker Interface Controller identische Hardware wie bei einem PC Fibre Channel zseries Fibre Channel Kanal basierend auf der Common I/O Card es 0361 ww6 wgs 09-02

5 Symmetrisch. Multi- CPU CPU CPU prozessor (SMP) tightly coupled Hauptspeicher Haupt- Haupt- Hauptspeicher speicher speicher Cluster loosely coupled CPU CPU CPU Haupt- Haupt- Hauptspeicher speicher speicher CPU CPU CPU closely coupled Globalspeicher Taxonomie von MIMD Parallelrechnern es 0315 ww6 wgs 08-00

6 vier Eingänge vier Ausgänge 4 x 4 Crossbar Matrix Switch es 0331 ww6 wgs 07-01

7 Leistungsverhalten eines Symmetric Multiprocessors (SMP) Angenommen, ein Zweifach Prozessor leistet das Zweifache minus n % eines Einfach Prozessors. Für n = 10 % ist es kaum sinnvoll, mehr als 4 Prozessoren einzusetzen. Für n = 5 % sind es 8 Prozessoren. Angenommen m = Anzahl CPUs. Der Leistungsabfall pro CPU ist Verlust pro CPU = n(m-1) Bei einem z9 Rechner mit z/os ist n << 2 %. Es ist sinnvoll, einen SMP mit bis zu 32 Prozessoren einzusetzen. Die Gründe für den Leistungsabfall sind Zugriffskonflikte bei der Hardware und Zugriffskonflikte auf Komponenten des Überwachers. Die Überwacherkonflikte überwiegen. es 0563 ww6 wgs 07-01

8 (S/390) MIPS Million Instructions Per Second Performance Benchmark für S/390 Rechner Ausführungszeit für eine Mischung von Maschinenbefehlen Reine CPU Leistung, keine Ein/Ausgabe Proprietärer IBM Standard verfügbar seit 1965, ständig erweitert und angepaßt an realistischen Anwendungsprofilen orientiert anwendbar für Rechner unterschiedlicher Hersteller Berücksichtigt Häufigkeit der einzelnen Maschinenbefehle Cache- und Hauptspeicherzugriffszeiten Bus Latency/Contention Cache Misses und Cache-Line reload Memory Refresh Benchmark besteht aus S/390 Maschinenbefehlen, daher nicht portierbar auf Rechner anderer Architektur ( Problem der S/390 äquivalenten MIPS ) es 0144 ww6 wgs 06-99

9 CPU CPU CPU CPU System Bus Hauptspeicher SMP, Prozessor Knoten Ein SMP (Symmetric Multiprocessor, Prozessor Knoten, Node) besteht aus mehreren CPU s, die auf einen gemeinsamen Hauptspeicher zugreifen Im Basisfall nur eine Kopie (Instanz) des Betriebssystems im gemeinsam genutzten Hauptspeicher SMP s Knoten Hochgeschwindigkeitsnetzwerk Cluster Bei einem Cluster werden mehrere SMP s (von denen jedes aus mehreren CPU s besteht), über ein Hochgeschwindigkeitsnetzwerk miteinander verbunden. Dieses Netzwerk kann ein leistungsfähiger Bus sein, wird aber häufig als Crossbarswitch implementiert. es 0318 ww6 wgs 08.00

10 Sun E System Board

11 CPU CPU CPU CPU Knoten I/O Hauptspeicher Switch 2.4 GByte/s pro Board 43.2 GByte/s Switch System Boards 4 fach SMP I/O Board Sun E15K 72 CPU s 18 System Boards, je 4 CPU/System Board I/O Controller auf jedem System Board es 1162 ww6 wgs 09-01

12 Sun Fire System hat max 576 Gbyte Hauptspeicher, max 18 CPU/Memory Boards, max 18 Domains, max 18 I/O Boards, max 72 PCI Slots für 72 PCI Karten. Board Set besteht aus Slot 0 Board, Slot 1 Board und Expander Board. Letzteres nimmt die beiden anderen Boards auf. Slot 0 Board ist entweder CPU/Memory Board (System Board, 18 max) oder System Controller Board (1 oder 2 max, nicht gezeigt). CPU/Memory Board hat 4 Sparc III, 1,2 Ghz CPUs, 8 DIMMS/CPU, 8GByte/CPU, 32GByte total. Hauptspeicher Zugriffszeit 180 ns für Hauptspeicher auf gleichem Board, ns für Hauptspeicher auf anderem Board. Es 0715 ww6 wgs 10-01

13 HP Superdome Cell Board

14 CPU CPU CPU CPU I/O Hauptspeicher Switch 4 Switches 16 Gbyte/s Switch Cell Boards 4 fach SMP Crossbar Interconnect HP Superdome Cluster 64 CPU s 16 Knoten (Cell Boards), je 4 CPU/Knoten I/O Anschluß auf jedem Cell Board es 1153 ww6 SJ p.340 wgs 09-99

15 Shared Nothing Modell es 0446 ww6 wgs 11-02

16 Concentrator Distributor 25 % 25 % 25 % 25 % System A B C D Database Shared nothing (partitioned data) Jeder Rechner greift auf seine eigenen Daten zu. Die Arbeitslast wird den einzelnen Rechnern statisch zugeordnet. Concentrator Distributor 2 x 1 x 3 x 2 x System A B C D Database Shared data (shared disk) Jeder Rechner greift auf alle Daten zu. Dynamische Zuordnung der Arbeitslast. es 0308 ww6 wgs 07-00

17 Rechner 1 Switch Rechner 2 SCSI SCSI Shared Disk Emulation Rechner 2 bittet Rechner 1, die gewünschten Daten zu übertragen es 0340 ww6 wgs 09-01

18 Processor Cards 4 fach SMP 4 Switches 16 Gbyte/s Switch Fibre Channel Switch Fibre Channel Storage Area Network (SAN) RAID, Storage Server HP Superdome Cluster 64 CPU s 16 Knoten, je 4 CPU/Knoten I/O Controller auf jeder Karte es 1154 ww6 wgs 06-01

19 CPU CPU CPU CPU 54 CPU s + 10 Support Prozessoren 512 Kanäle davon 8 I/O /System Hauptspeicher L2 Cache (z9 Rechner) Coupling Facility SMP SMP SMP SMP SMP SMP 32 max. Sysplex Timer 100 MByte/s FICON / Fibrechannel Protokoll (ESCON) / FICON andere E/A Switch 100 MByte/s Glasfaser CU CU CU CU Enterprise Storage Server Parallel Sysplex Es 0709 ww6 wgs 10-01

20 CTC Verbindung (Channel- to Channel) simu- simuz/series lierte lierte S/390 Rechner Control Control Rechner Unit Unit Channel- to Channel Verbindung Cross-System Coupling Facility (XCF) Die Cross-System Coupling Facility (XCF) verwendet das CTC Protokoll. Sie stellt die Coupling Services bereit, mit denen OS/390 Systeme innerhalb eines Sysplex miteinander kommunizieren. es 0336 ww6 wgs 06-01

21 Parallel Sysplex Cluster Technology Mehrfache z/os oder S/390 Systeme verhalten sich so, als wären sie ein einziges System (Single System Image). Parallel Sysplex Cluster Technology Komponenten: Prozessoren mit Parallel Sysplex Fähigkeiten Coupling Facility Coupling Facility Control Code (CFCC) Glasfaser Hochgeschwindigkeitsverbindungen ESCON oder FICON Switch Sysplex Timer Gemeinsam genutzte Platten (Shared DASD) System Software Subsystem Software Die Coupling Facility ermöglicht Data Sharing einschließlich Datenintegrität zwischen mehrfachen z/os oder S/390 Servern Der Sysplex Zeitgeber (Timer) stellt allen z/os und OS/390 Instanzen eine gemeinsame Zeitbasis zur Verfügung. Dies ermöglicht korrekte Zeitstempel und Ablaufsequenzen bei Datenbank Änderungen. Dies ist besonders bei Datenbank- Recovery Operationen wichtig. es 0409 ww6 wgs 04-99

22 zseries Coupling Facility Großrechner bearbeiten mehrere 1000 Transaktionen / Sekunde ACID Bedingungen

23 Literatur Wilhelm G. Spruth, Erhard Rahm: Sysplex-Cluster Technologien für Hochleistungs- Datenbanken. Datenbank-Spektrum, Heft 3, 2002, S Verfügbar (download): Sysplex Hardware: Sonderheft des IBM Journal of Research and Development, Vol. 36, No.4, July Sysplex Software: Sonderheft des IBM System Journal, Vol. 36, No.2, April Verfügbar (download): // es 1132 ww6 wgs 09-99

24 Coupling Facility Die Coupling (CF) Facility ist in Wirklichkeit ein weiterer zseries Rechner mit spezieller Software. Die Aufgaben der CF sind: Locking Caching Control/List Structure Management Der größte Teil des Coupling Facility Hauptspeichers wird für das caching von Plattenspeicherdaten eingesetzt. Locking Caching Control/List Die Coupling Facility ist über Glasfaser Verbindungen mit einem optimierten Protokoll und spezieller Hardware Unterstützung mit den Systemen des Sysplex verbunden. es 0335 ww6 wgs 06-01

25 Coupling Facility (CF) Die wichtigste Aufgabe der Coupling Facility ist ein zentrales Lock Management für die angeschlossenen Systeme. Der zentrale Lock Manager des SAP System R/3 hat in Ansätzen eine ähnliche Funktionalität. Der größte Teil des Hauptspeichers der Coupling Facility wird als Plattenspeicher Cache genutzt. Der CF Cache dupliziert den Plattenspeicher Cache in den einzelnen Systemen. Cast out der CF Cache auf einen Plattenspeicher erfolgt über ein System. CF Cache Cross-Invalidate nur an die betroffenen Systeme Control und List Strukturen dienen der Sysplex Cluster weiten Verwaltung. Beispiel: RACF Sicherheits Subsystem. es 0313 ww6 wgs 06-99

26 Coupling Facility Hardware Assist Lock Contention Überwachung globale Puffer Kohärenz-Steuerung optimiertes Protokoll, geringe Latency Glasfaser Synchrones Locking 100 MByte/s Synchrone Puffer Kohärenzsteuerung Synchrone Datenübertragung < 4 KByte Coupling Support Facility System A Anbindung eines Systems an die Coupling Facility Die CF Glasfaser Verbindung wird durch spezielle Hardware Einrichtungen und durch zusätzliche Maschinenbefehle in jedem System unterstützt. es 1103 ww6 wgs 08-00

27 Lock Cache Queue Structures Structures Structures Coupling Facility Link Prozessor CF Link (Glasfaser) Systeme Link Prozessor CPU s Lokale State Vectors Mehrere Systeme sind mit der gleichen Struktur logisch verbunden Je 1 lokaler State Vector für jede logische Verbindung zu einer Struktur Spezifische Maschinenbefehle für die Kommunikation CPU - CF. Zusätzlicher Link Prozessor für die Kommunikation. es 1109 ww6 wgs 09-99

28 Hauptspeicher der Lock Cache List Coupling Struktur Struktur Struktur Facility Lock Bit Vector Cache Bit Vector List Bit Vector Lock Bit Vector Cache Bit Vector List Bit Vector Hauptspeicher Hauptspeicher System 1 System 2 Zuordnung von Bit Vektoren zu CF Strukturen es 0713 ww6 wgs 12-01

29 getrennte Rechner, häufig SMP Unix, Linux, z/os Unix System Services Sperrverwaltung Anwendungs- Server Datenbank Server Anwendungs- Server Anwendungs- Server Datenbank Server TCP/IP LAN SAP Protokoll (SNA) Präsentation SAP System R/3 Sperrverwaltungs-Server Sperrverwaltungs-Server (Lock Server) ist ein normaler Unix oder Linux Rechner, über normales Netzwerkprotokoll angeschlossen. z/os CICS, IMS und DB/2 Stored Procedures verwenden stattdessen Coupling Facility, mit speziell für die Transaktionsverwaltung optimierter Hard- und Software. Höhere Skalierung. cs 1351 ww6 wgs 04-04

30 Locking Problem Anfangswerte: d1 = 15, d2 = 20 Transaktion 1 Transaktion 2 read d1 if d1 > 10 sub d1, 10 add d2, 10 read d1 if d1 > 10 sub d1, 10 add d2, 10 Ergebnis: d1 = - 5, d2 = 40

31 Benutzung von Locks (Sperren) Transaktion A Transaktion B GetReadLock (d1) read d1 if d1 > 10 GetReadLock (d1) read d1 if d1 > 10 GetWriteLock (d1) Nachricht an Transaktion 2 GetWriteLock (d2) sub d1, 10 add d2, 10 ReleaseLocks GetWriteLock (d1) GetWriteLock (d2) sub d1, 10 add d2, 10 Ergebnis: d1 = + 5, d2 = 30 Gray/Reuter p.380 es 1131 ww6 wgs 09-99

32 Two-phase Locking In Transaktions- und Datenbank-Systemen bezeichnen wir als Lock ein Objekt, das wenigstens über 4 Methoden verfügt: GetReadLock GetWriteLock PromoteReadtoWrite Unlock Locks müssen sowohl Lese- als auch Schreiboperationen abdecken: Vor einem Read, GetReadLock Vor einem Write, GetWriteLock oder PromoteReadtoWrite Wenn die Anforderung eines Locks erfolgreich ist, kann die Programmausführung fortgesetzt werden; andernfalls wird die Ausführung verzögert, bis das Lock verfügbar gemacht werden kann. cs 0925 ww wgs 02-97

33 Two-Phase Locking Two-Phase Transaktion In Transaktionssystemen und Datenbanksystemen ist ein Lock ein Objekt welches (mindestens) über 4 Methoden verfügt: GetReadLock reserviert S Lock (shared ) SHR GetWriteLock reserviert E Lock (exclusive) EXC PromoteReadtoWrite Wechsel S E Unlock Lock freigeben Mehrere Transaktionen können ein S Lock für das gleiche Objekt besitzen. Nur eine Transaktion kann ein E Lock für ein gegebenes Objekt besitzen. Wenn eine Transaktion ein S Lock in ein E Lock umwandelt, müssen alle anderen Besitzer des gleichen S Locks benachrichtigt werden. Normalerweise besitzt eine Transaktion mehrere Locks. In einer Two-Phase Transaktion finden alle Lock Aktionen zeitlich vor allen Unlock Aktionen statt. Eine Two-Phase Transaktion hat eine Wachstumsphase (growing), während der die Locks angefordert werden, und eine Schrumpf (shrink) Phase, in der die Locks wieder freigegeben werden. Nicht zu verwechseln mit dem 2-Pase Commit Protokoll der Transaktionsverarbeitung es 1130 ww6 wgs 09-99

34 Locking Protokoll Share Lock (SHR) erwerben vor dem erstmaligen Lesen Exclusive Lock (EXC) erwerben vor dem erstmaligen Schreiben derzeitiger Status Lesen Schreiben kein shared exclusive Anforderung Lesen bewilligt, bewilligt, abgelehnt, Share share- share- Mitteilung mode mode über Besitzer Schreiben bewilligt, bewilligt, abgelehnt, Exclusive exclusive Warnung Mitteilung mode über über Besitzer Besitzer es 1129 ww6 wgs 09-99

35 Lock Verwaltung System 1 System 2 Lock Tabelle 1. Lock prüfen 2. Lock setzen 3. Datenzugriff Im einfachsten Fall besteht die Lock Tabelle aus zusätzlichen Feldern in der Daten Tabelle es 1106 ww6 wgs 09-99

36 Shared Disk Verteilte Lock Tabelle in den Hauptspeichern der beteiligten Systeme. Zur Auflösung von Lock Konflikten Broadcast oder Nachricht von System i System j. Verarbeitung der laufenden Transaktion aussetzen; 20 ms Overhead. Beispiele: VAX DBMS und VAX Rdb/VMS es 1112 ww6 wgs 09-99

37 Haupt- Haupt- Haupt- Hauptspeicher speicher speicher speicher 2 write 1 invali date System System System System 3 A B C D cast out Database Database Database Database Invalidate-Broadcast Kohärenzsteuerung Nur System A besitzt Write Lock. B, C und D besitzen nur Read Lock. Invalidate Broadcast benachrichtigt B, C und D daß Kopie nicht mehr gültig. You cannot build a cluster that scales if you do not solve the locking problem es 0702 ww6 wgs 08-00

38

39 Commit Commit Start Transaction Start Transaction Get Lock Get Lock Lock freigeben Lock freigeben Eager und Lazy Locking Protokolle Eager Protokoll Lock freigeben wenn Commit Transaction Lazy Protokoll Lock freigeben wenn Contention Lazy Protokoll arbeitet besser, wenn Sharing selten auftritt. Beispiel TPC-C Sysplex Coupling Facility verwendet das Eager Protokoll (auch als force-at-commit bezeichnet). Sharing tritt häufig auf, wenn existierende Anwendungen auf den Sysplex portiert werden. es 1113 ww6 wgs 09-99

40 CPU Buffer Pool Hauptspeicher Plattenspeicher Elektronik Cache Cache Cache Plattenspeicher Plattenspeicher Cache und Hauptspeicher Buffer Pool Ein lokaler Cache im Hauptspeicher eines Knotens (System) wird als Buffer Pool bezeichnet. Er besteht aus einzelnen Puffern (Buffers), die Datenbankobjekte aufnehmen. Zusätzlich werden Daten in einem Plattenspeicher Cache gespeichert, der Bestandteil der Plattenspeicher Elektronik ist. es 0712 ww 6 wgs 12-01

41 Coupling Facility Cache Directory Ein Eintrag für jeden Block in jedem System optionaler Cache Blocks (Buffers) Bit Vektoren System A System B System C System D Database Database Database Database Aller Datentransfer in 4 KByte Blöcken. 1 System A Read from Disk 3 System A Write (to local Buffer) 1. Load Block from Disk 1. Register with CF 2. Register with CF Directory 2. CF invalidates all Bit Vectors 3. add Bit in Bit Vector 3. Write to local Buffer 2 System B Read from Disk 4 System B Read from Buffer 1. Load Block from Disk 1. Read 2. Register with CF Directory 2. detect invalid Bit 3. add Bit in Bit Vector in local Bit Vector es 1117 ww6 wgs 09-99

42 Hauptspeicher Coupling Cache Directory Cache Facility update/invalidate Directory LP CPU CPU CPU Hauptspeicher Bit Vektor System 2 LP CPU CPU CPU Hauptspeicher Bit Vektor System 1 LP CPU CPU CPU Link Prozessor Cache Directory Update in der Coupling Facility bewirkt, daß über die Link Prozessoren der Systeme deren Bit Vektoren im Hauptspeicher abgeändert werden, ohne daß der normale Programmablauf dadurch beeinflußt wird (kein Prozesswechsel) es 1147 ww6 7 wgs 09-99

43 CF List / Queue Strukturen 3 Zugriffsmöglichkeiten LIFO Queue FIFO Queue Key Sequenced Anwendungsbeispiele: Clusterweite RACF Steuerung Work Load Management Instanzen tauschen periodisch Status Information aus um Transaktionen dynamisch an unterbelastete Systeme weiter zu reichen es 1122 ww6 wgs 09-99

44

45 Cross Coupling Facility Address Space: XCFAS Angenommen mehrere Instanzen einer Anwendung oder eines Subsystems auf unterschiedlichen Knoten eines Sysplex, z.b. CICS oder WebSphere. Mit Hilfe von XCFAS können die Instanzen Status Information austauschen oder miteinander kommunizieren. Die gemeinsam genutzten Daten befinden sich als Listen- oder Queue-Strukturen auf der Coupling Facility. Der Zugriff auf diese Daten erfolgt mit Hilfe des Cross-System Extended Services (XES) Protokolls, welches Zugriffs- und Verwaltungsdienste zur Verfügung stellt. es 0723 ww6 wgs 09-02

46

47 Sysplex Overhead Durchsatz lineares Wachstum tatsächliches Sysplex Verhalten 1 Anzahl Systeme Installation Anzahl Systeme % Sysplex Overhead A 4 11 % B 3 10 C 8 9 D 2 7 E Relational Warehouse 2 13,30 Workload Die Sysplex Software (wenn installiert) erzeugt in jedem System zusätzlichen Overhead, selbst wenn der Sysplex nur aus einem einzigen System besteht. In jedem System wird zusätzliche CPU Kapazität benötigt um den gleichen Durchsatz zu erreichen. es 1128 ww6 wgs 09-

48 Verarbeitungskapazität 8 7 7, , Systeme Parallel Sysplex Leistungsverhalten CICS Transaktionsmanager, CICSplex System Manager, IMS Datenbank Mischung von OLTP, Reservierung, Data Warehouse und Bankanwendungen es 1127 ww6 wgs 09-99

Client/Server-Systeme

Client/Server-Systeme Client/Server-Systeme Prof. Dr.-Ing. Wilhelm Spruth WS 2008/2009 Teil 11 Parallelrechner Sysplex Coupling Facility Symmetrischer Multiprozessor (SMP) CPU CPU CPU tightly coupled Hauptspeicher Cluster loosely

Mehr

Mainframe Internet Integration. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013. Parallel Sysplex Teil 4. Cache und Listen Strukturen

Mainframe Internet Integration. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013. Parallel Sysplex Teil 4. Cache und Listen Strukturen UNIVERSITÄT LEIPZIG Mainframe Internet Integration Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013 Parallel Sysplex Teil 4 Cache und Listen Strukturen copyright Abteilung Technische Informatik,

Mehr

Einführung in z/os Enterprise Computing

Einführung in z/os Enterprise Computing Einführung in z/os Enterprise Computing Prof. Dr. Martin Bogdan Dr. rer. nat. Paul Herrmannn Prof. Dr.-Ing. Wilhelm G. Spruth WS 2009/2010 Teil 12 Sysplex Coupling Facility es 0101 ww6 copyright W. G.

Mehr

Enterprise Computing

Enterprise Computing Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth WS 2011/12 Teil 6 Sysplex und Coupling Facility Literatur Wilhelm G. Spruth, Erhard Rahm: Sysplex-Cluster Technologien für Hochleistungs-Datenbanken.

Mehr

Einführung in z/os Prof. Dr.- Martin Bogdan Dr. rer. nat. Paul Herrmannn Prof. Dr.-Ing. Wilhelm G. Spruth WS 2008/2009 Teil 5 Parallelrechner, I/O

Einführung in z/os Prof. Dr.- Martin Bogdan Dr. rer. nat. Paul Herrmannn Prof. Dr.-Ing. Wilhelm G. Spruth WS 2008/2009 Teil 5 Parallelrechner, I/O Einführung in z/os Prof. Dr.- Martin Bogdan Dr. rer. nat. Paul Herrmannn Prof. Dr.-Ing. Wilhelm G. Spruth WS 2008/2009 Teil 5 Parallelrechner, I/O es 0101 ww6 wgs 09-99 Symmetrisch. Multi- CPU CPU CPU

Mehr

Einführung in z/os und OS/390

Einführung in z/os und OS/390 Einführung in z/os und OS/390 Dr. rer. nat. Paul Herrmannn Prof. Dr.-Ing. Wilhelm G. Spruth WS 2006/2007 Teil 11 Parallel Sysplex, Coupling Facility es 0101 ww6 wgs 09-99 zseries Coupling Facility Großrechner

Mehr

Internet Anwendungen unter OS/390

Internet Anwendungen unter OS/390 Internet Anwendungen unter OS/390 Dr. rer. nat. Paul Herrmannn Prof. Dr.rer.nat. Udo Kebschull Prof. Dr.-Ing. Wilhelm G. Spruth WS 2004/2005 Teil 2 zseries Ein-/Ausgabe es 0301 ww6 wgs 09-99 Ein/Ausgabe

Mehr

Enterprise Computing

Enterprise Computing Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth Teil 6 Partitionierung NUMA Sharing Disk Storage HP Superdome Cell Board 4 Itanium 2 CPU Chips 32 128 Gbyte I/O Bus mit Kühlern Hauptspeicher Anschlüsse

Mehr

Einführung in z/os und OS/390

Einführung in z/os und OS/390 Einführung in z/os und OS/390 Web-Services und Internet-Anwendungen für Mainframes von Paul Herrmann Wilhelm Gustav Spruth 3., verbesserte und erweiterte Auflage Oldenbourg Verlag München Vorwort VII 1

Mehr

Enterprise Computing

Enterprise Computing Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth WS 2010/11 Teil 5 Parallel Rechner Implementierungen Mehrfachrechner (Multiprocessor) Parallelrecher (Parallel Processor) Mehrfachrechner: Auf mehreren

Mehr

Enterprise Computing

Enterprise Computing Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth WS 2011/12 Teil 5 Parallel Rechner Implementierungen Mehrfachrechner (Multiprocessor) Parallelrecher (Parallel Processor) Mehrfachrechner: Auf mehreren

Mehr

Enterprise Computing Einführung in das Betriebssystem z/os

Enterprise Computing Einführung in das Betriebssystem z/os Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Dr. rer. nat. Paul Herrmannn Prof. Dr.-Ing. Wilhelm G. Spruth WS 2009/2010 Teil 7 Parallel Rechner Implementierungen es

Mehr

Oracle Workload für den Mainframe

Oracle Workload für den Mainframe Oracle Workload für den Mainframe DOAG Regionalgruppe 18.01.2005 Joachim Jaensch Principal Sales Consultant BU Datenbank und Plattformtechnologien joachim.jaensch jaensch@oracle.com Agenda Der Mainframe

Mehr

<Insert Picture Here> RAC Architektur und Installation

<Insert Picture Here> RAC Architektur und Installation RAC Architektur und Installation Elmar Ströhmer Michael Künzner Oracle Server Technologies Competence Center Agenda Überblick und Architekturen von HA-Systemen Hardware Die Basis

Mehr

Überlegungen zur Kapazitätsplanung bei Hardware Upgrades

Überlegungen zur Kapazitätsplanung bei Hardware Upgrades Überlegungen zur Kapazitätsplanung bei Hardware Upgrades GSE z/vm und z/vse Frühjahrstagung 2005 Dagmar Kruse dkruse@de.ibm.com Inhalt der Präsentation z890: attraktiv für VM/VSE - Kunden Kriterien zur

Mehr

Invalidierungs- und Update-basierte Cache-Kohärenz-Protokolle

Invalidierungs- und Update-basierte Cache-Kohärenz-Protokolle Invalidierungs- und Update-basierte Cache-Kohärenz-Protokolle Architecture of Parallel Computer Systems WS15/16 J.Simon 1 SC mit Write-Back Caches Beweisidee: Behandlung von Reads wie beim Write-Through

Mehr

In heutigen Computern findet man schnellen/teuren als auch langsamen/billigen Speicher

In heutigen Computern findet man schnellen/teuren als auch langsamen/billigen Speicher Speicherhierarchie In heutigen Computern findet man schnellen/teuren als auch langsamen/billigen Speicher Register Speicherzellen, direkt mit der Recheneinheit verbunden Cache-Speicher Puffer-Speicher

Mehr

The Unbreakable Database System

The Unbreakable Database System The Unbreakable Database System Real Application Cluster Unterföhring, 04.2005 M. Kühn 1 Comparisson HA - HA Ziele, DataGuard, HA Oracle, RAC RAC Features - Cache Fusion, TAF, Load Balancing RAC on Solaris

Mehr

UNIVERSITÄT LEIPZIG. Mainframe Internet Integration SS2013. Virtualisierung Teil 1. Partitionierung

UNIVERSITÄT LEIPZIG. Mainframe Internet Integration SS2013. Virtualisierung Teil 1. Partitionierung UNIVERSITÄT LEIPZIG Mainframe Internet Integration Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013 Virtualisierung Teil 1 Partitionierung el0100 copyright W. G. Spruth, wgs 04-11 Skalierung

Mehr

Einfaches MSI-Writeback-Inval-Protokoll

Einfaches MSI-Writeback-Inval-Protokoll Einfaches MSI-Writeback-Inval-Protokoll Write-Back Cache typischerweise Write-allocate bei einem Write-Miss Zustände Invalid (I): Shared (S): Kopien in einem oder mehreren Caches Dirty or Modified (M):

Mehr

Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13

Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13 UNIVERSITÄT LEIPZIG Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13 Verarbeitungsgrundlagen Teil 2 Virtual Storage el0100 copyright

Mehr

Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13

Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13 UNIVERSITÄT LEIPZIG Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13 Verarbeitungsgrundlagen Teil 4 Cache el0100 copyright W.

Mehr

A501 Disk-Subsystem. IKT-Standard. Ausgabedatum: 2015-02-03. Version: 2.03. Ersetzt: 2.02

A501 Disk-Subsystem. IKT-Standard. Ausgabedatum: 2015-02-03. Version: 2.03. Ersetzt: 2.02 Eidgenössisches Finanzdepartement EFD Informatiksteuerungsorgan des Bundes ISB A501 Disk-Subsystem Klassifizierung: Typ: Nicht klassifiziert IKT-Standard Ausgabedatum: 2015-02-03 Version: 2.03 Status:

Mehr

System z9 and zseries Processor Capacity Reference. zpcr Erfahrungsbericht

System z9 and zseries Processor Capacity Reference. zpcr Erfahrungsbericht Qualität unser Service System z9 and zseries Processor Capacity Reference zpcr Erfahrungsbericht Dagmar Fischer - Lahnstein 28.02.2008 Agenda Ausgangspunkt Rechnerkapazität MSU MIPS LSPR Workloads ETR

Mehr

Seminar Großrechneraspekte (Mainframe): Von Betriebssystemen bis zur Datenbank und darüber hinaus. E/A Architektur

Seminar Großrechneraspekte (Mainframe): Von Betriebssystemen bis zur Datenbank und darüber hinaus. E/A Architektur Seminar Großrechneraspekte (Mainframe): Von Betriebssystemen bis zur Datenbank und darüber hinaus E/A Architektur Thomas Scheffler e-mail: thomas.scheffler@uni-jena.de Friedrich-Schiller-Universität Jena

Mehr

Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS 2012/13

Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS 2012/13 UNIVERSITÄT LEIPZIG Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS 2012/13 System z/hardware Teil 3 Book und System Frame el0100

Mehr

Performance Tuning & Scale-Out mit MySQL

Performance Tuning & Scale-Out mit MySQL Performance Tuning & Scale-Out mit MySQL Erfa-Gruppe Internet Briefing 2. März 2010 Oli Sennhauser Senior MySQL Consultant, FromDual oli.sennhauser@fromdual.com www.fromdual.com 1 Inhalt Allgemeines zu

Mehr

Enterprise Computing Einführung in das Betriebssystem z/os

Enterprise Computing Einführung in das Betriebssystem z/os Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Dr. rer. nat. Paul Herrmannn Prof. Dr.-Ing. Wilhelm G. Spruth WS 2009/2010 Teil 5 Ein/Ausgabe Verarbeitung es 0101 ww6

Mehr

Cache II. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011

Cache II. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 Cache II Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 Cache II 1/14 2012-02-29 Schreibstrategien Es sind verschiedene Fälle

Mehr

DOAG Konferenz 2007 in Nürnberg

DOAG Konferenz 2007 in Nürnberg DOAG Konferenz 2007 in Nürnberg Auswahl und Sizing: Die richtige Hardware (+Software) für Oracle Björn Bröhl Projektmanager Handlungsbevollmächtigter Seite 1 Inhalt Die Zielsetzung Vorgehensweise Auswahl

Mehr

Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/2013

Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/2013 UNIVERSITÄT LEIPZIG Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/2013 CICS Transaktionsserver Teil 3 CICS Nucleus el0100 copyright

Mehr

Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP)

Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP) Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP) @wefinet Werner Fischer, Thomas-Krenn.AG Webinar, 17. Oktober 2017 Intel Xeon Scalable Performance _ Das ist NEU: Neue

Mehr

herzlich vsankameleon Anwendungsbeispiel Titelmasterformat durch Klicken bearbeiten willkommen Titelmasterformat durch Klicken bearbeiten

herzlich vsankameleon Anwendungsbeispiel Titelmasterformat durch Klicken bearbeiten willkommen Titelmasterformat durch Klicken bearbeiten herzlich willkommen vsankameleon Anwendungsbeispiel Powered by DataCore & Steffen Informatik vsan? Kameleon? vsan(virtuelles Storage Area Network) Knoten Konzept Titelmasterformat Alle HDD s über alle

Mehr

Gregor Michalicek, Marcus Schüler. Multiprozessoren

Gregor Michalicek, Marcus Schüler. Multiprozessoren Gregor Michalicek, Marcus Schüler Gregor Michalicek Marcus Schüler Gregor Michalicek, Marcus Schüler Vorteile gegenüber Singleprozessoren ¾ sind zuverlässiger. Einige Multiprozessorsysteme können trotz

Mehr

11.3 Transaktionen und LUWs in SAP R/3

11.3 Transaktionen und LUWs in SAP R/3 11.3 Transaktionen und LUWs in SAP R/3 G Transaktionen heissen in SAP/R3 Logical Unit of Work (LUW). Eine LUW besteht in der Regel aus zwei Teilen: SAP-Transaktion: Folge von vorbereiteten Dialogschritten

Mehr

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel Freiberuflicher Schwerpunkte: Unix, Oracle, Netzwerk 2005 1 Testaufbauten von Oracle 10g RAC auf preiswerter Hardware 2 3 Typisches Cluster System Clients Public Network Node A Node B Cluster Interconnect

Mehr

Rechnerarchitektur SS 2012

Rechnerarchitektur SS 2012 Rechnerarchitektur SS 2012 Cachekohärenz Michael Engel TU Dortmund, Fakultät für Informatik Teilweise basierend auf Material von Gernot A. Fink und R. Yahyapour 11. Juni 2013 Speicher in MP-Systemen Zentrales

Mehr

LDom Performance optimieren

LDom Performance optimieren LDom Performance optimieren Marcel Hofstetter JomaSoft GmbH St. Gallen / Schweiz Schlüsselworte Virtualisierung, SPARC, T4, T5, LDom, Oracle VM Server for SPARC, VDCF Einleitung Die aktuellen Oracle SPARC

Mehr

Mehrprozessorarchitekturen

Mehrprozessorarchitekturen Mehrprozessorarchitekturen (SMP, UMA/NUMA, Cluster) Arian Bär 12.07.2004 12.07.2004 Arian Bär 1 Gliederung 1. Einleitung 2. Symmetrische Multiprozessoren (SMP) Allgemeines Architektur 3. Speicherarchitekturen

Mehr

SAP und Oracle RAC virtualisiert in Solaris Containern. Dipl.-Ing. Michael Ahrens Principal Solution Architect & SAP Technology Consultant

SAP und Oracle RAC virtualisiert in Solaris Containern. Dipl.-Ing. Michael Ahrens Principal Solution Architect & SAP Technology Consultant SAP und Oracle RAC virtualisiert in Solaris Containern Dipl.-Ing. Michael Ahrens Principal Solution Architect & SAP Technology Consultant Oracle + Sun für virtualisierte SAP Systeme: Complete, Open, Integrated

Mehr

Oracle Core für Einsteiger: Datenbank I/O

Oracle Core für Einsteiger: Datenbank I/O Oracle Core für Einsteiger: Datenbank I/O Martin Klier Performing Databases GmbH Mitterteich #FiveWordTechHorrors Storage comes from other department @MartinKlierDBA Oracle Core für Einsteiger: Datenbank

Mehr

Einführung in das System z Mainframe

Einführung in das System z Mainframe Einführung in das System z Mainframe Prof. Dr.-Ing. Wilhelm G. Spruth 2. Juli 2007 Humboldt Universität Berlin Teil 2 System z Architektur es 0101 ww6 G. Amdahl G.A. Blaauw B.O. Evans F.P. Brooks /360

Mehr

Rechnerarchitektur SS 2012

Rechnerarchitektur SS 2012 Rechnerarchitektur SS 2012 Cachekohärenz TU Dortmund, Fakultät für Informatik XII Literatur: Hennessy/Patterson: Computer Architecture, 3. Auflage, 2003, Abschnitte 6.2, S. 549ff und 6.5, S. 576ff. Huang:

Mehr

Sysplex-Cluster-Technologien für Hochleistungs-Datenbanken

Sysplex-Cluster-Technologien für Hochleistungs-Datenbanken Wilhelm G. Spruth, Erhard Rahm Sysplex-Cluster-Technologien für Hochleistungs-Datenbanken Wir stellen die Cluster-Architektur IBM Parallel Sysplex und ihren Einsatz zur Datenbank- und Transaktionsverarbeitung

Mehr

1.0 Ein Blick zurück - Wie es angefangen hat 2.0 Die z/architektur und die zseries 3.0 Die I/O-Architektur der zseries

1.0 Ein Blick zurück - Wie es angefangen hat 2.0 Die z/architektur und die zseries 3.0 Die I/O-Architektur der zseries 1.0 Ein Blick zurück - Wie es angefangen hat... 11 1.1 Von null auf 1900... 11 Der Abakus - Vor Jahrtausenden erfunden... 11 Schickard entwickelt das Zählrad... 11 Leibniz und die Nachfolger... 12 Babbages

Mehr

Data Sharing im Cluster am Beispiel von Adabas Arno Zude, Adabas-Entwicklung Vortrag an der Universität Jena

Data Sharing im Cluster am Beispiel von Adabas Arno Zude, Adabas-Entwicklung Vortrag an der Universität Jena Data Sharing im Cluster am Beispiel von Arno Zude, -Entwicklung Vortrag an der Universität Jena 2. Februar 2006 Themen Cluster Services Data Sharing im Cluster mit / 2.2.06 / 2 Software AG Cluster Services

Mehr

Speicherklassen außerhalb des Arrays. Dr. Carsten Haak ESD Practice Manager EMEA EMC Corp.

Speicherklassen außerhalb des Arrays. Dr. Carsten Haak ESD Practice Manager EMEA EMC Corp. Speicherklassen außerhalb des Arrays Dr. Carsten Haak ESD Practice Manager EMEA EMC Corp. 1 Multi-Tiering 2 Entwicklung Von Single- zu Multi-Tiering Festplatten LUNs Chunks Wir sehen auch die kalten Abschnitte

Mehr

Virtueller Speicher und Memory Management

Virtueller Speicher und Memory Management Virtueller Speicher und Memory Management Speicher-Paradigmen Programmierer ein großer Adressraum linear adressierbar Betriebssystem eine Menge laufender Tasks / Prozesse read-only Instruktionen read-write

Mehr

SPARC LDom Performance optimieren

SPARC LDom Performance optimieren SPARC LDom Performance optimieren Marcel Hofstetter hofstetter@jomasoft.ch http://www.jomasoftmarcel.blogspot.ch Mitgründer, Geschäftsführer, Enterprise Consultant JomaSoft GmbH 1 Inhalt Wer ist JomaSoft?

Mehr

é Er ist software-transparent, d.h. der Benutzer braucht nichts von seiner Existenz zu wissen. Adreßbus Cache- Control Datenbus

é Er ist software-transparent, d.h. der Benutzer braucht nichts von seiner Existenz zu wissen. Adreßbus Cache- Control Datenbus 4.2 Caches é Cache kommt aus dem Französischen: cacher (verstecken). é Er kann durch ein Anwendungsprogramm nicht explizit adressiert werden. é Er ist software-transparent, d.h. der Benutzer braucht nichts

Mehr

SAFE HARBOR STATEMENT

SAFE HARBOR STATEMENT SAFE HARBOR STATEMENT The following is intended to outline our general product direction. It is intended for information purposes only, and may not be incorporated into any contract. It is not a commitment

Mehr

11. Sysplex Mehrfachrechner

11. Sysplex Mehrfachrechner 11. Sysplex 11-1 Mehrfachrechner 11.1.1 Taxonomie von Mehrfachrechnern Eine einzelne CPU hat eine nur begrenzte Rechenleistung. Die Forderung nach mehr Rechenleistung führte dazu, mehrere Prozessoren zu

Mehr

Sicherheit und Performance in Hochleistungssystemen

Sicherheit und Performance in Hochleistungssystemen - Seminar - Sicherheit und Performance in Hochleistungssystemen - Mainframes/Großrechner in der modernen IT - Wintersemester 2013/14 Institut für Informatik Lehrstuhl für Datenbanken und Informationssysteme

Mehr

CHARON-AXP Alpha Hardwarevirtualisierung

CHARON-AXP Alpha Hardwarevirtualisierung Alpha virtualisierung Nutzung von Softwareinvestitionen auf neuer plattform Jörg Streit, Reinhard Galler Inhalt: Alpha überblick Wozu Alpha? Prinzip der Produkte Performance Cluster Support Zusammenfassung

Mehr

Oracle Database 10g Die RAC Evolution

Oracle Database 10g Die RAC Evolution Oracle Database 10g Die RAC Evolution Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 RAC-Revolution, RAC-Evolution & Computing Oracle8i mit OPS Oracle9i Rel.

Mehr

Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS20121/13

Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS20121/13 UNIVERSITÄT LEIPZIG Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS20121/13 Verarbeitungsgrundlagen Teil 1 Multiprogrammierung el0100

Mehr

Mainframe Internet Integration. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013. Java Transaction Processing Teil 1

Mainframe Internet Integration. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013. Java Transaction Processing Teil 1 UNIVERSITÄT LEIPZIG Mainframe Internet Integration Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013 Java Transaction Processing Teil 1 EJB Transaktionseigenschaften el0100 copyright W. G.

Mehr

Open Source Application Server auf dem Mainframe

Open Source Application Server auf dem Mainframe Open Source Application Server auf dem Mainframe Fabian Czicholl, Technical Sales WebSphere on System z Dennis Behm, Technical Sales WebSphere on System z Agenda Einführung in den Mainframe Java unter

Mehr

Mainframe Internet Integration. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013. Java Connection Architecture Teil 3

Mainframe Internet Integration. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013. Java Connection Architecture Teil 3 UNIVERSITÄT LEIPZIG Mainframe Internet Integration Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013 Java Connection Architecture Teil 3 CICS Transaction Gateway el0100 copyright W. G. Spruth,

Mehr

Enterprise Computing

Enterprise Computing Enterprise Computing WS 2010/11 Prof. Dr.-Ing. Wilhelm G. Spruth Teil 2 Mainframe Hardware Hardware für betriebswirtschaftliche Großrechner Die meisten Implementierungen von betriebswirtschaftlichen Großrechnern

Mehr

Lizenzkosten durch geeignete Infrastrukturen optimieren

Lizenzkosten durch geeignete Infrastrukturen optimieren Lizenzkosten durch geeignete Infrastrukturen optimieren November 2017 manfred.drozd@peakmarks.com Lizenzkosten durch geeignete Infrastrukturen optimieren 1 Über peakmarks 2 Ansatzpunkte für Lizenzoptimierung

Mehr

Busse. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009

Busse. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 Busse Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 Busse 1/40 2008-10-13 Übersicht 1 Einleitung 2 Bus-Konfiguration

Mehr

Weitere Verbesserungen

Weitere Verbesserungen Weitere Verbesserungen Welcher Cache liefert aktuellen Block falls mehrere Caches Block im Zustand S halten? Lösung: Einführung eines weiteren Zustands O (Owner) Zustand O besagt: Eigentümer des Blocks

Mehr

M5000 einfach ablösen durch T4/T5 LDoms und Solaris Zonen

M5000 einfach ablösen durch T4/T5 LDoms und Solaris Zonen M5000 einfach ablösen durch T4/T5 LDoms und Solaris Zonen Marcel Hofstetter JomaSoft GmbH St. Gallen / Schweiz Schlüsselworte M5000, T4, T5, LDoms, Oracle Solaris 11, Solaris Zonen, VDCF Einleitung Die

Mehr

RAC auf Sun Cluster 3.0

RAC auf Sun Cluster 3.0 RAC auf Sun Cluster 3.0 Schlüsselworte RAC, OPS, Sun Cluster, Performance, Availability Zusammenfassung Oracle hat mit dem Real Application Cluster (RAC) aus einer Hochverfügbarkeitslösung eine Höchstverfügbarkeitslösung

Mehr

Oracle Database 10g RAC Plattformen im Detail

Oracle Database 10g RAC Plattformen im Detail Oracle Database 10g RAC Plattformen im Detail Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 Agenda Einleitung RAC was ist das noch gleich? Wer die Wahl hat,

Mehr

Rechnerstrukturen. 6. System. Systemebene. Rechnerstrukturen Wintersemester 2002/03. (c) Peter Sturm, Universität Trier 1. Prozessor.

Rechnerstrukturen. 6. System. Systemebene. Rechnerstrukturen Wintersemester 2002/03. (c) Peter Sturm, Universität Trier 1. Prozessor. Rechnerstrukturen 6. System Systemebene 1 (Monoprozessor) 2-n n (Multiprozessor) s L1- in der L2- ( oder Motherboard) ggf. L3- MMU Speicher Memory Controller (Refresh etc.) E/A-Geräte (c) Peter Sturm,

Mehr

Mainframe Internet Integration. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013. WebSphere Application Server Teil 4

Mainframe Internet Integration. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013. WebSphere Application Server Teil 4 UNIVERSITÄT LEIPZIG Mainframe Internet Integration Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013 WebSphere Application Server Teil 4 Leistungsverhalten el0100 copyright W. G. Spruth,

Mehr

Intel 80x86 symmetrische Multiprozessorsysteme. Eine Präsentation im Rahmen des Seminars Parallele Rechnerarchitekturen von Bernhard Witte

Intel 80x86 symmetrische Multiprozessorsysteme. Eine Präsentation im Rahmen des Seminars Parallele Rechnerarchitekturen von Bernhard Witte Intel 80x86 symmetrische Multiprozessorsysteme Eine Präsentation im Rahmen des Seminars Parallele Rechnerarchitekturen von Bernhard Witte Gliederung I. Parallel Computing Einführung II.SMP Grundlagen III.Speicherzugriff

Mehr

Systeme 1: Architektur

Systeme 1: Architektur slide 1 Vorlesung Systeme 1: Architektur Prof. Dr. Ulrich Ultes-Nitsche Forschungsgruppe Departement für Informatik Universität Freiburg slide 2 Prüfung 18. Februar 2004 8h00-11h40 13h00-18h20 20 Minuten

Mehr

Rechnerorganisation. 1. Juni 201 KC Posch

Rechnerorganisation. 1. Juni 201 KC Posch .6.2 Rechnerorganisation. Juni 2 KC Posch .6.2 2 .6.2 Front Side Bus Accelerated Graphics Port 28 MHz Front Side Bus North Bridge RAM idge South Bri IDE USB PCI Bus 3 .6.2 Front Side Bus Front Side Bus

Mehr

Sysplex-Cluster-Technologien für Hochleistungs-Datenbanken

Sysplex-Cluster-Technologien für Hochleistungs-Datenbanken Sysplex-Cluster-Technologien für Hochleistungs-Datenbanken Wilhelm G. Spruth, Erhard Rahm Institut für Informatik, Universität Leipzig Wir stellen die Cluster-Architektur IBM Parallel Sysplex und ihren

Mehr

Herzlich Willkommen zum HP Storage Summit 2015

Herzlich Willkommen zum HP Storage Summit 2015 ENDE Herzlich Willkommen zum HP Storage Summit 2015 1 10.09.2015 HP Storage Launch HP 3PAR StoreServ 8000 Storage Lösungen für den New Style of Business HP 3PAR StoreServ Next Gen Tech Talk Peter Mattei

Mehr

Solaris Cluster. Dipl. Inform. Torsten Kasch <tk@cebitec.uni Bielefeld.DE> 8. Januar 2008

Solaris Cluster. Dipl. Inform. Torsten Kasch <tk@cebitec.uni Bielefeld.DE> 8. Januar 2008 Dipl. Inform. Torsten Kasch 8. Januar 2008 Agenda Übersicht Cluster Hardware Cluster Software Konzepte: Data Services, Resources, Quorum Solaris Cluster am CeBiTec: HA Datenbank

Mehr

NEVARIS Build Systemvoraussetzungen

NEVARIS Build Systemvoraussetzungen System- und Hardwarevoraussetzungen NEVARIS Build Die optimale Konfiguration einer passenden Hardware für NEVARIS Build mit der Datenbank von Microsoft hängt von zahlreichen Einflussgrößen ab, wie z. B.

Mehr

Busse. Dr.-Ing. Volkmar Sieh WS 2005/2006. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg

Busse. Dr.-Ing. Volkmar Sieh WS 2005/2006. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg Einleitung Bus-Konfiguration Bus-Arbitrierung Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2005/2006 Einleitung Bus-Konfiguration Bus-Arbitrierung

Mehr

Hardware PCI-Bus. Dr.-Ing. Matthias Sand. Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg

Hardware PCI-Bus. Dr.-Ing. Matthias Sand. Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg Hardware PCI-Bus Dr.-Ing. Matthias Sand Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 Hardware PCI-Bus 1/23 2008-08-06 Übersicht Inhalt:

Mehr

Hardware PCI-Bus. Dr.-Ing. Matthias Sand. Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg

Hardware PCI-Bus. Dr.-Ing. Matthias Sand. Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg Hardware PCI-Bus Dr.-Ing. Matthias Sand Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2007/2008 Hardware PCI-Bus 1/23 2007-10-26 Übersicht Inhalt:

Mehr

Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/2013. Input/Output Teil 3

Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/2013. Input/Output Teil 3 UNIVERSITÄT LEIPZIG Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/2013 Input/Output Teil 3 Mainframe I/O el0100 copyright W.

Mehr

<Insert Picture Here> Die RZ-Zentrale - Grid Control hochverfügbar

<Insert Picture Here> Die RZ-Zentrale - Grid Control hochverfügbar Die RZ-Zentrale - Grid Control hochverfügbar Heinz Mielimonka Principal Sales Consultant Agenda Komponentenüberblick Hochverfügbare Konfiguration Installation und Konfiguration Der

Mehr

Der neue Hessische Hochleistungsrechner HHLR

Der neue Hessische Hochleistungsrechner HHLR Der neue Hessische Hochleistungsrechner HHLR Erste Erfahrungen Norbert Conrad, conrad@hrz.tu-darmstadt.de ZKIHessen 26.8.2002 1 Darmstädter Hochleistungsrechner 1987: IBM 3090 VF ( 2 x 0,12 GFLOPS Vektor

Mehr

Patagonia - Ein Mehrbenutzer-Cluster für Forschung und Lehre

Patagonia - Ein Mehrbenutzer-Cluster für Forschung und Lehre Patagonia - Ein Mehrbenutzer-Cluster für Forschung und Lehre Felix Rauch Christian Kurmann, Blanca Maria Müller-Lagunez, Thomas M. Stricker Institut für Computersysteme ETH Zürich Eidgenössische Technische

Mehr

Rückschlüsse durch Host- Performance-Daten auf das Datenbankverhalten. DOAG Regio Karlsruhe 13. Juni 2013

Rückschlüsse durch Host- Performance-Daten auf das Datenbankverhalten. DOAG Regio Karlsruhe 13. Juni 2013 Rückschlüsse durch Host- Performance-Daten auf das Datenbankverhalten DOAG Regio Karlsruhe 13. Juni 2013 Herrmann & Lenz Services GmbH Herrmann & Lenz Solutions GmbH Erfolgreich seit 1996 am Markt Firmensitz:

Mehr

egs Storage Offensive

egs Storage Offensive egs Storage Offensive Seit mittlerweile 5 Jahren können wir eine enge Partnerschaft zwischen der egs Netzwerk und Computersysteme GmbH und dem führenden Anbieter im Bereich Datenmanagement NetApp vorweisen.

Mehr

Linux auf System z. z/os Guide Lahnstein 11.03.2009. oliver.roethinger@spb.de. 11.03.2009 Seite 1

Linux auf System z. z/os Guide Lahnstein 11.03.2009. oliver.roethinger@spb.de. 11.03.2009 Seite 1 Linux auf System z z/os Guide Lahnstein 11.03.2009 oliver.roethinger@spb.de 11.03.2009 Seite 1 Die Sparda-Datenverarbeitung eg betreut bundesweit 13 Banken mit 8000 Mitarbeitern und einer Bilanzsumme 53

Mehr

Multiprozessoren. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011

Multiprozessoren. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 Multiprozessoren Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 Multiprozessoren 1/29 2011-06-16 Multiprozessoren Leistungsfähigkeit

Mehr

Erfahrungsbericht, Konsolidierung und Administration Real Application Cluster

Erfahrungsbericht, Konsolidierung und Administration Real Application Cluster Erfahrungsbericht, Konsolidierung und Administration Real Application Cluster Themen Über mich Projekt RAC bei Heine Probleme Resultate Fragen 2 Über mich virtual7 GmbH Jürgen Bouché Zeppelinstraße 2 76185

Mehr

z/os System Logger Performance

z/os System Logger Performance z/os System Logger Performance Lahnstein 30.09.2011 Dagmar Fischer Ein Unternehmen der Finanz Informatik A g e n d a» z/os System Logger Performance System Logger Überblick LOGSTREAM Nutzung LOGSTREAM

Mehr

IBM Informix Tuning und Monitoring

IBM Informix Tuning und Monitoring Seminarunterlage Version: 11.01 Copyright Version 11.01 vom 25. Juli 2012 Dieses Dokument wird durch die veröffentlicht. Copyright. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen

Mehr

SIMATIC PCS 7 V8.2 Management Console Funktionen und News

SIMATIC PCS 7 V8.2 Management Console Funktionen und News SIMATIC PCS 7 V8.2 Management Console Funktionen und News Frei Verwendbar Siemens AG 2016 siemens.com/process-automation SIMATIC PCS 7 V8.2 Life Cycle Management Erweiterung der SIMATIC Management Console

Mehr

UNIVERSITÄT LEIPZIG. Mainframe Internet Integration SS2013. Virtualisierung Teil 4. Intelligent Resource Director

UNIVERSITÄT LEIPZIG. Mainframe Internet Integration SS2013. Virtualisierung Teil 4. Intelligent Resource Director UNIVERSITÄT LEIPZIG Mainframe Internet Integration Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013 Virtualisierung Teil 4 Intelligent Resource Director el0100 copyright W. G. Spruth, wgs

Mehr

1 Organisationsaspekte RISC- und CISC-Prozessoren Ausnutzen von Cache-Effekten

1 Organisationsaspekte RISC- und CISC-Prozessoren Ausnutzen von Cache-Effekten McFarling [1989] konnte Cache Misses um 75% in 8KB direkt abbildenden Caches durch Softwaremaßnahmen senken. Instruktionen Umordnen im Speicher, um Conflict-Misses zu reduzieren Profiling : spezielle Konfliktvermeidungsmaßnahmen

Mehr

GSCC General Storage Cluster Controller. TSM Verfügbarkeit

GSCC General Storage Cluster Controller. TSM Verfügbarkeit GSCC General Storage Cluster Controller TSM Verfügbarkeit Skyloft 17.06.2015 Karsten Boll GSCC Themen Historie und Überblick Design und Architektur IP Cluster (DB2 HADR) GSCCAD das GUI Trends GSCC Neuigkeiten

Mehr

Oracle Real Application Clusters: Requirements

Oracle Real Application Clusters: Requirements Oracle Real Application Clusters: Requirements Seite 2-1 Systemvoraussetzungen Mind. 256 MB RAM (mit 128 MB geht es auch...) Mind. 400 MB Swap Space 1,2 GB freier Speicherplatz für f r Oracle Enterprise

Mehr

WISSENSWERTES ÜBER WINDOWS SCALE-OUT FILE SERVER

WISSENSWERTES ÜBER WINDOWS SCALE-OUT FILE SERVER WISSENSWERTES ÜBER WINDOWS SCALE-OUT FILE SERVER AGENDA 01 File Server Lösungen mit Windows Server 2012 R2 02 Scale-out File Server 03 SMB 3.0 04 Neue File Server Features mit Windows Server 2016 05 Storage

Mehr

ODA Erfahrungen und Neuigkeiten

ODA Erfahrungen und Neuigkeiten ODA Erfahrungen und Neuigkeiten Dierk Lenz 25. Oktober 2017 Köln Oracle Database Appliance (ODA) Mitglied der Familie der Oracle Engineered Systems, d.h.: Hardware und Software (Betriebssystem, Datenbank)

Mehr

Isabel Arnold CICS Technical Sales Germany Isabel.arnold@de.ibm.com. z/os Explorer. 2014 IBM Corporation

Isabel Arnold CICS Technical Sales Germany Isabel.arnold@de.ibm.com. z/os Explorer. 2014 IBM Corporation Isabel Arnold CICS Technical Sales Germany Isabel.arnold@de.ibm.com z/os Explorer Agenda Introduction and Background Why do you want z/os Explorer? What does z/os Explorer do? z/os Resource Management

Mehr

NEVARIS Build Systemvoraussetzungen

NEVARIS Build Systemvoraussetzungen System- und Hardwarevoraussetzungen NEVARIS Build Die optimale Konfiguration einer passenden Hardware für NEVARIS Build mit der Datenbank von Microsoft hängt von zahlreichen Einflussgrößen ab, wie z.b.

Mehr

lobodms.com lobo-dms Systemvoraussetzungen

lobodms.com lobo-dms Systemvoraussetzungen lobodms.com lobo-dms Inhaltsverzeichnis 1 Allgemeines... 3 1.1 Betriebssystem... 3 1.2 Windows Domäne... 3 1.3 Dateisystem... 3 2 Server... 3 2.1 Hardware... 4 2.2 Betriebssystem... 4 2.3 Software... 4

Mehr