Client/Server-Systeme
|
|
- Heini Beltz
- vor 6 Jahren
- Abrufe
Transkript
1 Client/Server-Systeme Prof. Dr.-Ing. Wilhelm Spruth WS 2006/2007 Teil 11 Parallelrechner Sysplex Coupling Facility cs 0800 ww6 sch 02-97
2 Rechner Plattformen der Zukunft In der Zukunft werden 4 Plattform-Typen überleben: 1. Embedded Systems Handy, Palmtop, RFID, Kühlschrank Computer, Automobilanwendungen, Registrierkasse 2. Personal Computer Büro, Home Computer für Mail, Briefe und Fotografische Bearbeitung Blades für CPU intensive Anwendungen 3. Spiele Computer X-Box, Sony, Nintendo Blades für CPU intensive Anwendungen 4. Mainframe Enthält Funktionen, die auf den anderen Plattformen nicht verfügbar sind: Performance Impact, unnötige Kosten oder Entwicklungsaufwand, Verfügbarkeit
3 Beispiele für Mainframe Funktionen, die auf den anderen Plattformen nicht verfügbar sind Verfügbarkeit (Availability), Sicherheit Ein/Ausgabe Subsystem (Plattenspeicher, Bandgeräte) > parallele Prozesse Parallelrechner - Funktionen Coupling Facility Virtualisierung Logische Partitionierung Transaktionsverarbeitung mit Java
4 STI Bus Local Data Memory STI - PCI Bridge PowerPC Master Local Processor Memory PowerPC Checker Memory Controller Master Memory Controller PCI Bus Checker Interface Controller identische Hardware wie bei einem PC Fibre Channel zseries Fibre Channel Kanal basierend auf der Common I/O Card es 0361 ww6 wgs 09-02
5 Symmetrisch. Multi- CPU CPU CPU prozessor (SMP) tightly coupled Hauptspeicher Haupt- Haupt- Hauptspeicher speicher speicher Cluster loosely coupled CPU CPU CPU Haupt- Haupt- Hauptspeicher speicher speicher CPU CPU CPU closely coupled Globalspeicher Taxonomie von MIMD Parallelrechnern es 0315 ww6 wgs 08-00
6 vier Eingänge vier Ausgänge 4 x 4 Crossbar Matrix Switch es 0331 ww6 wgs 07-01
7 Leistungsverhalten eines Symmetric Multiprocessors (SMP) Angenommen, ein Zweifach Prozessor leistet das Zweifache minus n % eines Einfach Prozessors. Für n = 10 % ist es kaum sinnvoll, mehr als 4 Prozessoren einzusetzen. Für n = 5 % sind es 8 Prozessoren. Angenommen m = Anzahl CPUs. Der Leistungsabfall pro CPU ist Verlust pro CPU = n(m-1) Bei einem z9 Rechner mit z/os ist n << 2 %. Es ist sinnvoll, einen SMP mit bis zu 32 Prozessoren einzusetzen. Die Gründe für den Leistungsabfall sind Zugriffskonflikte bei der Hardware und Zugriffskonflikte auf Komponenten des Überwachers. Die Überwacherkonflikte überwiegen. es 0563 ww6 wgs 07-01
8 (S/390) MIPS Million Instructions Per Second Performance Benchmark für S/390 Rechner Ausführungszeit für eine Mischung von Maschinenbefehlen Reine CPU Leistung, keine Ein/Ausgabe Proprietärer IBM Standard verfügbar seit 1965, ständig erweitert und angepaßt an realistischen Anwendungsprofilen orientiert anwendbar für Rechner unterschiedlicher Hersteller Berücksichtigt Häufigkeit der einzelnen Maschinenbefehle Cache- und Hauptspeicherzugriffszeiten Bus Latency/Contention Cache Misses und Cache-Line reload Memory Refresh Benchmark besteht aus S/390 Maschinenbefehlen, daher nicht portierbar auf Rechner anderer Architektur ( Problem der S/390 äquivalenten MIPS ) es 0144 ww6 wgs 06-99
9 CPU CPU CPU CPU System Bus Hauptspeicher SMP, Prozessor Knoten Ein SMP (Symmetric Multiprocessor, Prozessor Knoten, Node) besteht aus mehreren CPU s, die auf einen gemeinsamen Hauptspeicher zugreifen Im Basisfall nur eine Kopie (Instanz) des Betriebssystems im gemeinsam genutzten Hauptspeicher SMP s Knoten Hochgeschwindigkeitsnetzwerk Cluster Bei einem Cluster werden mehrere SMP s (von denen jedes aus mehreren CPU s besteht), über ein Hochgeschwindigkeitsnetzwerk miteinander verbunden. Dieses Netzwerk kann ein leistungsfähiger Bus sein, wird aber häufig als Crossbarswitch implementiert. es 0318 ww6 wgs 08.00
10 Sun E System Board
11 CPU CPU CPU CPU Knoten I/O Hauptspeicher Switch 2.4 GByte/s pro Board 43.2 GByte/s Switch System Boards 4 fach SMP I/O Board Sun E15K 72 CPU s 18 System Boards, je 4 CPU/System Board I/O Controller auf jedem System Board es 1162 ww6 wgs 09-01
12 Sun Fire System hat max 576 Gbyte Hauptspeicher, max 18 CPU/Memory Boards, max 18 Domains, max 18 I/O Boards, max 72 PCI Slots für 72 PCI Karten. Board Set besteht aus Slot 0 Board, Slot 1 Board und Expander Board. Letzteres nimmt die beiden anderen Boards auf. Slot 0 Board ist entweder CPU/Memory Board (System Board, 18 max) oder System Controller Board (1 oder 2 max, nicht gezeigt). CPU/Memory Board hat 4 Sparc III, 1,2 Ghz CPUs, 8 DIMMS/CPU, 8GByte/CPU, 32GByte total. Hauptspeicher Zugriffszeit 180 ns für Hauptspeicher auf gleichem Board, ns für Hauptspeicher auf anderem Board. Es 0715 ww6 wgs 10-01
13 HP Superdome Cell Board
14 CPU CPU CPU CPU I/O Hauptspeicher Switch 4 Switches 16 Gbyte/s Switch Cell Boards 4 fach SMP Crossbar Interconnect HP Superdome Cluster 64 CPU s 16 Knoten (Cell Boards), je 4 CPU/Knoten I/O Anschluß auf jedem Cell Board es 1153 ww6 SJ p.340 wgs 09-99
15 Shared Nothing Modell es 0446 ww6 wgs 11-02
16 Concentrator Distributor 25 % 25 % 25 % 25 % System A B C D Database Shared nothing (partitioned data) Jeder Rechner greift auf seine eigenen Daten zu. Die Arbeitslast wird den einzelnen Rechnern statisch zugeordnet. Concentrator Distributor 2 x 1 x 3 x 2 x System A B C D Database Shared data (shared disk) Jeder Rechner greift auf alle Daten zu. Dynamische Zuordnung der Arbeitslast. es 0308 ww6 wgs 07-00
17 Rechner 1 Switch Rechner 2 SCSI SCSI Shared Disk Emulation Rechner 2 bittet Rechner 1, die gewünschten Daten zu übertragen es 0340 ww6 wgs 09-01
18 Processor Cards 4 fach SMP 4 Switches 16 Gbyte/s Switch Fibre Channel Switch Fibre Channel Storage Area Network (SAN) RAID, Storage Server HP Superdome Cluster 64 CPU s 16 Knoten, je 4 CPU/Knoten I/O Controller auf jeder Karte es 1154 ww6 wgs 06-01
19 CPU CPU CPU CPU 54 CPU s + 10 Support Prozessoren 512 Kanäle davon 8 I/O /System Hauptspeicher L2 Cache (z9 Rechner) Coupling Facility SMP SMP SMP SMP SMP SMP 32 max. Sysplex Timer 100 MByte/s FICON / Fibrechannel Protokoll (ESCON) / FICON andere E/A Switch 100 MByte/s Glasfaser CU CU CU CU Enterprise Storage Server Parallel Sysplex Es 0709 ww6 wgs 10-01
20 CTC Verbindung (Channel- to Channel) simu- simuz/series lierte lierte S/390 Rechner Control Control Rechner Unit Unit Channel- to Channel Verbindung Cross-System Coupling Facility (XCF) Die Cross-System Coupling Facility (XCF) verwendet das CTC Protokoll. Sie stellt die Coupling Services bereit, mit denen OS/390 Systeme innerhalb eines Sysplex miteinander kommunizieren. es 0336 ww6 wgs 06-01
21 Parallel Sysplex Cluster Technology Mehrfache z/os oder S/390 Systeme verhalten sich so, als wären sie ein einziges System (Single System Image). Parallel Sysplex Cluster Technology Komponenten: Prozessoren mit Parallel Sysplex Fähigkeiten Coupling Facility Coupling Facility Control Code (CFCC) Glasfaser Hochgeschwindigkeitsverbindungen ESCON oder FICON Switch Sysplex Timer Gemeinsam genutzte Platten (Shared DASD) System Software Subsystem Software Die Coupling Facility ermöglicht Data Sharing einschließlich Datenintegrität zwischen mehrfachen z/os oder S/390 Servern Der Sysplex Zeitgeber (Timer) stellt allen z/os und OS/390 Instanzen eine gemeinsame Zeitbasis zur Verfügung. Dies ermöglicht korrekte Zeitstempel und Ablaufsequenzen bei Datenbank Änderungen. Dies ist besonders bei Datenbank- Recovery Operationen wichtig. es 0409 ww6 wgs 04-99
22 zseries Coupling Facility Großrechner bearbeiten mehrere 1000 Transaktionen / Sekunde ACID Bedingungen
23 Literatur Wilhelm G. Spruth, Erhard Rahm: Sysplex-Cluster Technologien für Hochleistungs- Datenbanken. Datenbank-Spektrum, Heft 3, 2002, S Verfügbar (download): Sysplex Hardware: Sonderheft des IBM Journal of Research and Development, Vol. 36, No.4, July Sysplex Software: Sonderheft des IBM System Journal, Vol. 36, No.2, April Verfügbar (download): // es 1132 ww6 wgs 09-99
24 Coupling Facility Die Coupling (CF) Facility ist in Wirklichkeit ein weiterer zseries Rechner mit spezieller Software. Die Aufgaben der CF sind: Locking Caching Control/List Structure Management Der größte Teil des Coupling Facility Hauptspeichers wird für das caching von Plattenspeicherdaten eingesetzt. Locking Caching Control/List Die Coupling Facility ist über Glasfaser Verbindungen mit einem optimierten Protokoll und spezieller Hardware Unterstützung mit den Systemen des Sysplex verbunden. es 0335 ww6 wgs 06-01
25 Coupling Facility (CF) Die wichtigste Aufgabe der Coupling Facility ist ein zentrales Lock Management für die angeschlossenen Systeme. Der zentrale Lock Manager des SAP System R/3 hat in Ansätzen eine ähnliche Funktionalität. Der größte Teil des Hauptspeichers der Coupling Facility wird als Plattenspeicher Cache genutzt. Der CF Cache dupliziert den Plattenspeicher Cache in den einzelnen Systemen. Cast out der CF Cache auf einen Plattenspeicher erfolgt über ein System. CF Cache Cross-Invalidate nur an die betroffenen Systeme Control und List Strukturen dienen der Sysplex Cluster weiten Verwaltung. Beispiel: RACF Sicherheits Subsystem. es 0313 ww6 wgs 06-99
26 Coupling Facility Hardware Assist Lock Contention Überwachung globale Puffer Kohärenz-Steuerung optimiertes Protokoll, geringe Latency Glasfaser Synchrones Locking 100 MByte/s Synchrone Puffer Kohärenzsteuerung Synchrone Datenübertragung < 4 KByte Coupling Support Facility System A Anbindung eines Systems an die Coupling Facility Die CF Glasfaser Verbindung wird durch spezielle Hardware Einrichtungen und durch zusätzliche Maschinenbefehle in jedem System unterstützt. es 1103 ww6 wgs 08-00
27 Lock Cache Queue Structures Structures Structures Coupling Facility Link Prozessor CF Link (Glasfaser) Systeme Link Prozessor CPU s Lokale State Vectors Mehrere Systeme sind mit der gleichen Struktur logisch verbunden Je 1 lokaler State Vector für jede logische Verbindung zu einer Struktur Spezifische Maschinenbefehle für die Kommunikation CPU - CF. Zusätzlicher Link Prozessor für die Kommunikation. es 1109 ww6 wgs 09-99
28 Hauptspeicher der Lock Cache List Coupling Struktur Struktur Struktur Facility Lock Bit Vector Cache Bit Vector List Bit Vector Lock Bit Vector Cache Bit Vector List Bit Vector Hauptspeicher Hauptspeicher System 1 System 2 Zuordnung von Bit Vektoren zu CF Strukturen es 0713 ww6 wgs 12-01
29 getrennte Rechner, häufig SMP Unix, Linux, z/os Unix System Services Sperrverwaltung Anwendungs- Server Datenbank Server Anwendungs- Server Anwendungs- Server Datenbank Server TCP/IP LAN SAP Protokoll (SNA) Präsentation SAP System R/3 Sperrverwaltungs-Server Sperrverwaltungs-Server (Lock Server) ist ein normaler Unix oder Linux Rechner, über normales Netzwerkprotokoll angeschlossen. z/os CICS, IMS und DB/2 Stored Procedures verwenden stattdessen Coupling Facility, mit speziell für die Transaktionsverwaltung optimierter Hard- und Software. Höhere Skalierung. cs 1351 ww6 wgs 04-04
30 Locking Problem Anfangswerte: d1 = 15, d2 = 20 Transaktion 1 Transaktion 2 read d1 if d1 > 10 sub d1, 10 add d2, 10 read d1 if d1 > 10 sub d1, 10 add d2, 10 Ergebnis: d1 = - 5, d2 = 40
31 Benutzung von Locks (Sperren) Transaktion A Transaktion B GetReadLock (d1) read d1 if d1 > 10 GetReadLock (d1) read d1 if d1 > 10 GetWriteLock (d1) Nachricht an Transaktion 2 GetWriteLock (d2) sub d1, 10 add d2, 10 ReleaseLocks GetWriteLock (d1) GetWriteLock (d2) sub d1, 10 add d2, 10 Ergebnis: d1 = + 5, d2 = 30 Gray/Reuter p.380 es 1131 ww6 wgs 09-99
32 Two-phase Locking In Transaktions- und Datenbank-Systemen bezeichnen wir als Lock ein Objekt, das wenigstens über 4 Methoden verfügt: GetReadLock GetWriteLock PromoteReadtoWrite Unlock Locks müssen sowohl Lese- als auch Schreiboperationen abdecken: Vor einem Read, GetReadLock Vor einem Write, GetWriteLock oder PromoteReadtoWrite Wenn die Anforderung eines Locks erfolgreich ist, kann die Programmausführung fortgesetzt werden; andernfalls wird die Ausführung verzögert, bis das Lock verfügbar gemacht werden kann. cs 0925 ww wgs 02-97
33 Two-Phase Locking Two-Phase Transaktion In Transaktionssystemen und Datenbanksystemen ist ein Lock ein Objekt welches (mindestens) über 4 Methoden verfügt: GetReadLock reserviert S Lock (shared ) SHR GetWriteLock reserviert E Lock (exclusive) EXC PromoteReadtoWrite Wechsel S E Unlock Lock freigeben Mehrere Transaktionen können ein S Lock für das gleiche Objekt besitzen. Nur eine Transaktion kann ein E Lock für ein gegebenes Objekt besitzen. Wenn eine Transaktion ein S Lock in ein E Lock umwandelt, müssen alle anderen Besitzer des gleichen S Locks benachrichtigt werden. Normalerweise besitzt eine Transaktion mehrere Locks. In einer Two-Phase Transaktion finden alle Lock Aktionen zeitlich vor allen Unlock Aktionen statt. Eine Two-Phase Transaktion hat eine Wachstumsphase (growing), während der die Locks angefordert werden, und eine Schrumpf (shrink) Phase, in der die Locks wieder freigegeben werden. Nicht zu verwechseln mit dem 2-Pase Commit Protokoll der Transaktionsverarbeitung es 1130 ww6 wgs 09-99
34 Locking Protokoll Share Lock (SHR) erwerben vor dem erstmaligen Lesen Exclusive Lock (EXC) erwerben vor dem erstmaligen Schreiben derzeitiger Status Lesen Schreiben kein shared exclusive Anforderung Lesen bewilligt, bewilligt, abgelehnt, Share share- share- Mitteilung mode mode über Besitzer Schreiben bewilligt, bewilligt, abgelehnt, Exclusive exclusive Warnung Mitteilung mode über über Besitzer Besitzer es 1129 ww6 wgs 09-99
35 Lock Verwaltung System 1 System 2 Lock Tabelle 1. Lock prüfen 2. Lock setzen 3. Datenzugriff Im einfachsten Fall besteht die Lock Tabelle aus zusätzlichen Feldern in der Daten Tabelle es 1106 ww6 wgs 09-99
36 Shared Disk Verteilte Lock Tabelle in den Hauptspeichern der beteiligten Systeme. Zur Auflösung von Lock Konflikten Broadcast oder Nachricht von System i System j. Verarbeitung der laufenden Transaktion aussetzen; 20 ms Overhead. Beispiele: VAX DBMS und VAX Rdb/VMS es 1112 ww6 wgs 09-99
37 Haupt- Haupt- Haupt- Hauptspeicher speicher speicher speicher 2 write 1 invali date System System System System 3 A B C D cast out Database Database Database Database Invalidate-Broadcast Kohärenzsteuerung Nur System A besitzt Write Lock. B, C und D besitzen nur Read Lock. Invalidate Broadcast benachrichtigt B, C und D daß Kopie nicht mehr gültig. You cannot build a cluster that scales if you do not solve the locking problem es 0702 ww6 wgs 08-00
38
39 Commit Commit Start Transaction Start Transaction Get Lock Get Lock Lock freigeben Lock freigeben Eager und Lazy Locking Protokolle Eager Protokoll Lock freigeben wenn Commit Transaction Lazy Protokoll Lock freigeben wenn Contention Lazy Protokoll arbeitet besser, wenn Sharing selten auftritt. Beispiel TPC-C Sysplex Coupling Facility verwendet das Eager Protokoll (auch als force-at-commit bezeichnet). Sharing tritt häufig auf, wenn existierende Anwendungen auf den Sysplex portiert werden. es 1113 ww6 wgs 09-99
40 CPU Buffer Pool Hauptspeicher Plattenspeicher Elektronik Cache Cache Cache Plattenspeicher Plattenspeicher Cache und Hauptspeicher Buffer Pool Ein lokaler Cache im Hauptspeicher eines Knotens (System) wird als Buffer Pool bezeichnet. Er besteht aus einzelnen Puffern (Buffers), die Datenbankobjekte aufnehmen. Zusätzlich werden Daten in einem Plattenspeicher Cache gespeichert, der Bestandteil der Plattenspeicher Elektronik ist. es 0712 ww 6 wgs 12-01
41 Coupling Facility Cache Directory Ein Eintrag für jeden Block in jedem System optionaler Cache Blocks (Buffers) Bit Vektoren System A System B System C System D Database Database Database Database Aller Datentransfer in 4 KByte Blöcken. 1 System A Read from Disk 3 System A Write (to local Buffer) 1. Load Block from Disk 1. Register with CF 2. Register with CF Directory 2. CF invalidates all Bit Vectors 3. add Bit in Bit Vector 3. Write to local Buffer 2 System B Read from Disk 4 System B Read from Buffer 1. Load Block from Disk 1. Read 2. Register with CF Directory 2. detect invalid Bit 3. add Bit in Bit Vector in local Bit Vector es 1117 ww6 wgs 09-99
42 Hauptspeicher Coupling Cache Directory Cache Facility update/invalidate Directory LP CPU CPU CPU Hauptspeicher Bit Vektor System 2 LP CPU CPU CPU Hauptspeicher Bit Vektor System 1 LP CPU CPU CPU Link Prozessor Cache Directory Update in der Coupling Facility bewirkt, daß über die Link Prozessoren der Systeme deren Bit Vektoren im Hauptspeicher abgeändert werden, ohne daß der normale Programmablauf dadurch beeinflußt wird (kein Prozesswechsel) es 1147 ww6 7 wgs 09-99
43 CF List / Queue Strukturen 3 Zugriffsmöglichkeiten LIFO Queue FIFO Queue Key Sequenced Anwendungsbeispiele: Clusterweite RACF Steuerung Work Load Management Instanzen tauschen periodisch Status Information aus um Transaktionen dynamisch an unterbelastete Systeme weiter zu reichen es 1122 ww6 wgs 09-99
44
45 Cross Coupling Facility Address Space: XCFAS Angenommen mehrere Instanzen einer Anwendung oder eines Subsystems auf unterschiedlichen Knoten eines Sysplex, z.b. CICS oder WebSphere. Mit Hilfe von XCFAS können die Instanzen Status Information austauschen oder miteinander kommunizieren. Die gemeinsam genutzten Daten befinden sich als Listen- oder Queue-Strukturen auf der Coupling Facility. Der Zugriff auf diese Daten erfolgt mit Hilfe des Cross-System Extended Services (XES) Protokolls, welches Zugriffs- und Verwaltungsdienste zur Verfügung stellt. es 0723 ww6 wgs 09-02
46
47 Sysplex Overhead Durchsatz lineares Wachstum tatsächliches Sysplex Verhalten 1 Anzahl Systeme Installation Anzahl Systeme % Sysplex Overhead A 4 11 % B 3 10 C 8 9 D 2 7 E Relational Warehouse 2 13,30 Workload Die Sysplex Software (wenn installiert) erzeugt in jedem System zusätzlichen Overhead, selbst wenn der Sysplex nur aus einem einzigen System besteht. In jedem System wird zusätzliche CPU Kapazität benötigt um den gleichen Durchsatz zu erreichen. es 1128 ww6 wgs 09-
48 Verarbeitungskapazität 8 7 7, , Systeme Parallel Sysplex Leistungsverhalten CICS Transaktionsmanager, CICSplex System Manager, IMS Datenbank Mischung von OLTP, Reservierung, Data Warehouse und Bankanwendungen es 1127 ww6 wgs 09-99
Client/Server-Systeme
Client/Server-Systeme Prof. Dr.-Ing. Wilhelm Spruth WS 2008/2009 Teil 11 Parallelrechner Sysplex Coupling Facility Symmetrischer Multiprozessor (SMP) CPU CPU CPU tightly coupled Hauptspeicher Cluster loosely
MehrMainframe Internet Integration. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013. Parallel Sysplex Teil 4. Cache und Listen Strukturen
UNIVERSITÄT LEIPZIG Mainframe Internet Integration Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013 Parallel Sysplex Teil 4 Cache und Listen Strukturen copyright Abteilung Technische Informatik,
MehrEinführung in z/os Enterprise Computing
Einführung in z/os Enterprise Computing Prof. Dr. Martin Bogdan Dr. rer. nat. Paul Herrmannn Prof. Dr.-Ing. Wilhelm G. Spruth WS 2009/2010 Teil 12 Sysplex Coupling Facility es 0101 ww6 copyright W. G.
MehrEnterprise Computing
Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth WS 2011/12 Teil 6 Sysplex und Coupling Facility Literatur Wilhelm G. Spruth, Erhard Rahm: Sysplex-Cluster Technologien für Hochleistungs-Datenbanken.
MehrEinführung in z/os Prof. Dr.- Martin Bogdan Dr. rer. nat. Paul Herrmannn Prof. Dr.-Ing. Wilhelm G. Spruth WS 2008/2009 Teil 5 Parallelrechner, I/O
Einführung in z/os Prof. Dr.- Martin Bogdan Dr. rer. nat. Paul Herrmannn Prof. Dr.-Ing. Wilhelm G. Spruth WS 2008/2009 Teil 5 Parallelrechner, I/O es 0101 ww6 wgs 09-99 Symmetrisch. Multi- CPU CPU CPU
MehrEinführung in z/os und OS/390
Einführung in z/os und OS/390 Dr. rer. nat. Paul Herrmannn Prof. Dr.-Ing. Wilhelm G. Spruth WS 2006/2007 Teil 11 Parallel Sysplex, Coupling Facility es 0101 ww6 wgs 09-99 zseries Coupling Facility Großrechner
MehrInternet Anwendungen unter OS/390
Internet Anwendungen unter OS/390 Dr. rer. nat. Paul Herrmannn Prof. Dr.rer.nat. Udo Kebschull Prof. Dr.-Ing. Wilhelm G. Spruth WS 2004/2005 Teil 2 zseries Ein-/Ausgabe es 0301 ww6 wgs 09-99 Ein/Ausgabe
MehrEnterprise Computing
Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth Teil 6 Partitionierung NUMA Sharing Disk Storage HP Superdome Cell Board 4 Itanium 2 CPU Chips 32 128 Gbyte I/O Bus mit Kühlern Hauptspeicher Anschlüsse
MehrEinführung in z/os und OS/390
Einführung in z/os und OS/390 Web-Services und Internet-Anwendungen für Mainframes von Paul Herrmann Wilhelm Gustav Spruth 3., verbesserte und erweiterte Auflage Oldenbourg Verlag München Vorwort VII 1
MehrEnterprise Computing
Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth WS 2010/11 Teil 5 Parallel Rechner Implementierungen Mehrfachrechner (Multiprocessor) Parallelrecher (Parallel Processor) Mehrfachrechner: Auf mehreren
MehrEnterprise Computing
Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth WS 2011/12 Teil 5 Parallel Rechner Implementierungen Mehrfachrechner (Multiprocessor) Parallelrecher (Parallel Processor) Mehrfachrechner: Auf mehreren
MehrEnterprise Computing Einführung in das Betriebssystem z/os
Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Dr. rer. nat. Paul Herrmannn Prof. Dr.-Ing. Wilhelm G. Spruth WS 2009/2010 Teil 7 Parallel Rechner Implementierungen es
MehrOracle Workload für den Mainframe
Oracle Workload für den Mainframe DOAG Regionalgruppe 18.01.2005 Joachim Jaensch Principal Sales Consultant BU Datenbank und Plattformtechnologien joachim.jaensch jaensch@oracle.com Agenda Der Mainframe
Mehr<Insert Picture Here> RAC Architektur und Installation
RAC Architektur und Installation Elmar Ströhmer Michael Künzner Oracle Server Technologies Competence Center Agenda Überblick und Architekturen von HA-Systemen Hardware Die Basis
MehrÜberlegungen zur Kapazitätsplanung bei Hardware Upgrades
Überlegungen zur Kapazitätsplanung bei Hardware Upgrades GSE z/vm und z/vse Frühjahrstagung 2005 Dagmar Kruse dkruse@de.ibm.com Inhalt der Präsentation z890: attraktiv für VM/VSE - Kunden Kriterien zur
MehrInvalidierungs- und Update-basierte Cache-Kohärenz-Protokolle
Invalidierungs- und Update-basierte Cache-Kohärenz-Protokolle Architecture of Parallel Computer Systems WS15/16 J.Simon 1 SC mit Write-Back Caches Beweisidee: Behandlung von Reads wie beim Write-Through
MehrIn heutigen Computern findet man schnellen/teuren als auch langsamen/billigen Speicher
Speicherhierarchie In heutigen Computern findet man schnellen/teuren als auch langsamen/billigen Speicher Register Speicherzellen, direkt mit der Recheneinheit verbunden Cache-Speicher Puffer-Speicher
MehrThe Unbreakable Database System
The Unbreakable Database System Real Application Cluster Unterföhring, 04.2005 M. Kühn 1 Comparisson HA - HA Ziele, DataGuard, HA Oracle, RAC RAC Features - Cache Fusion, TAF, Load Balancing RAC on Solaris
MehrUNIVERSITÄT LEIPZIG. Mainframe Internet Integration SS2013. Virtualisierung Teil 1. Partitionierung
UNIVERSITÄT LEIPZIG Mainframe Internet Integration Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013 Virtualisierung Teil 1 Partitionierung el0100 copyright W. G. Spruth, wgs 04-11 Skalierung
MehrEinfaches MSI-Writeback-Inval-Protokoll
Einfaches MSI-Writeback-Inval-Protokoll Write-Back Cache typischerweise Write-allocate bei einem Write-Miss Zustände Invalid (I): Shared (S): Kopien in einem oder mehreren Caches Dirty or Modified (M):
MehrEnterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13
UNIVERSITÄT LEIPZIG Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13 Verarbeitungsgrundlagen Teil 2 Virtual Storage el0100 copyright
MehrEnterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13
UNIVERSITÄT LEIPZIG Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13 Verarbeitungsgrundlagen Teil 4 Cache el0100 copyright W.
MehrA501 Disk-Subsystem. IKT-Standard. Ausgabedatum: 2015-02-03. Version: 2.03. Ersetzt: 2.02
Eidgenössisches Finanzdepartement EFD Informatiksteuerungsorgan des Bundes ISB A501 Disk-Subsystem Klassifizierung: Typ: Nicht klassifiziert IKT-Standard Ausgabedatum: 2015-02-03 Version: 2.03 Status:
MehrSystem z9 and zseries Processor Capacity Reference. zpcr Erfahrungsbericht
Qualität unser Service System z9 and zseries Processor Capacity Reference zpcr Erfahrungsbericht Dagmar Fischer - Lahnstein 28.02.2008 Agenda Ausgangspunkt Rechnerkapazität MSU MIPS LSPR Workloads ETR
MehrSeminar Großrechneraspekte (Mainframe): Von Betriebssystemen bis zur Datenbank und darüber hinaus. E/A Architektur
Seminar Großrechneraspekte (Mainframe): Von Betriebssystemen bis zur Datenbank und darüber hinaus E/A Architektur Thomas Scheffler e-mail: thomas.scheffler@uni-jena.de Friedrich-Schiller-Universität Jena
MehrEnterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS 2012/13
UNIVERSITÄT LEIPZIG Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS 2012/13 System z/hardware Teil 3 Book und System Frame el0100
MehrPerformance Tuning & Scale-Out mit MySQL
Performance Tuning & Scale-Out mit MySQL Erfa-Gruppe Internet Briefing 2. März 2010 Oli Sennhauser Senior MySQL Consultant, FromDual oli.sennhauser@fromdual.com www.fromdual.com 1 Inhalt Allgemeines zu
MehrEnterprise Computing Einführung in das Betriebssystem z/os
Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Dr. rer. nat. Paul Herrmannn Prof. Dr.-Ing. Wilhelm G. Spruth WS 2009/2010 Teil 5 Ein/Ausgabe Verarbeitung es 0101 ww6
MehrCache II. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011
Cache II Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 Cache II 1/14 2012-02-29 Schreibstrategien Es sind verschiedene Fälle
MehrDOAG Konferenz 2007 in Nürnberg
DOAG Konferenz 2007 in Nürnberg Auswahl und Sizing: Die richtige Hardware (+Software) für Oracle Björn Bröhl Projektmanager Handlungsbevollmächtigter Seite 1 Inhalt Die Zielsetzung Vorgehensweise Auswahl
MehrEnterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/2013
UNIVERSITÄT LEIPZIG Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/2013 CICS Transaktionsserver Teil 3 CICS Nucleus el0100 copyright
MehrNeue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP)
Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP) @wefinet Werner Fischer, Thomas-Krenn.AG Webinar, 17. Oktober 2017 Intel Xeon Scalable Performance _ Das ist NEU: Neue
Mehrherzlich vsankameleon Anwendungsbeispiel Titelmasterformat durch Klicken bearbeiten willkommen Titelmasterformat durch Klicken bearbeiten
herzlich willkommen vsankameleon Anwendungsbeispiel Powered by DataCore & Steffen Informatik vsan? Kameleon? vsan(virtuelles Storage Area Network) Knoten Konzept Titelmasterformat Alle HDD s über alle
MehrGregor Michalicek, Marcus Schüler. Multiprozessoren
Gregor Michalicek, Marcus Schüler Gregor Michalicek Marcus Schüler Gregor Michalicek, Marcus Schüler Vorteile gegenüber Singleprozessoren ¾ sind zuverlässiger. Einige Multiprozessorsysteme können trotz
Mehr11.3 Transaktionen und LUWs in SAP R/3
11.3 Transaktionen und LUWs in SAP R/3 G Transaktionen heissen in SAP/R3 Logical Unit of Work (LUW). Eine LUW besteht in der Regel aus zwei Teilen: SAP-Transaktion: Folge von vorbereiteten Dialogschritten
MehrFreiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel
Freiberuflicher Schwerpunkte: Unix, Oracle, Netzwerk 2005 1 Testaufbauten von Oracle 10g RAC auf preiswerter Hardware 2 3 Typisches Cluster System Clients Public Network Node A Node B Cluster Interconnect
MehrRechnerarchitektur SS 2012
Rechnerarchitektur SS 2012 Cachekohärenz Michael Engel TU Dortmund, Fakultät für Informatik Teilweise basierend auf Material von Gernot A. Fink und R. Yahyapour 11. Juni 2013 Speicher in MP-Systemen Zentrales
MehrLDom Performance optimieren
LDom Performance optimieren Marcel Hofstetter JomaSoft GmbH St. Gallen / Schweiz Schlüsselworte Virtualisierung, SPARC, T4, T5, LDom, Oracle VM Server for SPARC, VDCF Einleitung Die aktuellen Oracle SPARC
MehrMehrprozessorarchitekturen
Mehrprozessorarchitekturen (SMP, UMA/NUMA, Cluster) Arian Bär 12.07.2004 12.07.2004 Arian Bär 1 Gliederung 1. Einleitung 2. Symmetrische Multiprozessoren (SMP) Allgemeines Architektur 3. Speicherarchitekturen
MehrSAP und Oracle RAC virtualisiert in Solaris Containern. Dipl.-Ing. Michael Ahrens Principal Solution Architect & SAP Technology Consultant
SAP und Oracle RAC virtualisiert in Solaris Containern Dipl.-Ing. Michael Ahrens Principal Solution Architect & SAP Technology Consultant Oracle + Sun für virtualisierte SAP Systeme: Complete, Open, Integrated
MehrOracle Core für Einsteiger: Datenbank I/O
Oracle Core für Einsteiger: Datenbank I/O Martin Klier Performing Databases GmbH Mitterteich #FiveWordTechHorrors Storage comes from other department @MartinKlierDBA Oracle Core für Einsteiger: Datenbank
MehrEinführung in das System z Mainframe
Einführung in das System z Mainframe Prof. Dr.-Ing. Wilhelm G. Spruth 2. Juli 2007 Humboldt Universität Berlin Teil 2 System z Architektur es 0101 ww6 G. Amdahl G.A. Blaauw B.O. Evans F.P. Brooks /360
MehrRechnerarchitektur SS 2012
Rechnerarchitektur SS 2012 Cachekohärenz TU Dortmund, Fakultät für Informatik XII Literatur: Hennessy/Patterson: Computer Architecture, 3. Auflage, 2003, Abschnitte 6.2, S. 549ff und 6.5, S. 576ff. Huang:
MehrSysplex-Cluster-Technologien für Hochleistungs-Datenbanken
Wilhelm G. Spruth, Erhard Rahm Sysplex-Cluster-Technologien für Hochleistungs-Datenbanken Wir stellen die Cluster-Architektur IBM Parallel Sysplex und ihren Einsatz zur Datenbank- und Transaktionsverarbeitung
Mehr1.0 Ein Blick zurück - Wie es angefangen hat 2.0 Die z/architektur und die zseries 3.0 Die I/O-Architektur der zseries
1.0 Ein Blick zurück - Wie es angefangen hat... 11 1.1 Von null auf 1900... 11 Der Abakus - Vor Jahrtausenden erfunden... 11 Schickard entwickelt das Zählrad... 11 Leibniz und die Nachfolger... 12 Babbages
MehrData Sharing im Cluster am Beispiel von Adabas Arno Zude, Adabas-Entwicklung Vortrag an der Universität Jena
Data Sharing im Cluster am Beispiel von Arno Zude, -Entwicklung Vortrag an der Universität Jena 2. Februar 2006 Themen Cluster Services Data Sharing im Cluster mit / 2.2.06 / 2 Software AG Cluster Services
MehrSpeicherklassen außerhalb des Arrays. Dr. Carsten Haak ESD Practice Manager EMEA EMC Corp.
Speicherklassen außerhalb des Arrays Dr. Carsten Haak ESD Practice Manager EMEA EMC Corp. 1 Multi-Tiering 2 Entwicklung Von Single- zu Multi-Tiering Festplatten LUNs Chunks Wir sehen auch die kalten Abschnitte
MehrVirtueller Speicher und Memory Management
Virtueller Speicher und Memory Management Speicher-Paradigmen Programmierer ein großer Adressraum linear adressierbar Betriebssystem eine Menge laufender Tasks / Prozesse read-only Instruktionen read-write
MehrSPARC LDom Performance optimieren
SPARC LDom Performance optimieren Marcel Hofstetter hofstetter@jomasoft.ch http://www.jomasoftmarcel.blogspot.ch Mitgründer, Geschäftsführer, Enterprise Consultant JomaSoft GmbH 1 Inhalt Wer ist JomaSoft?
Mehré Er ist software-transparent, d.h. der Benutzer braucht nichts von seiner Existenz zu wissen. Adreßbus Cache- Control Datenbus
4.2 Caches é Cache kommt aus dem Französischen: cacher (verstecken). é Er kann durch ein Anwendungsprogramm nicht explizit adressiert werden. é Er ist software-transparent, d.h. der Benutzer braucht nichts
MehrSAFE HARBOR STATEMENT
SAFE HARBOR STATEMENT The following is intended to outline our general product direction. It is intended for information purposes only, and may not be incorporated into any contract. It is not a commitment
Mehr11. Sysplex Mehrfachrechner
11. Sysplex 11-1 Mehrfachrechner 11.1.1 Taxonomie von Mehrfachrechnern Eine einzelne CPU hat eine nur begrenzte Rechenleistung. Die Forderung nach mehr Rechenleistung führte dazu, mehrere Prozessoren zu
MehrSicherheit und Performance in Hochleistungssystemen
- Seminar - Sicherheit und Performance in Hochleistungssystemen - Mainframes/Großrechner in der modernen IT - Wintersemester 2013/14 Institut für Informatik Lehrstuhl für Datenbanken und Informationssysteme
MehrCHARON-AXP Alpha Hardwarevirtualisierung
Alpha virtualisierung Nutzung von Softwareinvestitionen auf neuer plattform Jörg Streit, Reinhard Galler Inhalt: Alpha überblick Wozu Alpha? Prinzip der Produkte Performance Cluster Support Zusammenfassung
MehrOracle Database 10g Die RAC Evolution
Oracle Database 10g Die RAC Evolution Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 RAC-Revolution, RAC-Evolution & Computing Oracle8i mit OPS Oracle9i Rel.
MehrEnterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS20121/13
UNIVERSITÄT LEIPZIG Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS20121/13 Verarbeitungsgrundlagen Teil 1 Multiprogrammierung el0100
MehrMainframe Internet Integration. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013. Java Transaction Processing Teil 1
UNIVERSITÄT LEIPZIG Mainframe Internet Integration Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013 Java Transaction Processing Teil 1 EJB Transaktionseigenschaften el0100 copyright W. G.
MehrOpen Source Application Server auf dem Mainframe
Open Source Application Server auf dem Mainframe Fabian Czicholl, Technical Sales WebSphere on System z Dennis Behm, Technical Sales WebSphere on System z Agenda Einführung in den Mainframe Java unter
MehrMainframe Internet Integration. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013. Java Connection Architecture Teil 3
UNIVERSITÄT LEIPZIG Mainframe Internet Integration Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013 Java Connection Architecture Teil 3 CICS Transaction Gateway el0100 copyright W. G. Spruth,
MehrEnterprise Computing
Enterprise Computing WS 2010/11 Prof. Dr.-Ing. Wilhelm G. Spruth Teil 2 Mainframe Hardware Hardware für betriebswirtschaftliche Großrechner Die meisten Implementierungen von betriebswirtschaftlichen Großrechnern
MehrLizenzkosten durch geeignete Infrastrukturen optimieren
Lizenzkosten durch geeignete Infrastrukturen optimieren November 2017 manfred.drozd@peakmarks.com Lizenzkosten durch geeignete Infrastrukturen optimieren 1 Über peakmarks 2 Ansatzpunkte für Lizenzoptimierung
MehrBusse. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009
Busse Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 Busse 1/40 2008-10-13 Übersicht 1 Einleitung 2 Bus-Konfiguration
MehrWeitere Verbesserungen
Weitere Verbesserungen Welcher Cache liefert aktuellen Block falls mehrere Caches Block im Zustand S halten? Lösung: Einführung eines weiteren Zustands O (Owner) Zustand O besagt: Eigentümer des Blocks
MehrM5000 einfach ablösen durch T4/T5 LDoms und Solaris Zonen
M5000 einfach ablösen durch T4/T5 LDoms und Solaris Zonen Marcel Hofstetter JomaSoft GmbH St. Gallen / Schweiz Schlüsselworte M5000, T4, T5, LDoms, Oracle Solaris 11, Solaris Zonen, VDCF Einleitung Die
MehrRAC auf Sun Cluster 3.0
RAC auf Sun Cluster 3.0 Schlüsselworte RAC, OPS, Sun Cluster, Performance, Availability Zusammenfassung Oracle hat mit dem Real Application Cluster (RAC) aus einer Hochverfügbarkeitslösung eine Höchstverfügbarkeitslösung
MehrOracle Database 10g RAC Plattformen im Detail
Oracle Database 10g RAC Plattformen im Detail Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 Agenda Einleitung RAC was ist das noch gleich? Wer die Wahl hat,
MehrRechnerstrukturen. 6. System. Systemebene. Rechnerstrukturen Wintersemester 2002/03. (c) Peter Sturm, Universität Trier 1. Prozessor.
Rechnerstrukturen 6. System Systemebene 1 (Monoprozessor) 2-n n (Multiprozessor) s L1- in der L2- ( oder Motherboard) ggf. L3- MMU Speicher Memory Controller (Refresh etc.) E/A-Geräte (c) Peter Sturm,
MehrMainframe Internet Integration. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013. WebSphere Application Server Teil 4
UNIVERSITÄT LEIPZIG Mainframe Internet Integration Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013 WebSphere Application Server Teil 4 Leistungsverhalten el0100 copyright W. G. Spruth,
MehrIntel 80x86 symmetrische Multiprozessorsysteme. Eine Präsentation im Rahmen des Seminars Parallele Rechnerarchitekturen von Bernhard Witte
Intel 80x86 symmetrische Multiprozessorsysteme Eine Präsentation im Rahmen des Seminars Parallele Rechnerarchitekturen von Bernhard Witte Gliederung I. Parallel Computing Einführung II.SMP Grundlagen III.Speicherzugriff
MehrSysteme 1: Architektur
slide 1 Vorlesung Systeme 1: Architektur Prof. Dr. Ulrich Ultes-Nitsche Forschungsgruppe Departement für Informatik Universität Freiburg slide 2 Prüfung 18. Februar 2004 8h00-11h40 13h00-18h20 20 Minuten
MehrRechnerorganisation. 1. Juni 201 KC Posch
.6.2 Rechnerorganisation. Juni 2 KC Posch .6.2 2 .6.2 Front Side Bus Accelerated Graphics Port 28 MHz Front Side Bus North Bridge RAM idge South Bri IDE USB PCI Bus 3 .6.2 Front Side Bus Front Side Bus
MehrSysplex-Cluster-Technologien für Hochleistungs-Datenbanken
Sysplex-Cluster-Technologien für Hochleistungs-Datenbanken Wilhelm G. Spruth, Erhard Rahm Institut für Informatik, Universität Leipzig Wir stellen die Cluster-Architektur IBM Parallel Sysplex und ihren
MehrHerzlich Willkommen zum HP Storage Summit 2015
ENDE Herzlich Willkommen zum HP Storage Summit 2015 1 10.09.2015 HP Storage Launch HP 3PAR StoreServ 8000 Storage Lösungen für den New Style of Business HP 3PAR StoreServ Next Gen Tech Talk Peter Mattei
MehrSolaris Cluster. Dipl. Inform. Torsten Kasch <tk@cebitec.uni Bielefeld.DE> 8. Januar 2008
Dipl. Inform. Torsten Kasch 8. Januar 2008 Agenda Übersicht Cluster Hardware Cluster Software Konzepte: Data Services, Resources, Quorum Solaris Cluster am CeBiTec: HA Datenbank
MehrNEVARIS Build Systemvoraussetzungen
System- und Hardwarevoraussetzungen NEVARIS Build Die optimale Konfiguration einer passenden Hardware für NEVARIS Build mit der Datenbank von Microsoft hängt von zahlreichen Einflussgrößen ab, wie z. B.
MehrBusse. Dr.-Ing. Volkmar Sieh WS 2005/2006. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg
Einleitung Bus-Konfiguration Bus-Arbitrierung Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2005/2006 Einleitung Bus-Konfiguration Bus-Arbitrierung
MehrHardware PCI-Bus. Dr.-Ing. Matthias Sand. Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg
Hardware PCI-Bus Dr.-Ing. Matthias Sand Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 Hardware PCI-Bus 1/23 2008-08-06 Übersicht Inhalt:
MehrHardware PCI-Bus. Dr.-Ing. Matthias Sand. Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg
Hardware PCI-Bus Dr.-Ing. Matthias Sand Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2007/2008 Hardware PCI-Bus 1/23 2007-10-26 Übersicht Inhalt:
MehrEnterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/2013. Input/Output Teil 3
UNIVERSITÄT LEIPZIG Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/2013 Input/Output Teil 3 Mainframe I/O el0100 copyright W.
Mehr<Insert Picture Here> Die RZ-Zentrale - Grid Control hochverfügbar
Die RZ-Zentrale - Grid Control hochverfügbar Heinz Mielimonka Principal Sales Consultant Agenda Komponentenüberblick Hochverfügbare Konfiguration Installation und Konfiguration Der
MehrDer neue Hessische Hochleistungsrechner HHLR
Der neue Hessische Hochleistungsrechner HHLR Erste Erfahrungen Norbert Conrad, conrad@hrz.tu-darmstadt.de ZKIHessen 26.8.2002 1 Darmstädter Hochleistungsrechner 1987: IBM 3090 VF ( 2 x 0,12 GFLOPS Vektor
MehrPatagonia - Ein Mehrbenutzer-Cluster für Forschung und Lehre
Patagonia - Ein Mehrbenutzer-Cluster für Forschung und Lehre Felix Rauch Christian Kurmann, Blanca Maria Müller-Lagunez, Thomas M. Stricker Institut für Computersysteme ETH Zürich Eidgenössische Technische
MehrRückschlüsse durch Host- Performance-Daten auf das Datenbankverhalten. DOAG Regio Karlsruhe 13. Juni 2013
Rückschlüsse durch Host- Performance-Daten auf das Datenbankverhalten DOAG Regio Karlsruhe 13. Juni 2013 Herrmann & Lenz Services GmbH Herrmann & Lenz Solutions GmbH Erfolgreich seit 1996 am Markt Firmensitz:
Mehregs Storage Offensive
egs Storage Offensive Seit mittlerweile 5 Jahren können wir eine enge Partnerschaft zwischen der egs Netzwerk und Computersysteme GmbH und dem führenden Anbieter im Bereich Datenmanagement NetApp vorweisen.
MehrLinux auf System z. z/os Guide Lahnstein 11.03.2009. oliver.roethinger@spb.de. 11.03.2009 Seite 1
Linux auf System z z/os Guide Lahnstein 11.03.2009 oliver.roethinger@spb.de 11.03.2009 Seite 1 Die Sparda-Datenverarbeitung eg betreut bundesweit 13 Banken mit 8000 Mitarbeitern und einer Bilanzsumme 53
MehrMultiprozessoren. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011
Multiprozessoren Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 Multiprozessoren 1/29 2011-06-16 Multiprozessoren Leistungsfähigkeit
MehrErfahrungsbericht, Konsolidierung und Administration Real Application Cluster
Erfahrungsbericht, Konsolidierung und Administration Real Application Cluster Themen Über mich Projekt RAC bei Heine Probleme Resultate Fragen 2 Über mich virtual7 GmbH Jürgen Bouché Zeppelinstraße 2 76185
Mehrz/os System Logger Performance
z/os System Logger Performance Lahnstein 30.09.2011 Dagmar Fischer Ein Unternehmen der Finanz Informatik A g e n d a» z/os System Logger Performance System Logger Überblick LOGSTREAM Nutzung LOGSTREAM
MehrIBM Informix Tuning und Monitoring
Seminarunterlage Version: 11.01 Copyright Version 11.01 vom 25. Juli 2012 Dieses Dokument wird durch die veröffentlicht. Copyright. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen
MehrSIMATIC PCS 7 V8.2 Management Console Funktionen und News
SIMATIC PCS 7 V8.2 Management Console Funktionen und News Frei Verwendbar Siemens AG 2016 siemens.com/process-automation SIMATIC PCS 7 V8.2 Life Cycle Management Erweiterung der SIMATIC Management Console
MehrUNIVERSITÄT LEIPZIG. Mainframe Internet Integration SS2013. Virtualisierung Teil 4. Intelligent Resource Director
UNIVERSITÄT LEIPZIG Mainframe Internet Integration Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013 Virtualisierung Teil 4 Intelligent Resource Director el0100 copyright W. G. Spruth, wgs
Mehr1 Organisationsaspekte RISC- und CISC-Prozessoren Ausnutzen von Cache-Effekten
McFarling [1989] konnte Cache Misses um 75% in 8KB direkt abbildenden Caches durch Softwaremaßnahmen senken. Instruktionen Umordnen im Speicher, um Conflict-Misses zu reduzieren Profiling : spezielle Konfliktvermeidungsmaßnahmen
MehrGSCC General Storage Cluster Controller. TSM Verfügbarkeit
GSCC General Storage Cluster Controller TSM Verfügbarkeit Skyloft 17.06.2015 Karsten Boll GSCC Themen Historie und Überblick Design und Architektur IP Cluster (DB2 HADR) GSCCAD das GUI Trends GSCC Neuigkeiten
MehrOracle Real Application Clusters: Requirements
Oracle Real Application Clusters: Requirements Seite 2-1 Systemvoraussetzungen Mind. 256 MB RAM (mit 128 MB geht es auch...) Mind. 400 MB Swap Space 1,2 GB freier Speicherplatz für f r Oracle Enterprise
MehrWISSENSWERTES ÜBER WINDOWS SCALE-OUT FILE SERVER
WISSENSWERTES ÜBER WINDOWS SCALE-OUT FILE SERVER AGENDA 01 File Server Lösungen mit Windows Server 2012 R2 02 Scale-out File Server 03 SMB 3.0 04 Neue File Server Features mit Windows Server 2016 05 Storage
MehrODA Erfahrungen und Neuigkeiten
ODA Erfahrungen und Neuigkeiten Dierk Lenz 25. Oktober 2017 Köln Oracle Database Appliance (ODA) Mitglied der Familie der Oracle Engineered Systems, d.h.: Hardware und Software (Betriebssystem, Datenbank)
MehrIsabel Arnold CICS Technical Sales Germany Isabel.arnold@de.ibm.com. z/os Explorer. 2014 IBM Corporation
Isabel Arnold CICS Technical Sales Germany Isabel.arnold@de.ibm.com z/os Explorer Agenda Introduction and Background Why do you want z/os Explorer? What does z/os Explorer do? z/os Resource Management
MehrNEVARIS Build Systemvoraussetzungen
System- und Hardwarevoraussetzungen NEVARIS Build Die optimale Konfiguration einer passenden Hardware für NEVARIS Build mit der Datenbank von Microsoft hängt von zahlreichen Einflussgrößen ab, wie z.b.
Mehrlobodms.com lobo-dms Systemvoraussetzungen
lobodms.com lobo-dms Inhaltsverzeichnis 1 Allgemeines... 3 1.1 Betriebssystem... 3 1.2 Windows Domäne... 3 1.3 Dateisystem... 3 2 Server... 3 2.1 Hardware... 4 2.2 Betriebssystem... 4 2.3 Software... 4
Mehr