Example: IBM POWER Processor
|
|
- Leon Geisler
- vor 6 Jahren
- Abrufe
Transkript
1 Example: IBM POWER Processor Source: IBM J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 1 > IBM Power Supercomputer Quelle: IBM J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 2 > 1
2 Power9 Cores with Simultaneos Multithreading Source: IBM J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 3 > POWER9 Core Microarchitecture Source: IBM J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 4 > 2
3 POWER9 Dual Memory Subsystem Source: IBM J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 5 > POWER9 Processor Common Features Source: IBM J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 6 > 3
4 POWER9 Data Capacity & Throughput L3 Cache 120 MB shared capacity Per 2x Core 10 MB L3 cache region 512 kb L2 cache High-throughput on-chip fabric Over 7 TB/s on-chip switch Move data in/out at 256 GB/s per 2x Core J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 7 > POWER9 Scale Out Family Source: IBM J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 8 > 4
5 POWER9 16 Socket 2-Hop System Topology Source: IBM J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 9 > Interconnection Network HUB/Switch (one per SMP node) 192 GB/s to host node 336 GB/s to 7 other nodes in same drawer 240 GB/s to 24 nodes in other 3 drawers in same SuperNode 320 GB/s to hubs in other SuperNodes Source: IBM J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 10 > 5
6 Memory Hierarchy: Example IBM Power E870 (Power8) CPU Kapazität Bandbreite Latenz Register 256 Byte 120 GByte/s 0.2 ns 1. Level Cache 64 kbyte 75 GByte/s 1 ns 2. Level Cache 512 kbyte 150 GByte/s 4 ns 3. Level Cache 1 80 MByte 150 GByte/s < 30 ns Buffer Cache Mbyte?? Lokal Main Memory GByte 230 GByte/s < 90 ns Remote Main Memory GByte 230 GByte/s < 1 µs Swap Space on SSD > X * 500 MByte/s < 1 ms Swap Space on Harddisk >> X * 200 MByte/s ~5 ms 1 8MB per Core x 10 2 shared by 10 Cores 2 shared by 80 Cores J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 11 > POWER9 - Acceleration Extreme Accelerator Bandwidth and Reducend Latencys PCIe Gen 4 x 48 lanes 192 GB/s peak bandwidth IBM BlueLink 25 Gb/s x 48 lanes 300 GB/s peak bandwidth Coherent Memory and Virtual Addressing Capability for all Accelerators CAPI 2.0 using PCIe Gen 4 NVLink 2.0 next generation of GPU/CPU bandwidth and integration usinmg BLueLink OpenCAPI openinterface with high bandwidth and low latency using BlueLink Source: IBM J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 12 > 6
7 OpenPOWER Compared to IBM products Broader market Bigger ecosystem Platform for innovation Main focus on Linux Raptor Computing Systems Talos-II Two Power9 processors 16 DIMMs ECC DDR4 3 x PCIe 4.0 x16 J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 13 > Example: Intel Xeon Skylake AVX Single-Precision FLOP/s or 32 Double-Precision FLOP/s Ultra Path Interconnect (UPI) with 10.4 Gigatransfers per second (GT/s) Source: Intel J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 14 > 7
8 Intel Xeon SP Mesh Interconnect Architecture Mesh improves scalability with higher bandwidth and reduced latencies Broadwell EX 24-core Skylake SP 28-core Source: Intel J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 15 > Intel Xeon SP Cache Hierarchy On-chip cache Processor core with 640 KiB L1 data cache and 640 KiB L1 instruction cache (both 8-way set associative) 1 MiB L2 cache (16-way set associative) private L2 becomes primary cache with shared L3 used as overflow cache Non-inclusive L3 cache (1.375 MiB / core) lines in L2 may not exist in L3 previous Broadwell architecture Skylake SP architecture Source: Intel J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 16 > 8
9 Intel Xeon SP Family Platinum Gold Silver Source: Intel Bronze J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 17 > Inclusive vs Non-Inlcusive L3 1) memory reads fill directly to the L2, no longer to both the L2 and L3 2) When a L2 line needs to be removed, both modified and unmodified lines are written back 3) Data shared across cores are copied into the L3 for servicing future L2 misses Closer look in a later lecture Source: Intel Source: Intel Source: Intel J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 18 > 9
10 Memory Subsystem 2 Memory Controllers, 3 channels each DDR4 up to 2666, 2 DIMMs per channel 1.5 TB max memory capacity per socket Source: Intel Source: Intel Source: Intel J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 19 > Intel Xeon Scalable Processor Source: Intel J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 20 > 10
11 Intel Xeon SP - Platform Topologies Source: Intel J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 21 > Example: AMD Epyc 7000 Series CPU Complex ZEN Microarchitecture L1 D-cache with 32 kib, 8 way L1 I-cache with 64 kib, 4 way L2 cache with 512 kib, 8 way CPU Complex Four cores connected to an L3 cache L3 cache with 8 MiB, 16 way associative Multi chip processors Four CCX per processor Infinity Fabric 42 GiB/s bi-directional bandwidth per link Fully connected coherent Infinity Fabric within socket Dual socket systems with two processors connected with 4 x 38 GiB/s links Multi Chip processor J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 22 > 11
12 AMD Epyc 7000 Series AMD EPYC Cores, 2.2 GHz (max boost clock 3.2 GHz, all cores max boost 2.7 GHz) 64 MiB L3-cache TDP 180 Watt 1 or 2 sockets AMD EPYC cores, 2.3 GHz (max boost clock 3.2 GHz) TDP 180 Watt 1 or 2 sockets J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 23 > AMD Infinity Fabric Two socket platform AMD Infinity Fabric connecting Zeppelin die on a MCM and between MCMs Source: AMD J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 24 > 12
13 Example: NVIDIA Stream Processor (GPU) NVIDIA Tesla V billion transistors 80 SM stream multiprocessors 5,120 CUDA Cores 1.45 GHz 6 MiB shared L2 cache 640 tensor cores Accelerates Deep learning applications Main memory 16 GiB HBM2 (High- Bandwidth-Memory) 900 GiB/s NVLINK 7.5 TFLOPS DP, 15 TFLOPS SP Training, Inference: 120 TOPS Source: NVIDIA J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 25 > NVIDIA NVLINK 6 NVLINKs per GPU 300 GiB/s bandwidth Source: NVIDIA J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 26 > 13
14 Accelerators become part of the Processor Floating-Point Unit 1978: Intel Intel 8087 Math-Co processor (16 Bit) 1989: Intel i486 with integrated floating-point units (32 bit) Vector Unit 1993: CM5 with Sparc processor + Vector Unit Accelerators (MBUS) 1995: Intel Pentium P55C with MMX instructions 1996: Motorola PowerPC with AltiVec Stream Processing 2006: Workstation + GPU graphic card (PCI) 2011: Intel HD Graphics 3000 with integrated GPU (OpenCL) J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 27 > Leistungsentwicklung eines Prozessorkerns 52% /year 25% /year Von 1986 bis 2002 ca. 50% Leistungszuwachs pro Jahr Derzeit Einzelprozessorleistung nur langsam zunehmend Höherer Leistungszuwachs nur noch über Erhöhung der Anzahl an Prozessoren (Cores) möglich J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 28 > 14
15 Hauptspeichergeschwindigkeit 25% p.a Geschwindigkeit pro Speichermodul. Leistungsunterschied zwischen CPU und RAM wird weiter wachsen (52% p.a vs 25% p.a) Quelle: Rambus Inc., 2010 J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 29 > Memory Bandwidth/Latency Generation Type Peak Bandwidth Latency (1st word) SDRAM (1990s) PC Gbyte/s 20 ns DDR (2000) DDR Gbyte/s 20 ns DDR DDR Gbyte/s 15 ns DDR2 (2003) DDR Gbyte/s 15 ns DDR2 DDR Gbyte/s 15 ns DDR3 (2007) DDR Gbyte/s 13 ns DDR3 DDR Gbyte/s ns DDR4 (2014) DDR Gbyte/s ~ 11 ns DDR4 DDR Gbyte/s ~10.5 ns J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 30 > 15
16 Trends Power Wall Energieaufnahme / Kühlung Lösungen geringere Taktfrequenzen mehr Ausführungseinheiten Memory Wall Speicherbandbreite u. Latenz Lösungen bessere Speicherhierarchien u. Anbindung an CPUs Latency-Hidding ILP Wall Beschränkte Parallelität im sequentiellen Instruktionsstrom Lösungen mehr Parallelität in Programmen erkennen (Compiler) mehr explizite Parallelität in Programmen (Programmiersprachen) J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 31 > Teil 3: Architekturen paralleler Rechnersysteme J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 32 > 16
17 Einfache Definition Parallelrechner George S. Almasi, IBM Thomas J. Watson Research Center Allan Gottlieb, New York University, 1989 A parallel computer is a collection of processing elements that communicate and cooperate to solve large problems fast. J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 33 > Rechnerarchitektur allgemein Eine Rechnerarchitektur ist bestimmt durch ein Operationsprinzip für die Hardware und die Struktur ihres Aufbaus aus den einzelnen Hardware-Betriebsmitteln (Giloi 1993) Operationsprinzip Das Operationsprinzip definiert das funktionelle Verhalten der Architektur durch Festlegung einer Informationsstruktur und einer Kontrollstruktur. Hardware-Struktur Die Struktur einer Rechnerarchitektur ist gegeben durch Art und Anzahl der Hardware-Betriebsmittel und deren verbindenden Kommunikationseinrichtungen. J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 34 > 17
18 ... in anderen Worten Operationsprinzip Vorschrift über das Zusammenspiel der Komponenten Struktur Einzelkomponenten und deren Verknüpfung Grundlegende Strukturbausteine sind Prozessor (CPU), als aktive Komponente zur Ausführung von Programmen, Hauptspeicher (ggf. hierarchisch strukturiert, ), Übertragungsmedium zur Verbindung der einzelnen Architekturkomponenten, Steuereinheiten für Anschluss und Kontrolle von Peripherie-geräten und Geräte, als Zusatzkomponenten für Ein- und Ausgabe von Daten sowie Datenspeicherung. J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 35 > Parallelrechner Operationsprinzip: gleichzeitige Ausführung von Befehlen sequentielle Verarbeitung in bestimmbaren Bereichen Arten des Parallelismus: Explizit: Die Möglichkeit der Parallelverarbeitung wird a priori festgelegt. Hierzu sind geeignete Datentypen bzw. Datenstrukturen erforderlich, z.b. Vektoren (lineare Felder) samt Vektoroperationen. Implizit: Die Möglichkeit der Parallelverarbeitung ist nicht a priori bekannt. Durch eine Datenabhängigkeitsanalyse werden die parallelen und sequentiellen Teilschritte des Algorithmus zur Laufzeit ermittelt. J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 36 > 18
19 Strukturelemente von Parallelrechnern Parallelrechner besteht aus einer Menge von Verarbeitungselementen, die in einer koordinierten Weise, teilweise zeitgleich, zusammenarbeiten, um eine Aufgabe zu lösen Verarbeitungselemente können sein: spezialisierte Einheiten, wie z.b. die Pipeline-Stufen eines Skalarprozessors oder die Vektor-Pipelines der Vektoreinheit eines Vektorrechners gleichartige Rechenwerke, wie z.b. die Verarbeitungselemente eines Feldrechners Prozessorknoten eines Multiprozessorsystems vollständige Rechner, wie z.b. Workstations oder PCs eines Clusters selbst wieder ganze Parallelrechner oder Cluster J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 37 > Grenzbereiche von Parallelrechnern eingebettete Systeme als spezialisierte Parallelrechner Superskalar-Prozessoren, die feinkörnige Parallelität durch Befehls- Pipelining und Superskalar-Technik nutzen Mikroprozessoren arbeiten als Hauptprozessor teilweise gleichzeitig zu einer Vielzahl von spezialisierten Einheiten wie der Bussteuerung, DMA-,Graphikeinheit, usw. Ein-Chip-Multiprozessor mehrfädige (multithreaded) Prozessoren führen mehrere Kontrollfäden überlappt oder simultan innerhalb eines Prozessors aus VLIW- (Very Long Instruction Word)- Prozessor J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 38 > 19
20 Klassifikation von Parallelrechnern Klassifikation nach Flynn, d.h. Klassifikation nach der Art der Befehlsausführung Klassifikation nach der Speicherorganisation und dem Adressraum Konfigurationen des Verbindungsnetzwerks Varianten an speichergekoppelte Multiprozessorsysteme Varianten an nachrichtengekoppelte Multiprozessorsysteme J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 39 > Klassifikation nach Flynn Zweidimensionale Klassifizierung mit Kriterium Anzahl der Befehls- und Datenströme Rechner bearbeitet zu einem Zeitpunkt einen oder mehrere Befehle Rechner bearbeitet zu einem Zeitpunkt einen oder mehrere Datenwerte Damit vier Klassen von Rechnerarchitekturen SISD: Single Instruction, Single Data Ein Befehl verarbeitet einen Datensatz. (herkömmliche Rechnerarchitektur eines seriellen Rechners) SIMD: Single Instruction, Multiple Data Ein Befehl verarbeitet mehrere Datensätze, z.b. N Prozessoren führen zu einem Zeitpunkt den gleichen Befehl aber mit unterschiedlichen Daten aus. MISD: Multiple Instruction, Single Data Mehrere Befehle verarbeiten den gleichen Datensatz. (Diese Rechnerarchitektur ist nie realisiert worden.) MIMD: Multiple Instruction, Multiple Data Unterschiedliche Befehle verarbeiten unterschiedliche Datensätze. (Dies ist das Konzept fast aller modernen Parallelrechner.) J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 40 > 20
21 SISD Architektur Klassische Struktur eines seriellen Rechners: Nacheinander werden verschiedene Befehle ausgeführt, die z.b. einzelne Datenpaare verknüpfen A(2) B(2) Verarbeitungs- Einheit A(1) + B(1) Moderne RISC (Reduced Instruction Set Computer) Prozessoren verwenden Pipelining: Mehrere Funktionseinheiten, die gleichzeitig aktiv sind. Operationen sind in Teiloperationen unterteilt. In jedem Takt kann eine Funktionseinheit (z.b. Addititionseinheit) eine neue Operation beginnen. D.h. hohe interne Parallelität nutzbar J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 41 > SIMD Architektur (Prozessorarray) Mehrere Prozessoren führen zu einem Zeitpunkt den gleichen Befehl aus Rechner für Spezialanwendungen (z.b. Bildverarbeitung, Spracherkennung) I.A. sehr viele Prozessorkerne (tausende Kerne in einem System ) Beispiele: Graphikprozessoren, Numerische Coprozessoren X[1]-Y[1] X[2]-Y[2] X[3]-Y[3] X[4]-Y[4] C[1]*D[1] C[2]*D[2] C[3]*D[3] C[4]*D[4] A[1]+B[1] A[2]+B[2] A[3]+B[3] A[4]+B[4] Prozessor 1 Prozessor 2 Prozessor 3 Prozessor 4 Mittlerweile auch innerhalb einzelner Funktionseinheiten zu finden J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 42 > 21
22 MIMD Architektur Mehrere Prozessoren führen unabhängig voneinander unterschiedliche Instruktionen auf unterschiedlichen Daten aus: call sub x=y do i = 1,n a(i)=b(i) end do T = sin(r) t = 1/x call sub1 n=100 z=a(i) x=a(1)/t b=0.d0 Prozessor 1 Prozessor 2 Prozessor 3 Prozessor 4 Fast alle aktuellen Systeme entsprechen dieser Architektur. J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 43 > Speicherorganisation und Adressraum verteilte Speicherorganisation Speicher CPU Speicher CPU Zugriff auf anderen CPUs zugeordnete Speicher nur über explizites Message Pasing; sehr hohe Latenzzeit (z.b. PC-Cluster) Verbindungsnetzwerk Speicher CPU Speicher CPU Verbindungsnetzwerk Speicher CPU Zugriff auf anderen CPUs zugeordnete Speicher direkt möglich bei variabler Latenzzeit (z.b. Cray T3E) Speicher CPU zentrale Speicherorganisation Speicher CPU CPU CPU Speicher ist allen CPUs direkt zugänglich; Programme laufen in unterschiedlichem Adressraum und kommunizieren über Message Passing oder UNIX-Pipes (eher theoretisch, sonst nur bei Partitionierung des Adressraums) Speicher CPU CPU CPU Speicher ist allen CPUs direkt zugänglich bei Konstanter Latenzzeit (z.b. Cray Y-MP) lokaler Adressraum globaler Adressraum J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 44 > 22
23 Konfiguration der Verbindungsnetzwerke Verteilter Adressraum Gemeinsamer Adressraum Globaler Speicher Prozessor Prozessor Verbindungsnetz gemeinsamer Speicher SMP Symmetrischer Multiprozessor Leer räumlich verteilter Speicher Prozessor lokaler Speicher Verbindungsnetz Prozessor lokaler Speicher DSM Distributed-shared-memory-Multiprozessor Prozessor lokaler Speicher send Prozessor lokaler Speicher receive Verbindungsnetz Nachrichtengekoppelter (Shared-nothing-) Multiprozessor J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 45 > Arten von Multiprozessorsystemen Bei speichergekoppelten Multiprozessorsystemen besitzen alle Prozessoren einen gemeinsamen Adressraum. Kommunikation und Synchronisation geschehen über gemeinsame Variablen. symmetrisches Multiprozessorsystem (SMP): ein globaler Speicher Distributed-Shared-Memory-System (DSM): gemeinsamer Adressraum trotz räumlich verteilter Speichermodule Beim nachrichtengekoppelten Multiprozessorsystem besitzen alle Prozessoren nur räumlich verteilte Speicher und prozessorlokale Adressräume. Die Kommunikation geschieht durch Austausch von Nachrichten. Massively Parallel Processors (MPP), eng gekoppelte Prozessoren Verteiltes Rechnen in einem Workstation-Cluster. Grid-/Cloud-Computing: Zusammenschluss weit entfernter Rechner J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 46 > 23
24 Speichergekoppelte Multiprozessorsysteme Alle Prozessoren besitzen einen gemeinsamen Adressraum; Kommunikation und Synchronisation geschieht über gemeinsame Variablen. Uniform-Memory-Access-Modell (UMA): Alle Prozessoren greifen in gleichermaßen auf einen gemeinsamen Speicher zu. Insbesondere ist die Zugriffszeit aller Prozessoren auf den gemeinsamen Speicher gleich. Jeder Prozessor kann zusätzlich einen lokalen Cache-Speicher besitzen. Typische Beispiel: die symmetrischen Multiprossorsysteme (SMP) Nonuniform-Memory-Access-Modell (NUMA): Die Zugriffszeiten auf Speicherzellen des gemeinsamen Speichers variieren je nach dem Ort, an dem sich die Speicherzelle befindet. Die Speichermodule des gemeinsamen Speichers sind physisch auf die Prozessoren aufgeteilt. Typische Beispiele: Distributed-Shared-Memory-Systeme. J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 47 > Nachrichtengekoppelte Multiprozessorsysteme Uniform-Communication-Architecture-Modell (UCA): Zwischen allen Prozessoren können gleich lange Nachrichten mit einheitlicher Übertragungszeit geschickt werden. Non-Uniform-Communication-Architecture-Modell (NUCA): Die Übertragungszeit des Nachrichtentransfers zwischen den Prozessoren ist je nach Sender- und Empfänger-Prozessor unterschiedlich lang. J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 48 > 24
25 Speicher- vs. Nachrichtenkopplung Distributed-Shared-Memory-Systeme sind NUMAs: Die Zugriffszeiten auf Speicherzellen des gemeinsamen Speichers variieren je nach Ort, an dem sich die Speicherzelle befindet. cc-numa (Cache-coherent NUMA): Cache-Kohärenz wird über das gesamte System gewährleistet, z.b. SGI Origin, HP Superdome, IBM Regatta ncc-numa (Non-Cache-coherent NUMA): Cache-Kohärenz wird nur innerhalb eines Knoten gewährleistet, z.b. Cray T3E, SCI-Cluster COMA (Cache-only-Memory-Architecture): Der Speicher des gesamten Rechners besteht nur aus Cache-Speicher. Nur in einem kommerziellen System realisiert (ehemalige Firma KSR) Nachrichten gekoppelte Multiprozessorsysteme sind NORMAs (Noremote-memory-access-Modell) oder Shared-nothing-Systeme, z.b. IBM SP, HP Alpha Cluster J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 49 > Zugriffszeit-/Übertragungszeit-Modell Time of data access multiple processors shared address space UMA cc-numa single processor single address space NUMA ncc-numa multiple processors message passing UCA NUCA Convenience of programming J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 50 > 25
26 Klassifizierung nach Zusammenfassung: Klassifizierung Befehls- und Datenströme, Speicherorganisation, Verbindungsnetzwerk weitere Details später in der Vorlesung J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 51 > Quantitative Bewertung von Parallelrechnern Merkmale: Geschwindigkeit, Auslastung Ausführungszeit T eines parallelen Programms Zeit zwischen dem Starten der Programmausführung auf einem der Prozessoren bis zu dem Zeitpunkt, an dem der letzte Prozessor die Arbeit an dem Programm beendet hat Während der Programmausführung sind alle Prozessoren in einem von drei Zuständen rechnend kommunizierend untätig J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 52 > 26
27 Ausführungszeit T Ausführungszeit T eines parallelen Programms auf einem dediziert zugeordneten Parallelrechner setzt sich zusammen aus: Berechnungszeit T comp Zeit für die Ausführung von Rechenoperationen Kommunikationszeit T com Zeit für Sende- und Empfangsoperationen Untätigkeitszeit T idle Zeit für Warten (auf zu empfangende oder zu sendende Nachrichten) Es gilt: T T comp + T com + T idle J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 53 > Parallelitätsprofil Parallelitätsprofil zeigt die vorhandene Parallelität in einem parallelen Programm (einer konkreten Ausführung) Grafische Darstellung: Auf der x-achse wird die Zeit und auf der y-achse die Anzahl paralleler Aktivitäten aufgetragen. Perioden von Berechnungs- Kommunikations- und Untätigkeitszeiten sind erkennbar. Task E: Task D: Task C: Task B: Task A: 5 compute 4 communicate Anzahl idle Tasks Zeit J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 54 > 27
28 Beschleunigung und Effizienz Beschleunigung (Leistungssteigerung, Speedup): S( n) T (1) T ( n) Effizienz: E( n) S( n) n T(1) Ausführungszeit auf einem Einprozessorsystem T(n) Ausführungszeit auf einem System mit n Prozessoren Die Zeit ist auch in Schritte oder Takte messbar. J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 55 > Skalierbarkeit Skalierbarkeit eines Parallelrechners Das Hinzufügen von weiteren Verarbeitungselementen führt zu einer kürzeren Gesamtausführungszeit, ohne dass das Programm geändert werden muss. Wichtig für die Skalierbarkeit sind jeweils angemessene Problemgrößen. Bei fester Problemgröße und steigender Prozessorzahl wird ab einer bestimmten Prozessorzahl eine Sättigung eintreten. Die Skalierbarkeit ist in jedem Fall beschränkt (strong scaling). Darf mit Anzahl an Prozessoren auch die Problemgröße steigen (weak scaling), dann muss ein skalierendes Hardware- und Software-System den Sättigungseffekt nicht aufweisen. Gute Skalierbarkeit: Lineare Steigerung der Beschleunigung mit einer Effizienz nahe Eins. J. Simon - Architecture of Parallel Computer Systems SoSe 2018 < 56 > 28
2 Rechnerarchitekturen
2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf
Architektur von Parallelrechnern 50
Architektur von Parallelrechnern 50 Rechenintensive parallele Anwendungen können nicht sinnvoll ohne Kenntnis der zugrundeliegenden Architektur erstellt werden. Deswegen ist die Wahl einer geeigneten Architektur
Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP)
Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP) @wefinet Werner Fischer, Thomas-Krenn.AG Webinar, 17. Oktober 2017 Intel Xeon Scalable Performance _ Das ist NEU: Neue
Mehrprozessorarchitekturen
Mehrprozessorarchitekturen (SMP, UMA/NUMA, Cluster) Arian Bär 12.07.2004 12.07.2004 Arian Bär 1 Gliederung 1. Einleitung 2. Symmetrische Multiprozessoren (SMP) Allgemeines Architektur 3. Speicherarchitekturen
Seminar Parallele Rechnerarchitekturen SS04 \ SIMD Implementierung aktueller Prozessoren 2 (Dominik Tamm) \ Inhalt. Seite 1
\ Inhalt Seite 1 \ Inhalt SIMD Kurze Rekapitulation 3Dnow! (AMD) AltiVec (PowerPC) Quellen Seite 2 \ Wir erinnern uns: Nach Flynn s Taxonomie kann man jeden Computer In eine von vier Kategorien einteilen:
Proseminar Rechnerarchitekturen. Parallelcomputer: Multiprozessorsysteme
wwwnet-texde Proseminar Rechnerarchitekturen Parallelcomputer: Multiprozessorsysteme Stefan Schumacher, , PGP Key http://wwwnet-texde/uni Id: mps-folientex,v
Architektur paralleler Plattformen
Architektur paralleler Plattformen Freie Universität Berlin Fachbereich Informatik Wintersemester 2012/2013 Proseminar Parallele Programmierung Mirco Semper, Marco Gester Datum: 31.10.12 Inhalt I. Überblick
Grundlagen der Rechnerarchitektur
Grundlagen der Rechnerarchitektur Architecture of Parallel Computer Systems WS15/16 J.Simon 1 Von Neumann Architecture Address bus CPU Program Control Unit I/O Control bus Arithmetic-Logic Unit Program
Maik Zemann. Flynn s Taxonomie. Parallele Rechnerarchitekturen SS 2004 Technische Fakultät Universität Bielefeld. 3. Mai 2004 Flynn's Taxonomie 1
Maik Zemann Flynn s Taxonomie Parallele Rechnerarchitekturen SS 2004 Technische Fakultät Universität Bielefeld 3. Mai 2004 Flynn's Taxonomie 1 Gliederung Einleitung Gliederung Flynn s Taxonomie Das SISD-Modell
Introduction Workshop 11th 12th November 2013
Introduction Workshop 11th 12th November 2013 Lecture I: Hardware and Applications Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Overview Current and next System Hardware Sections
Seminar Multicore-Programmierung
Multicore- und GPGPU-Architekturen Fakultät für Informatik und Mathematik Universität Passau 04. November 2010 APUs / 1 / 39 Inhaltsverzeichnis I APUs / APUs / 2 / 39 Inhaltsverzeichnis II APUs / 3 / 39
Parallelrechner (1) Anwendungen: Simulation von komplexen physikalischen oder biochemischen Vorgängen Entwurfsunterstützung virtuelle Realität
Parallelrechner (1) Motivation: Bedarf für immer leistungsfähigere Rechner Leistungssteigerung eines einzelnen Rechners hat physikalische Grenzen: Geschwindigkeit von Materie Wärmeableitung Transistorgröße
GPGPU WITH OPENCL. Praktikum Parallele Rechnerarchitekturen, 2015w Franz Richter-Gottfried
GPGPU WITH OPENCL Praktikum Parallele Rechnerarchitekturen, 2015w Franz Richter-Gottfried INFRASTRUCTURE Enqueue interactive job srun --gres --pty bash Graphics cards available for tesla_k20,
Intel 80x86 symmetrische Multiprozessorsysteme. Eine Präsentation im Rahmen des Seminars Parallele Rechnerarchitekturen von Bernhard Witte
Intel 80x86 symmetrische Multiprozessorsysteme Eine Präsentation im Rahmen des Seminars Parallele Rechnerarchitekturen von Bernhard Witte Gliederung I. Parallel Computing Einführung II.SMP Grundlagen III.Speicherzugriff
Systeme 1: Architektur
slide 1 Vorlesung Systeme 1: Architektur Prof. Dr. Ulrich Ultes-Nitsche Forschungsgruppe Departement für Informatik Universität Freiburg slide 2 Prüfung 18. Februar 2004 8h00-11h40 13h00-18h20 20 Minuten
Inhalt. Prozessoren. Curriculum Manfred Wilfling. 28. November HTBLA Kaindorf. M. Wilfling (HTBLA Kaindorf) CPUs 28. November / 9
Inhalt Curriculum 1.4.2 Manfred Wilfling HTBLA Kaindorf 28. November 2011 M. Wilfling (HTBLA Kaindorf) CPUs 28. November 2011 1 / 9 Begriffe CPU Zentraleinheit (Central Processing Unit) bestehend aus Rechenwerk,
Multicore-Architekturen
Universität Erlangen- Nürnberg Technische Universität München Universität Stuttgart Multicore-Architekturen Vortrag im Rahmen der Ferienakademie 2009 Kurs 1: Programmierkonzepte für Multi-Core Rechner
Cell Broadband Engine
Cell Broadband Engine 21.March 2006 Benjamin Keck Outline Why Cell?!? Application Areas Architectural Overview SPU Programming Model Programming on the PPE C/C++ Intrinsics The Cell Supercomputer on a
Outline. Cell Broadband Engine. Application Areas. The Cell
Outline 21.March 2006 Benjamin Keck Why Cell?!? Application Areas Architectural Overview Programming Model Programming on the PPE C/C++ Intrinsics 1 2 The Cell Supercomputer on a chip Multi-Core Microprocessor
Distributed Memory Computer (DMC)
Distributed Memory Computer (DMC) verteilter Speicher: jeder Prozessor kann nur auf seinen lokalen Speicher zugreifen Kopplung mehrerer Prozessoren über E/A-Schnittstellen und Verbindungsnetzwerk, nicht
Überblick. Einleitung. Befehlsschnittstelle Mikroarchitektur Speicherarchitektur Ein-/Ausgabe Multiprozessorsysteme,...
Überblick Einleitung Lit., Motivation, Geschichte, v.neumann- Modell, VHDL Befehlsschnittstelle Mikroarchitektur Speicherarchitektur Ein-/Ausgabe Multiprozessorsysteme,... Kap.6 Multiprozessorsysteme Einsatz
2.7. REALE PARALLELRECHNER UND DIE TOP500-LISTE
Vorlesung 9 2.7. EALE PAALLELECHNE UND DIE TOP500-LISTE c 2010 BY SEGEI GOLATCH UNI MÜNSTE PAALLELE SYSTEME VOLESUNG 9 1 Vorlesung 9 2.7. EALE PAALLELECHNE UND DIE TOP500-LISTE Flynn sche Klassifikation
Rechnerarchitekturen. Von Neumann Architektur
Rechnerarchitekturen Vorlesung: Architektur Paralleler Rechnersysteme WS13/14 J.Simon 1 Von Neumann Architektur Adressbus CPU Program Control Unit I/O Arithmetic-Logic Unit RAM Program + Data Steuerbus
Parallelverarbeitung. Parallelverarbeitung. 2. Grundlagen. 2. Grundlagen. 2.1 Parallelität
2. Grundlagen Parallelverarbeitung SS 2005 Inhalt Parallelität Ebenen der Parallelität Parallelrechnerarchitekturen Parallele Programmiermodelle 18.04.05 Roland Wismüller, Univ. Siegen roland.wismueller@uni-siegen.de
Enterprise Computing
Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth Teil 6 Partitionierung NUMA Sharing Disk Storage HP Superdome Cell Board 4 Itanium 2 CPU Chips 32 128 Gbyte I/O Bus mit Kühlern Hauptspeicher Anschlüsse
Protected User-Level DMA in SCI Shared Memory Umgebungen
Protected User-Level DMA in SCI Shared Memory Umgebungen Mario Trams University of Technology Chemnitz, Chair of Computer Architecture 6. Halle Chemnitz Seminar zu Parallelverarbeitung und Programmiersprachen
moderne Prozessoren Jan Krüger jkrueger@techfak.uni-bielefeld.de
moderne Prozessoren Jan Krüger jkrueger@techfak.uni-bielefeld.de Übersicht FachChinesisch SPARC - UltraSparc III/IV PowerPC - PowerPC 970(G5) X86 - Pentium4(Xeon), Itanium, (Pentium M) X86 - AthlonXP/MP,
TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D.
TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D. Blatt Nr. 07 Übung zur Vorlesung Einsatz und Realisierung von Datenbanksystemen im SoSe16 Moritz Kaufmann
Gregor Michalicek, Marcus Schüler. Multiprozessoren
Gregor Michalicek, Marcus Schüler Gregor Michalicek Marcus Schüler Gregor Michalicek, Marcus Schüler Vorteile gegenüber Singleprozessoren ¾ sind zuverlässiger. Einige Multiprozessorsysteme können trotz
Machine Learning Hardware
Machine Learning Hardware Dominik Scherer 06.11.2017 Seminar Neuste Trends in Big Data Analytics Betreuer: Dr. Julian Kunkel Motivation Maschinelles Lernen in vielen Bereichen angewendet, z.b. Spracherkennung
Hardware-Architekturen
Kapitel 3 Hardware-Architekturen Hardware-Architekturen Architekturkategorien Mehrprozessorsysteme Begriffsbildungen g Verbindungsnetze Cluster, Constellation, Grid Abgrenzungen Beispiele 1 Fragestellungen
IT für Führungskräfte. Zentraleinheiten. 11.04.2002 Gruppe 2 - CPU 1
IT für Führungskräfte Zentraleinheiten 11.04.2002 Gruppe 2 - CPU 1 CPU DAS TEAM CPU heißt Central Processing Unit! Björn Heppner (Folien 1-4, 15-20, Rollenspielpräsentation 1-4) Harald Grabner (Folien
Quiz. Gegeben sei ein 16KB Cache mit 32 Byte Blockgröße. Wie verteilen sich die Bits einer 32 Bit Adresse auf: Tag Index Byte Offset.
Quiz Gegeben sei ein 16KB Cache mit 32 Byte Blockgröße. Wie verteilen sich die Bits einer 32 Bit Adresse auf: Tag Index Byte Offset 32 Bit Adresse 31 3 29... 2 1 SS 212 Grundlagen der Rechnerarchitektur
CLAIX Vorstellung und Technik Christian Terboven
CLAIX Vorstellung und Technik Christian Terboven Inhalte CLAIX Phase I Zwei Rack-Reihen + 2 Schränke Testbetrieb mit Projekten seit November 2016 Trier-2 HPC-System Abnahme im Januar 2017 TOP500 im November
Johann Wolfgang Goethe-Universität
Flynn sche Klassifikation SISD (single instruction, single data stream): IS IS CU PU DS MM Mono (Mikro-)prozessoren CU: Control Unit SM: Shared Memory PU: Processor Unit IS: Instruction Stream MM: Memory
TecNews: Sandy Bridge
TecNews: Sandy Bridge Werner Fischer, Technology Specialist Thomas-Krenn.AG Thomas Krenn Herbstworkshop & Roadshow 2011 23.09. in Freyung 06.10. in Wien (A) 10.10. in Frankfurt 11.10. in Düsseldorf 12.10.
Kapitel 1 Parallele Modelle Wie rechnet man parallel?
PRAM- PRAM- DAG- R UND R Coles und Kapitel 1 Wie rechnet man parallel? Vorlesung Theorie Paralleler und Verteilter Systeme vom 11. April 2008 der Das DAG- Das PRAM- Das werkmodell Institut für Theoretische
Neue Prozessor-Architekturen für Desktop-PC
Neue Prozessor-Architekturen für Desktop-PC Bernd Däne Technische Universität Ilmenau Fakultät I/A - Institut TTI Postfach 100565, D-98684 Ilmenau Tel. 0-3677-69-1433 bdaene@theoinf.tu-ilmenau.de http://www.theoinf.tu-ilmenau.de/ra1/
Beispielvortrag: HPCG auf Intel Haswell-EP
Beispielvortrag: HPCG auf Intel Haswell-EP Johannes Hofmann 1 Seminarvortrag Architekturen von Multi- und Vielkern-Prozessoren Erlangen, 19.4.2016 1 Computer Architecture, University Erlangen-Nuremberg
Rechnerstrukturen. 6. System. Systemebene. Rechnerstrukturen Wintersemester 2002/03. (c) Peter Sturm, Universität Trier 1. Prozessor.
Rechnerstrukturen 6. System Systemebene 1 (Monoprozessor) 2-n n (Multiprozessor) s L1- in der L2- ( oder Motherboard) ggf. L3- MMU Speicher Memory Controller (Refresh etc.) E/A-Geräte (c) Peter Sturm,
CUDA. Moritz Wild, Jan-Hugo Lupp. Seminar Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg
CUDA Seminar Multi-Core Architectures and Programming 1 Übersicht Einleitung Architektur Programmierung 2 Einleitung Computations on GPU 2003 Probleme Hohe Kenntnisse der Grafikprogrammierung nötig Unterschiedliche
Übersicht. Einleitung. Übersicht. Architektur. Dr.-Ing. Volkmar Sieh WS 2008/2009
Übersicht Einleitung 1 Einleitung Dr.-Ing. Volkmar Sieh 2 Technologische Trends Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 3 Historischer
1 Konzepte der Parallelverarbeitung
Parallelverarbeitung Folie 1-1 1 Konzepte der Parallelverarbeitung Erhöhung der Rechenleistung verbesserte Prozessorarchitekturen mit immer höheren Taktraten Vektorrechner Multiprozessorsysteme (Rechner
General Purpose Computation on GPUs
General Purpose Computation on GPUs Matthias Schneider, Robert Grimm Universität Erlangen-Nürnberg {matthias.schneider, robert.grimm}@informatik.stud.uni-erlangen.de M. Schneider, R. Grimm 1 Übersicht
Grafikkarten-Architektur
> Grafikkarten-Architektur Parallele Strukturen in der GPU Name: Sebastian Albers E-Mail: s.albers@wwu.de 2 > Inhalt > CPU und GPU im Vergleich > Rendering-Pipeline > Shader > GPGPU > Nvidia Tesla-Architektur
3. Rechnerarchitektur
ISS: EDV-Grundlagen 1. Einleitung und Geschichte der EDV 2. Daten und Codierung 3. Rechnerarchitektur 4. Programmierung und Softwareentwicklung 5. Betriebssyteme 6. Internet und Internet-Dienste 3. Rechnerarchitektur
Rechneraufbau und Rechnerstrukturen
Rechneraufbau und Rechnerstrukturen von Prof. Dr. em. Walter Oberschelp, RWTH Aachen und Prof. Dr. Gottfried Vossen, Universität Münster 9. Auflage Oldenbourg Verlag München Wien Inhaltsverzeichnis Vorwort
Titelmasterformat durch Klicken bearbeiten
Titelmasterformat durch Klicken Titelmasterformat durch Klicken Huawei Enterprise Server Systeme Global Player auf dem Server- und Storagemarkt Scale up Übersicht Titelmasterformat durch Klicken Textmasterformat
Effektive Nutzung der Simulationsumgebung Anregungen für die Praxis
1 2017 ANSYS, 14. Inc. Juni 2017 in June Winterthur 20, 2017 22. SCHWEIZER CADFEM ANSYS SIMULATION CONFERENCE Effektive Nutzung der Simulationsumgebung Anregungen für die Praxis Martin Mann Sales & Acount
Motivation (GP)GPU CUDA Zusammenfassung. CUDA und Python. Christian Wilms. Integriertes Seminar Projekt Bildverarbeitung
CUDA und Python Christian Wilms Integriertes Seminar Projekt Bildverarbeitung Universität Hamburg WiSe 2013/14 12. Dezember 2013 Christian CUDA und Python 1 Gliederung 1 Motivation 2 (GP)GPU 3 CUDA 4 Zusammenfassung
3 Technikarchitekturen
3 Technikarchitekturen 3.1 Rechnerarchitektur Definition Taxonomien Komponenten Rechnergrößentypologie 3.2 Kommunikationssystemarchitektur ISO-Referenzmodell TCP/IP Grundlagen der Telekommunikation 3.3
Compute Unified Device Architecture CUDA
Compute Unified Device Architecture 06. Februar 2012 1 / 13 Gliederung 2 / 13 : Compute Unified Device Architecture entwickelt von Nvidia Corporation spezifiziert Software- und Hardwareeigenschaften Ziel:
Verteilte Betriebssysteme
Verteiltes System Eine Sammlung unabhängiger Rechner, die dem Benutzer den Eindruck vermitteln, es handle sich um ein einziges System. Verteiltes Betriebssystem Betriebssystem für verteilte Systeme Verwaltet
OpenCL. Programmiersprachen im Multicore-Zeitalter. Tim Wiersdörfer
OpenCL Programmiersprachen im Multicore-Zeitalter Tim Wiersdörfer Inhaltsverzeichnis 1. Was ist OpenCL 2. Entwicklung von OpenCL 3. OpenCL Modelle 1. Plattform-Modell 2. Ausführungs-Modell 3. Speicher-Modell
Technische Grundlagen der Informatik 2 SS Einleitung. R. Hoffmann FG Rechnerarchitektur Technische Universität Darmstadt E-1
E-1 Technische Grundlagen der Informatik 2 SS 2009 Einleitung R. Hoffmann FG Rechnerarchitektur Technische Universität Darmstadt Lernziel E-2 Verstehen lernen, wie ein Rechner auf der Mikroarchitektur-Ebene
Rechner Architektur. Martin Gülck
Rechner Architektur Martin Gülck Grundlage Jeder Rechner wird aus einzelnen Komponenten zusammengesetzt Sie werden auf dem Mainboard zusammengefügt (dt.: Hauptplatine) Mainboard wird auch als Motherboard
Kap.2 Befehlsschnittstelle. Prozessoren, externe Sicht
Kap.2 Befehlsschnittstelle Prozessoren, externe Sicht 2 Befehlsschnittstelle 2.1 elementare Datentypen, Operationen 2.2 logische Speicherorganisation 2.3 Maschinenbefehlssatz 2.4 Klassifikation von Befehlssätzen
Rechnerarchitektur und Betriebssysteme (CS201): Multiprogramming und -Tasking Flynn-Klassifikation, ILP, VLIW
Rechnerarchitektur und Betriebssysteme (CS201): Multiprogramming und -Tasking Flynn-Klassifikation, ILP, VLIW 26. Oktober 2012 Prof. Dr. Christian Tschudin Departement Informatik, Universität Basel Uebersicht
Computational Biology: Bioelektromagnetismus und Biomechanik
Computational Biology: Bioelektromagnetismus und Biomechanik Implementierung Gliederung Wiederholung: Biomechanik III Statische Elastomechanik Finite Elemente Diskretisierung Finite Differenzen Diskretisierung
Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern
Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern Institut für Betriebssysteme und Rechnerverbund TU Braunschweig 25.10., 26.10.
Current and Emerging Architectures Multi-core Architectures and Programming
Current and Emerging Architectures Multi-core Architectures and Programming Adel El-Rayyes Hardware-Software-Co-Design, Friedrich-Alexander-Universität Erlangen-Nürnberg 9. Mai 2012 Inhalt Überblick über
Kingston Technology WHD. November 30, 2012. Andreas Scholz, BDM Integration und Server D-A
Kingston Technology WHD Andreas Scholz, BDM Integration und Server D-A November 30, 2012 Agenda Trends Speicher Konfigurationen Warum KingstonConsult? KingstonConsult Speicher Bandbreite: balanced vs.
Convey, Hybrid-Core Computing
Convey, Hybrid-Core Computing Vortrag im Rahmen des Seminars Ausgewählte Themen in Hardwareentwurf und Optik HWS 09 Universität Mannheim Markus Müller 1 Inhalt Hybrid-Core Computing? Convey HC-1 Überblick
RST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck
RST-Labor WS06/07 GPGPU General Purpose Computation On Graphics Processing Units (Grafikkarten-Programmierung) Von: Marc Blunck Ablauf Einführung GPGPU Die GPU GPU Architektur Die Programmierung Programme
Parallelrechner: Klassifikation. Parallelrechner: Motivation. Parallelrechner: Literatur. Parallelrechner: PC-Technologie SMP-Multiprozessorsysteme 69
Parallelrechner: Motivation immer höhere Performance gefordert => schnellere Einzelprozessoren aber Takte oberhalb von 10 GHz unrealistisch => mehrere Prozessoren diverse Architekturkonzepte shared-memory
Symmetrischer Multiprozessor (SMP)
Symmetrischer Multiprozessor (SMP) Motivation: ein globaler Adressraum für mehrere Prozesse P i Prozesse P i haben gemeinsame Daten ( shared variables ) private Daten ( private variables ) gemeinsamen
Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1
Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer
CPU, GPU und FPGA. CPU, GPU und FPGA Maximilian Bandle, Bianca Forkel 21. November 2017
CPU, GPU und FPGA, Bianca Forkel 21. November 2017 CPU, GPU und FPGA Inhalt CPU: Central Processing Unit GPU: Graphical Processing Unit FPGA: Field Programmable Gate Array 2 CPU Central Processing Unit
Mikroprozessoren. Aufbau und Funktionsweise. Christian Richter. Ausgewählte Themen der Multimediakommunikation SS 2005
Mikroprozessoren Aufbau und Funktionsweise Christian Richter Ausgewählte Themen der Multimediakommunikation SS 2005 Christian Richter (TU-Berlin) Mikroprozessoren AT MMK 2005 1 / 22 Gliederung Was ist
Teil VIII Von Neumann Rechner 1
Teil VIII Von Neumann Rechner 1 Grundlegende Architektur Zentraleinheit: Central Processing Unit (CPU) Ausführen von Befehlen und Ablaufsteuerung Speicher: Memory Ablage von Daten und Programmen Read Only
CUDA. Jürgen Pröll. Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg Jürgen Pröll 1
CUDA Jürgen Pröll Multi-Core Architectures and Programming Jürgen Pröll 1 Image-Resize: sequentiell resize() mit bilinearer Interpolation leicht zu parallelisieren, da einzelne Punkte voneinander unabhängig
Grundlagen der Rechnerarchitektur
Grundlagen der Rechnerarchitektur Einführung Unsere erste Amtshandlung: Wir schrauben einen Rechner auf Grundlagen der Rechnerarchitektur Einführung 2 Vorlesungsinhalte Binäre Arithmetik MIPS Assembler
Teil 1: Prozessorstrukturen
Teil 1: Prozessorstrukturen Inhalt: Mikroprogrammierung Assemblerprogrammierung Motorola 6809: ein einfacher 8-Bit Mikroprozessor Mikrocontroller Koprozessoren CISC- und RISC-Prozessoren Intel Pentium
Rechnernetze und Organisation
RISC 1 Übersicht Motivation RISC-Merkmale RISC-Instruktionsformat Pipelining Sparc, MIPS, Arm, PowerPC 2 Motivation Warum RISC Compiler nutzen komplexe CISC-Instruktionen kaum Nur 80% der Instruktionen
Grundlagen der Parallelisierung
Grundlagen der Parallelisierung Philipp Kegel, Sergei Gorlatch AG Parallele und Verteilte Systeme Institut für Informatik Westfälische Wilhelms-Universität Münster 3. Juli 2009 Inhaltsverzeichnis 1 Einführung
TECHNISCHE HOCHSCHULE NÜRNBERG GEORG SIMON OHM Die Mikroprogrammebene eines Rechners Das Abarbeiten eines Arbeitszyklus eines einzelnen Befehls besteht selbst wieder aus verschiedenen Schritten, z.b. Befehl
Cache Blöcke und Offsets
Cache Blöcke und Offsets Ein Cache Eintrag speichert in der Regel gleich mehrere im Speicher aufeinander folgende Bytes. Grund: räumliche Lokalität wird wie folgt besser ausgenutzt: Bei Cache Miss gleich
Grundlagen der Rechnerarchitektur. Einführung
Grundlagen der Rechnerarchitektur Einführung Unsere erste Amtshandlung: Wir schrauben einen Rechner auf Grundlagen der Rechnerarchitektur Einführung 2 Vorlesungsinhalte Binäre Arithmetik MIPS Assembler
Ein Verteiltes System ist eine Ansammlung von unabhängigen Rechnern, die für seine Benutzer wie ein einzelnes Computersystem aussieht.
Verteilte Systeme Verteilte etriebssysteme 2001-2004, F. Hauck, P. Schulthess, Vert. Sys., Univ. Ulm [2003w-VS--VS.fm, 2003-10-17 08.38] 1 1 Definition Definition nach Tanenbaum/van Steen Ein Verteiltes
Zum Aufwärmen nocheinmal grundlegende Tatsachen zum Rechnen mit reelen Zahlen auf dem Computer. Das Rechnen mit Gleitkommazahlen wird durch den IEEE
Zum Aufwärmen nocheinmal grundlegende Tatsachen zum Rechnen mit reelen Zahlen auf dem Computer. Das Rechnen mit Gleitkommazahlen wird durch den IEEE 754 Standard festgelegt. Es stehen sogenannte einfach
2 Reproduktion oder Verwendung dieser Unterlage bedarf in jedem Fall der Zustimmung des Autors.
1 Definition Definition nach Tanenbaum/van Steen Ein Verteiltes System ist eine Ansammlung von unabhängigen Rechnern, die für seine enutzer wie ein einzelnes Computersystem aussieht. Verteilte Systeme
Weitere Verbesserungen
Weitere Verbesserungen Welcher Cache liefert aktuellen Block falls mehrere Caches Block im Zustand S halten? Lösung: Einführung eines weiteren Zustands O (Owner) Zustand O besagt: Eigentümer des Blocks
Instruktionssatz-Architektur
Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2005/2006 Übersicht 1 Einleitung 2 Bestandteile der ISA 3 CISC / RISC Übersicht 1 Einleitung 2 Bestandteile
Beispiele von Branch Delay Slot Schedules
Beispiele von Branch Delay Slot Schedules Bildquelle: David A. Patterson und John L. Hennessy, Computer Organization and Design, Fourth Edition, 2012 Grundlagen der Rechnerarchitektur Prozessor 97 Weniger
Teil Rechnerarchitekturen M07. Multiprogramming und Tasking, Flynn-Klassifikation, Parallelismus. Corinna Schmitt
Teil Rechnerarchitekturen M07 Multiprogramming und Tasking, Flynn-Klassifikation, Parallelismus Corinna Schmitt corinna.schmitt@unibas.ch Multiprogrammierung und -Tasking 2015 Corinna Schmitt Teil Rechnerarchitekturen
Routing in WSN Exercise
Routing in WSN Exercise Thomas Basmer telefon: 0335 5625 334 fax: 0335 5625 671 e-mail: basmer [ at ] ihp-microelectronics.com web: Outline Routing in general Distance Vector Routing Link State Routing
Rechnerarchitektur SS 2012
Rechnerarchitektur SS 2012 Parallele Rechnersysteme TU Dortmund, Fakultät für Informatik XII Literatur: Hennessy/Patterson: Computer Architecture, 3. Auflage, 2003, Kapitel 6, S. 527ff. Huang: Advanced
Technische Informatik - Eine Einführung
Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Rechnerarchitektur Aufgabe
auf differentiellen Leitungen
Eingebettete Taktübertragung auf differentiellen Leitungen Johannes Reichart Kleinheubacher Tagung Miltenberg, 28.09.2009 Institut für Prof. Elektrische Dr.-Ing. und Optische Manfred Nachrichtentechnik
Rechneraufbau und Rechnerstrukturen
Rechneraufbau und Rechnerstrukturen von Walter Oberschelp RWTH Aachen und Gottfried Vossen Universität Münster 10. Auflage c 2006 R. Oldenbourg Verlag GmbH, München Inhaltsverzeichnis Auszug... x... aus
Eingebettete Taktübertragung auf Speicherbussen
Eingebettete Taktübertragung auf Speicherbussen Johannes Reichart Workshop Hochgeschwindigkeitsschnittstellen Stuttgart, 07.11.2008 Unterstützt durch: Qimonda AG, München Institut für Prof. Elektrische
Was ist Rechnerleistung
Was ist Rechnerleistung Leistung im engeren Sinne: Leistung gemessen in seltsamen Einheiten, bestimmt vorwiegend von der Zentraleinheit: MIPS (Millionen Instruktionen pro Sekunde) FLOPS (Floating Point
Mikroprozessortechnik Grundlagen 1
Grundlagen - Grundbegriffe, Aufbau, Rechnerarchitekturen, Bus, Speicher - Maschinencode, Zahlendarstellung, Datentypen - ATMELmega28 Progammierung in C - Vergleich C und C++ - Anatomie eines µc-programmes
Kapitel 4 Grundlagen zur Parallelverarbeitung
Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Kapitel 4 Grundlagen zur Parallelverarbeitung SWT I Sommersemester 2009 Prof. Dr. Walter F. Tichy Dipl.-Inform. David J. Meder Warum Parallelverarbeitung?
Multiprozessor System on Chip
Multiprozessor System on Chip INF-M1 AW1-Vortrag 25. November 2009 Übersicht 1. Einleitung und Motivation 2. Multiprozessor System on Chip (MPSoC) 3. Multiprozessoren mit Xilinx EDK 4. FAUST SoC Fahrzeug
Paralleles Rechnen. (Architektur verteilter Systeme) von Thomas Offermann Philipp Tommek Dominik Pich
Paralleles Rechnen (Architektur verteilter Systeme) von Thomas Offermann Philipp Tommek Dominik Pich Gliederung Motivation Anwendungsgebiete Warum paralleles Rechnen Flynn's Klassifikation Theorie: Parallel
Geschichte der Netze und verteilten Systeme. Gründe für die Nutzung verteilter Systeme. Wünschenswerte Eigenschaften verteilter Systeme
Überblick Geschichte der Netze und verteilten Systeme Was ist ein Verteiltes System? Beispiele für verteilte Systeme Gründe für die Nutzung verteilter Systeme Wünschenswerte Eigenschaften verteilter Systeme
Rechneraufbau und Rechnerstrukturen
Rechneraufbau und Rechnerstrukturen von Prof. Dr. Walter Oberschelp, RWTH Aachen und Prof. Dr. Gottfried Vossen, Universität Münster 7, vollständig überarbeitete und aktualisierte Auflage R.Oldenbourg
DOAG Konferenz 2007 in Nürnberg
DOAG Konferenz 2007 in Nürnberg Auswahl und Sizing: Die richtige Hardware (+Software) für Oracle Björn Bröhl Projektmanager Handlungsbevollmächtigter Seite 1 Inhalt Die Zielsetzung Vorgehensweise Auswahl
Klausuraufgaben: Hardware (1.) Notieren Sie die Namen der Schnittstellen!
Klausuraufgaben: Hardware - Seite 1 Klausuraufgaben: Hardware (1.) Notieren Sie die Namen der Schnittstellen! (2.) Beschriften Sie die Namen der Komponenten im PC! 9 Klausuraufgaben: Hardware - Seite 2