Parallele Rechnerarchitektur I
|
|
- Simon Marcus Arnold
- vor 2 Jahren
- Abrufe
Transkript
1 Parallele Rechnerarchitektur I Stefan Lang Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Universität Heidelberg INF 368, Raum 532 D Heidelberg phone: 06221/ WS 11/12 Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 1 / 40
2 Parallele Rechnerarchitektur I Warum Parallelrechnen? Von-Neumann Rechner Pipelining Cache RISC und CISC Skalierbare Rechnerarchitekturen UMA, NUMA Protokolle für Cache Kohärenz Beispiele Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 2 / 40
3 Definition eines Parallelrechners Was ist ein Parallelrechner? A collection of processing elements that communicate and cooperate to solve large problems fast (Almasi und Gottlieb 1989) Was ist eine parallele Architektur? It extends the usual concepts of a computer architecture with a communication architecture Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 3 / 40
4 Warum Parallelrechnen? 3 Arten des Parallelrechnens Löse ein Problem fester Größe schnell Ziel: Minimiere die Lösungszeit (time-to-solution), speedup r&d cycle Berechne sehr große Probleme Ziel: genaues Ergebnis, komplexe Systeme Simuliere sehr große Probleme schnell (bzw. in angemessener Zeit) Ziel: Grand Challenges Einzelprozessorleistung reicht nicht aus Parallele Architekturen Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 4 / 40
5 Was sind Probleme? from Culler, Singh, Gupta: Parallel Computer Architecture Einordnung der Probleme nach Speicher- und Rechenanforderungen Kategorisierung in 3 Typen: speicherlimitierte, rechenzeitlimitierte und ausgewogene Probleme Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 5 / 40
6 Von Neumann Rechner Schematischer Aufbau aus Instruktionseinheit, Rechenwerk und Speicher Register Rechenwerk ALU steuert Prozessor (CPU) Instruktions einheit IU Befehlsz"ahler Daten Befehle Speicher M Befehlszyklus: Instruktion holen Instruktion dekodieren Instruktion ausführen Ergebnisse speichern Speicher enthält Programm und Daten Datentransfer zwischen Prozessor und Speicher geht über Bus. Mehrere Geräte (Prozessoren, E/A-Einheiten, Speicher) am Bus Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 6 / 40
7 Generationen elektronischer Computer Einteilung in Computergenerationen Generation Technology and Software and Representative Architecture Applications Systems First Vacuum tubes and relay Machine/assembly languages, ENIAC, ( ) memories, CPU driven by single user, no subroutinge Princeton IAS, PC and accumulator programmed I/O using CPU IBM 701 Second Discrete transistors and HLL used with compilers, IBM 7090, ( ) core memories, subroutine libraries, batch CDC 1604, floating-point arithmetic processing monitor Univac LARC Third Integrated circuits, micro- Multiprogramming and time- IBM 360/370, ( ) programming, pipelining sharing OS, multiuser CDC 6600, cache, lookahead processors applications TI-ASC, PDP-8 Fourth LSI/VLSI, semiconductor Multiprocessor OS, languages, VAX 9000, ( ) memory, multiprocessors, compilers, enviroments for Cray X-MP, vector- and multicomputers parallel processing IBM 3090 Fifth ULSI/VHSIC processors, mems Massively parallel processing Fujitsu VPP-500, ( ) and switches, high-density grand challenge applications Cray/MPP, packaging, scalable archs heterogeneous processing Intel Paragon Sixth commodity-component cluster Standardized Parallel Environ- Intel ASCI-Red, ( ) high speed interconnects ments and Tools, Metacomputing IBM SP2, SGI Origin Seventh Multicore, Powersaving Software for Failure Tolerance, IBM Blue Gene, (2004-present) Extending memory hierarchy Scalable I/O, Grid Computing, Cray XT3 nach Hwang (mit Ergänzungen) Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 7 / 40
8 Einzelprozessor Performanz Culler, Singh, Gupta: Parallel Computer Architecture Leistungsentwicklung von Vektor- und Superscalar Prozessoren früher: viele Hersteller, jetzt: einige Marktführer Geschwindigkeitsvorteil des Vektorprozessors schrumpft Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 8 / 40
9 Einzelprozessor: zwei Beispiele 1971: Intel 4004, 2700 Trans., 4 bit, 100 KHz 2007: AMD Quadcore, 465 Mill. Trans., 64 bit, 2 GHz Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 9 / 40
10 Intel Gründer Andy Grove, Robert Noyce, Gordon Moore in 1978 Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 10 / 40
11 Integrationsdichte und Taktfrequenz Culler, Singh, Gupta: Parallel Computer Architecture Anstieg gemäß Moore s Gesetz: Verdopplung innerhalb von 18 Monaten Moore s Gesetz bezieht sich NICHT auf Leistung sondern Integrationsdichte Divergenz von Geschwindigkeit und Kapazität in Speichertechnologien Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 11 / 40
12 Architektur von Einzelprozessoren Techniken zur Steigerung der Einzelprozessorleistung deep pipelining speculative branch prediction out-of-order execution clock frequency scaling superscalar design (instruction level parallelism ILP) speculative execution thread-level parallelism multi-core design Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 12 / 40
13 Pipelining I: Prinzip Gleichzeitige, überlappende Abarbeitung von Operationen Pipeline mit 4 Stufen: Takt 1 Takt 2 Takt 3 Takt TOP 1 x_1 x_2 x_3 x_ TOP 2 x_1 x_2 x_3 x_4... TOP 3 TOP 4 Pipeline auffuellen x_1 x_2 x_1 x_3 x_2 x_4 x_3 Zeit Voraussetzungen: Eine Operation OP(x) muss auf viele Operanden x 1, x 2,... in Folge angewandt werden. Die Operation kann in m > 1 Teiloperationen (oder auch Stufen) zerlegt werden, die in (möglichst) gleicher Zeit bearbeitet werden können. Ein Operand x i darf nur mit Einschränkungen das Ergebnis einer früheren Operation sein. Gewinn durch Pipelining: Der Zeitbedarf für die Verarbeitung von N Operanden beträgt T P (N) = (m+n 1) T OP m Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 13 / 40
14 Pipelining II: Beschleunigung Die Beschleunigung beträgt somit S(N) = T S(N) T P (N) = N T OP (m+n 1) T OP m Für N geht die Beschleunigung gegen m. N = m m+n 1 Anwendungen im Prozessor: Instruktionspipelining: fetch, decode, exectue, write back Arithmetisches Pipelining: Exponenten angleichen, Mantisse addieren, Mantisse normieren Weitere Anwendungen: Verschränkter Speicher (memory interleaving) Cut-through Routing Wavefront Algorithmen: LU-Zerlegung, Gauß Seidel... Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 14 / 40
15 Cache I: Speicherhierarchie Speed gap: Prozessoren sind schnell: 2-3 GHz Takt, 1 Befehl/Takt durch Pipelining Speicher sind langsam: MHz Takt, 7 Takte um 4 Worte zu lesen Ausweg: Hierarchie von immer langsameren aber größeren Speicher Prozessor Register Level 1 Cache Level 2 Cache gr"o"ser langsamer Hauptspeicher Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 15 / 40
16 Cache II: Cache Organisation Speicher enthält jeweils zuletzt benutzte Daten der nächsten Hierarchieebene Transfer erfolgt in Blöcken (Cache Lines), typische Größe: Bytes Cache Organisation: direkte Zuordnung: Hauptspeicherblock i kann nur in Platz j = i im Cache geladen werden (M: Größe des Cache). Vorteil: einfache Identifikation, Nachteil: Aliasing. mod M Assoziativ Cache: Hauptspeicherblock i kann an jede Stelle im Cache geladen werden. Vorteil: kein aliasing, Nachteil: aufwendige Identifizierung (M Vergleiche). Kombination: k-wege Assoziativcache. Ersetzen: LRU (least recently used), random Zurückschreiben: write through, write back Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 16 / 40
17 Cache III: Lokalitätsprinzip Bisher gingen wir davon aus, dass auf alle Speicherworte gleichschnell zugegriffen werden kann. Mit Cache kann aber auf die zuletzt geholten Daten schneller zugegriffen werden. Dies hat Auswirkungen auf die Implementierung von Algorithmen. Beispiel: Multiplikation zweier n n-matrizen C = AB for (i = 0; i < n; i++) for (j = 0; j < n; j++) for (k = 0; k < n; k++) C[i][j] += A[i][k] B[k][j]; Annahme: Cache-Line ist 32 Bytes = 4 Floating Point Zahlen. Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 17 / 40
18 Cache III: Lokalitätsprinzip Nach Berechnung von C[0][0] befinden sich im Cache: A[0][0] A[0][15] A[15][0] Matrix A Matrix B A, B, C voll im Cache: 2n 3 Rechenoperationen aber nur 3n 2 Speicherzugriffe Falls weniger als 5n Zahlen in den Cache passen: langsam Tiling: Bearbeite Matrix in m m Blöcken mit 3m 2 M for (i = 0; i < n; i+=m) for (j = 0; j < n; j+=m) for (k = 0; k < n; k+=m) for (s = 0; s < m; s++) for (t = 0; t < m; t++) for (u = 0; u < m; u++) C[i + s][j + t] += A[i + s][k + u] B[k + u][j + t]; Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 18 / 40
19 RISC und CISC RISC = reduced instruction set computer CISC= complex instruction set computer Entwicklung von Prozessoren mit immer komplizierteren Befehlssätzen (z. B. Adressierungsarten): Aufwändige Dekodierung, unterschiedlich lange Befehle Beginn der 80er Jahre: Back to the roots. Einfache Befehle, agressives Nutzen von Pipelining. Die Idee war nicht neu: Seymor Cray hat immer RISC gebaut (CDC 6600, Cray 1). Designprinzip von RISC Rechnern: Alle Befehle werden in Hardware dekodiert, keine Mikroprogrammierung. Agressive Ausnutzung von Instruktionspipelining (Parallelismus auf Instruktionsebene ILP). Möglichst ein Befehl/Takt ausführen (oder mehr bei superskalaren Maschinen). Dies erfordert einen möglichst einfachen, homogenen Befehlssatz. Speicherzugriffe nur mit speziellen Load/Store Befehlen, keine komplizierten Adressierungsarten. Viele Allzweckregister bereitstellen um Speicherzugriffe zu minimieren. Die gesparte Chipfläche im Instruktionswerk wird für Register oder Caches verwendet. Folge dem Designprinzip Mache den oft auftretenden Fall schnell. Heute vorwiegend RISC-Prozessoren. Intel Pentium ist CISC mit RISC-Kern. Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 19 / 40
20 Skalierbare Rechnerarchitekturen I Klassifikation von Parallelrechnern nach FLYNN (1972) Unterscheidung nach Datenströmen und Kontrollpfaden SISD single instruction single data: Der Von Neumann Rechner SIMD single instruction multiple data: Diese Rechner, auch Feldrechner genannt, verfügen über ein Instruktionswerk und mehrere unabhängige Rechenwerke von denen jedes mit einem eigenen Speicher verbunden ist. Die Rechenwerke werden taktsynchron vom Instruktionswerk angesteuert und führen die selbe Operation auf unterschiedlichen Daten aus. MISD multiple instruction single data: Diese Klasse ist leer. MIMD multiple instruction multiple data: Dies entspricht einer Kollektion eigenständiger Rechner, jeder mit einem Instruktions und einem Rechenwerk ausgestattet. Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 20 / 40
21 Skalierbare Rechnerarchitekturen II Speicher Speicher Speicher CPU CPU CPU CPU CPU CPU Speicher Speicher Speicher Verbindungsnetzwerk (a) verteilte Speicherorganisation, lokaler Adressraum Verbindungsnetzwerk (b) verteilte Speicherorganisation, globaleradressraum CPU CPU CPU CPU CPU CPU Verbindungsnetzwerk Verbindungsnetzwerk Speicher (c) zentrale Speicherorganisation, lokaler Adressraum Speicher (d) zentrale Speicherorganisation, globaleradressraum Unterscheidung nach Anordnung von Prozessor, Speicher und Kommunikationsnetzwerk Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 21 / 40
22 Skalierbare Rechnerarchitekturen III Klassifikation nach der Art des Datenaustausches: Gemeinsamer Speicher (Shared Memory) UMA uniform memory access. Gemeinsamer Speicher mit uniformer Zugriffszeit. NUMA nonuniform memory access. Gemeinsamer Speicher mit nicht-uniformer Zugriffszeit, mit Cache-Kohärenz spricht man auch von ccnuma. Verteilter Speicher (Distributed Memory) MP multiprozessor. Privater Speicher mit Nachrichtenaustausch. Wir werden ausschließlich MIMD Rechner betrachten. Der SIMD-Ansatz existiert nur noch im datenparallelen Programmiermodell (HPF, OpenMP). Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 22 / 40
23 Shared Memory: UMA P P P C C C Verbindungsnetzwerk VN Speicher M Globaler Adressraum: Jedes Speicherwort hat global eindeutige Nummer und kann von allen Prozessoren gelesen und geschrieben werden. Zugriff auf Speicher erfolg über dynamisches Verbindungsnetzwerk welches Prozessor und Speicher verbindet (davon später mehr). Speicherorganisation: Low-order interleaving aufeinanderfolgende Adressen sind in aufeinanderfolgenden Modulen. High-order interleaving aufeinanderfolgende Adressen sind im selben Modul. Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 23 / 40
24 Shared Memory: UMA Cache ist notwendig um Prozessor nicht zu bremsen, und Last vom Verbindungsnetzwerk zu nehmen. Cache-Kohärenzproblem: Ein Speicherblock kann in mehreren Caches sein. Was passiert, wenn ein Prozessor schreibt? Schreibzugriffe auf den selben Block in verschiedenen Caches müssen sequentialisiert werden. Lesezugriffe müssen stets aktuelle Daten liefern. UMA erlaubt den Einsatz von bis zu wenigen 10 Prozessoren. Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 24 / 40
25 Shared Memory Board: UMA Quad-prozessor Pentium Pro Motherboard Symmetric multi processing (SMP) Zugriff zu jedem Speicherwort in gleicher Zeit Unterstützung von Cache Kohärenz Protokollen (MESI) Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 25 / 40
26 Shared Memory: NUMA P C M P C M Verbindungsnetzwerk VN Jeder Baustein besteht aus Prozessor, Speicher und Cache. Globaler Adressraum: Jedes Speicherwort hat global eindeutige Nummer und kann von allen Prozessoren gelesen und geschrieben werden. Zugriff auf lokalen Speicher ist schnell, Zugriff auf andere Speicher ist (wesentlich) langsamer, aber transparent möglich. Cache-Kohärenzproblem wie bei UMA Extreme Speicherhierarchie: level-1-cache, level-2-cache, local memory, remote memory Skaliert bis etwa 1000 Prozessoren (SGI Origin) Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 26 / 40
27 Shared Memory Board: NUMA Quad-prozessor Opteron Motherboard Verbindung mit Hypertransport HTX-Technologie Nicht-uniformer Speicherzugriff (NUMA) Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 27 / 40
28 Dynamische Verbindungsnetzwerke Leitungsvermittelnd: Elektrische Verbindung von Quelle zum Ziel. P0 P1 P2 P0 C0 M C1 M1 (a) C2 M2 Bus P1 P2 M0 M1 M2 (b) (a) Bus: verbindet nur jeweils zwei Einheiten zu einer Zeit, also nicht skalierbar. Vorteile: billig, Cache-Kohärenz durch Schnüffeln. (b) Crossbar: Volle Permutation realisierbar, aber: P 2 Schaltelemente. (c) Ω-Netzwerk: (P/2) ld P Schaltelemente, keine volle Permutation möglich, jede Stufe ist perfect shuffle, einfaches Routing perfect shuffle (c) Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 28 / 40
29 Cache Kohärenz: Ein Beispiel P1 P2 P3 u=? u=? Cache 4 Cache 5 Cache u:5 u:5 u=7 3 1 u:5 2 I/O Devices Memory Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 29 / 40
30 Cache Kohärenz: Protokolltypen Snooping basierte Protokolle Verzeichnis basierte Protokolle P1 bus snoop Pn P1 P1 Cache Memory I/O Devices Cache cache-memory transaction Directory Memory Cache Comm. Assist Directory Scalable Interconnection Network Memory Cache Comm Assist Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 30 / 40
31 Cache Cohärenz: Bus Snooping, MESI Bus erlaubt einfaches, effizientes Protokoll zur Cache-Kohärenz. Beispiel MESI: Jeder Cache-Block hat einen der folgenden Zustände: Zustand Bedeutung I Eintrag ist nicht gültig E Eintrag gültig, Speicher aktuell, keine Kopien vorhanden S Eintrag gültig, Speicher aktuell, weitere Kopien vorhanden M Eintrag gültig, Speicher ungültig, keine Kopien vorhanden Erweitert write-back Protokoll um Cache-Kohärenz. Cache-Controller hört Verkehr auf Bus ab (schnüffelt) und kann folgende Zustandübergänge vornehmen (aus Sicht eines controllers): Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 31 / 40
32 Cache Cohärenz: Bus Snooping, MESI read/write hit read hit remote read miss M remote read miss (write back) write hit S write hit invalidate invalidate (write back) write miss read miss remote read miss I read miss E read hit invalidate Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 32 / 40
33 Verzeichnisbasierte Cache-Kohärenz I P C Memory Directory Data Sharers State: U, S, E VN Zustände: Cache Block Hauptspeicherblock Zust. Beschreibung Zust. Beschreibung I Block ungültig U niemand hat den Block S 1 Kopien vorhanden, Caches und Speicher sind aktuell S wie links E genau einer hat den Block geschrieben (entspricht M in MESI) E wie links Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 33 / 40
34 Verzeichnisbasierte Cache-Kohärenz III: Beispiel Situation: Drei Prozessoren P i, P j, und P k haben eine Cache Line im Zustand shared. Home Node dieses Speicherblockes ist P j Pi Cache S Cache S Aktionen: VN Pk Cache S Pj Memory Data Sharers State i, j, k S 1 Prozessor P i schreibt in die Cache-Line (write hit): Nachricht an Verzeichnis, dieses benachrichtet Caches von P j und P k, Nachfolgezustand ist E in P i 2 Prozessor P k liest von diesem Block (read miss): Verzeichnis holt Block von P i, Verzeichnis schickt Block an P k Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 34 / 40
35 Verzeichnisbasierte Cache-Kohärenz III: Problemfälle Probleme der ccnuma-architekturen: false sharing: Zwei Prozessoren lesen und schreiben verschiedene Speicherstellen, die sich zufällig im selben Block befinden (Wahrscheinlichkeit steigt mit Blockgröße, Origin: 128 Bytes) capacity miss: Datenmenge die ein Prozessor bearbeitet (working set) passt nicht in den Cache und diese Daten sind im Hauptspeicher eines anderen Prozessors Lösung für das Kapazitätsproblem: Cache Only Memory Architecture (COMA), Software Distributed Shared Memory. Seiten des Hauptspeichers (z. B KB) können automatisch migriert werden, Kombination mit virtuellem Speicher Mechanismus. Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 35 / 40
36 Examples I: Intel Xeon MP IA32 Architektur (as P4) Cache Kohärenz Protockoll MESI Hyper-Threading Technik (2 logische CPUs) Integrierte 3-schichtige Cache Architektur (-1 MB L2, -8 MB L3) Machine Check Architektur (MCA) für externe und interne Busse, Cache, Translation Look-aside Buffer und Instruction Fetch Unit Intel NetBurst Mikroarchitektur Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 36 / 40
37 Examples II: AMD Opteron Direct Connect Architektur On-Chip DDR Speicher Kontroller HyperTransport Technologie Cache Kohärenz Protokoll MOESI MESI Zustände + 5-ter Zustand direkter Datentransfer zwischen den CPU Caches via Hypertransport 64-bit Daten/Adreß Pfad, 48-bit virtueller Adreßraum ECC für L1/L2 und DRAM mit hardware scrubbing 2 zusätzliche Pipelinestufen viele IPCs (instructions per cycle) durch verbesserte Verzweigungsvorhersage (branch prediction) Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 37 / 40
38 Examples III: Server Architektur AMD vs INTEL Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 38 / 40
39 Examples III: Server Architektur AMD vs INTEL Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 39 / 40
40 Examples IV: Board Level Protokoll Hypertransport: Low latency chip-to-chip interconnect up to 8 CPUs with I/O aggregate bandwidth 8 GB/s (22.4), link width 16 bit (32), clock 1 GHz (1.4) Priority request interleaving Stefan Lang (IWR) Simulation auf Höchstleistungsrechnern WS 11/12 40 / 40
Proseminar Rechnerarchitekturen. Parallelcomputer: Multiprozessorsysteme
wwwnet-texde Proseminar Rechnerarchitekturen Parallelcomputer: Multiprozessorsysteme Stefan Schumacher, , PGP Key http://wwwnet-texde/uni Id: mps-folientex,v
Intel 80x86 symmetrische Multiprozessorsysteme. Eine Präsentation im Rahmen des Seminars Parallele Rechnerarchitekturen von Bernhard Witte
Intel 80x86 symmetrische Multiprozessorsysteme Eine Präsentation im Rahmen des Seminars Parallele Rechnerarchitekturen von Bernhard Witte Gliederung I. Parallel Computing Einführung II.SMP Grundlagen III.Speicherzugriff
Parallelrechner (1) Anwendungen: Simulation von komplexen physikalischen oder biochemischen Vorgängen Entwurfsunterstützung virtuelle Realität
Parallelrechner (1) Motivation: Bedarf für immer leistungsfähigere Rechner Leistungssteigerung eines einzelnen Rechners hat physikalische Grenzen: Geschwindigkeit von Materie Wärmeableitung Transistorgröße
Rechner Architektur. Martin Gülck
Rechner Architektur Martin Gülck Grundlage Jeder Rechner wird aus einzelnen Komponenten zusammengesetzt Sie werden auf dem Mainboard zusammengefügt (dt.: Hauptplatine) Mainboard wird auch als Motherboard
2.2 Rechnerorganisation: Aufbau und Funktionsweise
2.2 Rechnerorganisation: Aufbau und Funktionsweise é Hardware, Software und Firmware é grober Aufbau eines von-neumann-rechners é Arbeitsspeicher, Speicherzelle, Bit, Byte é Prozessor é grobe Arbeitsweise
IT für Führungskräfte. Zentraleinheiten. 11.04.2002 Gruppe 2 - CPU 1
IT für Führungskräfte Zentraleinheiten 11.04.2002 Gruppe 2 - CPU 1 CPU DAS TEAM CPU heißt Central Processing Unit! Björn Heppner (Folien 1-4, 15-20, Rollenspielpräsentation 1-4) Harald Grabner (Folien
Johann Wolfgang Goethe-Universität
Flynn sche Klassifikation SISD (single instruction, single data stream): IS IS CU PU DS MM Mono (Mikro-)prozessoren CU: Control Unit SM: Shared Memory PU: Processor Unit IS: Instruction Stream MM: Memory
Virtueller Speicher. SS 2012 Grundlagen der Rechnerarchitektur Speicher 44
Virtueller Speicher SS 2012 Grundlagen der Rechnerarchitektur Speicher 44 Die Idee Virtuelle Adressen Prozess 1 Speicherblock 0 Speicherblock 1 Speicherblock 2 Speicherblock 3 Speicherblock 4 Speicherblock
moderne Prozessoren Jan Krüger jkrueger@techfak.uni-bielefeld.de
moderne Prozessoren Jan Krüger jkrueger@techfak.uni-bielefeld.de Übersicht FachChinesisch SPARC - UltraSparc III/IV PowerPC - PowerPC 970(G5) X86 - Pentium4(Xeon), Itanium, (Pentium M) X86 - AthlonXP/MP,
Rechnerarchitektur und Betriebssysteme (CS201): Multiprogramming und -Tasking Flynn-Klassifikation, ILP, VLIW
Rechnerarchitektur und Betriebssysteme (CS201): Multiprogramming und -Tasking Flynn-Klassifikation, ILP, VLIW 26. Oktober 2012 Prof. Dr. Christian Tschudin Departement Informatik, Universität Basel Uebersicht
Die Mikroprogrammebene eines Rechners
Die Mikroprogrammebene eines Rechners Das Abarbeiten eines Arbeitszyklus eines einzelnen Befehls besteht selbst wieder aus verschiedenen Schritten, z.b. Befehl holen Befehl dekodieren Operanden holen etc.
Grundlagen der Rechnerarchitektur
Grundlagen der Rechnerarchitektur Einführung Unsere erste Amtshandlung: Wir schrauben einen Rechner auf Grundlagen der Rechnerarchitektur Einführung 2 Vorlesungsinhalte Binäre Arithmetik MIPS Assembler
IT-Infrastruktur, WS 2014/15, Hans-Georg Eßer
ITIS-D'' IT-Infrastruktur WS 2014/15 Hans-Georg Eßer Dipl.-Math., Dipl.-Inform. Foliensatz D'': Rechnerstrukturen, Teil 3 v1.0, 2014/11/27 Folie D''-1 Dieser Foliensatz Vorlesungsübersicht Seminar Wiss.
Instruktionssatz-Architektur
Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2005/2006 Übersicht 1 Einleitung 2 Bestandteile der ISA 3 CISC / RISC Übersicht 1 Einleitung 2 Bestandteile
Hardware-Architekturen
Kapitel 3 Hardware-Architekturen Hardware-Architekturen Architekturkategorien Mehrprozessorsysteme Begriffsbildungen g Verbindungsnetze Cluster, Constellation, Grid Abgrenzungen Beispiele 1 Fragestellungen
11.0 Rechnerarchitekturen
11.0 Rechnerarchitekturen Die Ziele dieses Kapitels sind: Kennen lernen der Rechnerklassifikation nach Flynn Betrachtung von Prozessorarchitekturen auf verschiedenen Abstraktionsebenen - Befehlsarchitektur
Enterprise Computing
Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth Teil 6 Partitionierung NUMA Sharing Disk Storage HP Superdome Cell Board 4 Itanium 2 CPU Chips 32 128 Gbyte I/O Bus mit Kühlern Hauptspeicher Anschlüsse
Arbeitsfolien - Teil 4 CISC und RISC
Vorlesung Informationstechnische Systeme zur Signal- und Wissensverarbeitung PD Dr.-Ing. Gerhard Staude Arbeitsfolien - Teil 4 CISC und RISC Institut für Informationstechnik Fakultät für Elektrotechnik
Architektur paralleler Plattformen
Architektur paralleler Plattformen Freie Universität Berlin Fachbereich Informatik Wintersemester 2012/2013 Proseminar Parallele Programmierung Mirco Semper, Marco Gester Datum: 31.10.12 Inhalt I. Überblick
L3. Datenmanipulation
L Datenmanipulation Aufbau eines Computers Prozessor, Arbeitsspeicher und system Maschinensprachen und Maschinenbefehle Beispiel einer vereinfachten Maschinensprache Ausführung des Programms und Befehlszyklus
Parallelverarbeitung. Parallelverarbeitung. 2. Grundlagen. 2. Grundlagen. 2.1 Parallelität
2. Grundlagen Parallelverarbeitung SS 2005 Inhalt Parallelität Ebenen der Parallelität Parallelrechnerarchitekturen Parallele Programmiermodelle 18.04.05 Roland Wismüller, Univ. Siegen roland.wismueller@uni-siegen.de
Einführung in die technische Informatik
Einführung in die technische Informatik Christopher Kruegel chris@auto.tuwien.ac.at http://www.auto.tuwien.ac.at/~chris Betriebssysteme Aufgaben Management von Ressourcen Präsentation einer einheitlichen
Technische Informatik 2 Speichersysteme, Teil 3
Technische Informatik 2 Speichersysteme, Teil 3 Prof. Dr. Miroslaw Malek Sommersemester 2004 www.informatik.hu-berlin.de/rok/ca Thema heute Virtueller Speicher (Fortsetzung) Translation Lookaside Buffer
Raytracing auf Desktop PCs Optimizing Cache Usage (Intel Corp.)
Raytracing auf Desktop PCs Optimizing Cache Usage (Intel Corp.) von Martin Stöcker Motivation Geschwindigkeit der Prozessoren verdoppelt sich alle 18 Monate (Moore s Law) Geschwindigkeit des Speichers
Protected User-Level DMA in SCI Shared Memory Umgebungen
Protected User-Level DMA in SCI Shared Memory Umgebungen Mario Trams University of Technology Chemnitz, Chair of Computer Architecture 6. Halle Chemnitz Seminar zu Parallelverarbeitung und Programmiersprachen
Aufbau und Funktionsweise eines Computers
Aufbau und Funktionsweise eines Computers Thomas Röfer Hardware und Software von Neumann Architektur Schichtenmodell der Software Zahlsysteme Repräsentation von Daten im Computer Hardware Prozessor (CPU)
Teil VIII Von Neumann Rechner 1
Teil VIII Von Neumann Rechner 1 Grundlegende Architektur Zentraleinheit: Central Processing Unit (CPU) Ausführen von Befehlen und Ablaufsteuerung Speicher: Memory Ablage von Daten und Programmen Read Only
Das Prinzip an einem alltäglichen Beispiel
3.2 Pipelining Ziel: Performanzsteigerung é Prinzip der Fließbandverarbeitung é Probleme bei Fließbandverarbeitung BB TI I 3.2/1 Das Prinzip an einem alltäglichen Beispiel é Sie kommen aus dem Urlaub und
1 Einleitung zum RISC Prozessor
1 Einleitung zum RISC Prozessor Wesentliche Entwicklungsschritte der Computer-Architekturen [2, 3]: Familienkonzept von IBM mit System/360 (1964) und DEC mit PDP-8 (1965) eingeführt: Gleiche Hardware-Architekturen
Rechnerstrukturen. 6. System. Systemebene. Rechnerstrukturen Wintersemester 2002/03. (c) Peter Sturm, Universität Trier 1. Prozessor.
Rechnerstrukturen 6. System Systemebene 1 (Monoprozessor) 2-n n (Multiprozessor) s L1- in der L2- ( oder Motherboard) ggf. L3- MMU Speicher Memory Controller (Refresh etc.) E/A-Geräte (c) Peter Sturm,
Parallel Computing Platforms
Parallel Computing Platforms Hardware Modelle M. Thaler, TG208, tham@zhaw.ch www.zhaw.ch/~tham Februar 15 1 Literatur - https://computing.llnl.gov/tutorials - http://www.top500.org -[Mattson] pp. 7-12
Multicore Herausforderungen an das Software-Engineering. Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010
Multicore Herausforderungen an das Software-Engineering Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010 Inhalt _ Motivation _ Herausforderung 1: Hardware _ Herausforderung 2: Software-Partitionierung
Computational Biology: Bioelektromagnetismus und Biomechanik
Computational Biology: Bioelektromagnetismus und Biomechanik Implementierung Gliederung Wiederholung: Biomechanik III Statische Elastomechanik Finite Elemente Diskretisierung Finite Differenzen Diskretisierung
Symmetrischer Multiprozessor (SMP)
Symmetrischer Multiprozessor (SMP) Motivation: ein globaler Adressraum für mehrere Prozesse P i Prozesse P i haben gemeinsame Daten ( shared variables ) private Daten ( private variables ) gemeinsamen
Kap 4. 4 Die Mikroprogrammebene eines Rechners
4 Die Mikroprogrammebene eines Rechners Das Abarbeiten eines Arbeitszyklus eines einzelnen Befehls besteht selbst wieder aus verschiedenen Schritten (Befehl holen, Befehl dekodieren, Operanden holen etc.).
Mehrprozessorarchitekturen (SMP, Cluster, UMA/NUMA)
Proseminar KVBK Mehrprozessorarchitekturen (SMP, Cluster, UMA/NUMA) Arian Bär 12.07.2004 1. Einleitung 2. Symmetrische Multiprozessoren (SMP) 2.1. Allgemeines 2.2. Architektur 3. Speicherarchitekturen
Emulation und Rapid Prototyping. Hw-Sw-Co-Design
Emulation und Rapid Prototyping Hw-Sw-Co-Design Simulation von komplexen ICs Design level Description language Primitives Simulation time (instructions/cycle) Algorithm HLL Instruction sets 10-100 Architecture
Emulation und Rapid Prototyping
Emulation und Rapid Prototyping Hw-Sw-Co-Design Simulation von komplexen ICs Design level Description language Primitives Simulation time (instructions/cycle) Algorithm HLL Instruction sets 10-100 Architecture
Grundlagen der Rechnerarchitektur
Grundlagen der Rechnerarchitektur ARM, x86 und ISA Prinzipien Übersicht Rudimente des ARM Assemblers Rudimente des Intel Assemblers ISA Prinzipien Grundlagen der Rechnerarchitektur Assembler 2 Rudimente
Umsetzung in aktuellen Prozessoren
Kapitel 8: Umsetzung in aktuellen Prozessoren 4 Realisierung elementarer Funktionen Reihenentwicklung Konvergenzverfahren 5 Unkonventionelle Zahlensysteme redundante Zahlensysteme Restklassen-Zahlensysteme
Grundlagen der Parallelisierung
Grundlagen der Parallelisierung Philipp Kegel, Sergei Gorlatch AG Parallele und Verteilte Systeme Institut für Informatik Westfälische Wilhelms-Universität Münster 3. Juli 2009 Inhaltsverzeichnis 1 Einführung
Convey, Hybrid-Core Computing
Convey, Hybrid-Core Computing Vortrag im Rahmen des Seminars Ausgewählte Themen in Hardwareentwurf und Optik HWS 09 Universität Mannheim Markus Müller 1 Inhalt Hybrid-Core Computing? Convey HC-1 Überblick
Instruktionen pro Takt
(c) Peter Sturm, Universität Trier (u.a.) 1 Instruktionen pro Takt 500 MIPS (Dhrystone) Taktfrequenz 450 400 350 300 250 200 150 100 50 0 8086 80286 80386 80486 Pentium Pentium Pro Die-Größen: Intel Vorlesung
Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1
Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer
Brückenkurs / Computer
Brückenkurs / Computer Sebastian Stabinger IIS 23 September 2013 Sebastian Stabinger (IIS) Brückenkurs / Computer 23 September 2013 1 / 20 Content 1 Allgemeines zum Studium 2 Was ist ein Computer? 3 Geschichte
Computer-Architektur Ein Überblick
Computer-Architektur Ein Überblick Johann Blieberger Institut für Rechnergestützte Automation Computer-Architektur Ein Überblick p.1/27 Computer-Aufbau: Motherboard Computer-Architektur Ein Überblick p.2/27
Hochleistungsrechnen Hybride Parallele Programmierung. Prof. Dr. Thomas Ludwig Universität Hamburg Informatik Wissenschaftliches Rechnen
Hochleistungsrechnen Hybride Parallele Programmierung Prof. Dr. Thomas Ludwig Universität Hamburg Informatik Wissenschaftliches Rechnen Inhaltsübersicht Einleitung und Motivation Programmiermodelle für
Linux Paging, Caching und Swapping
Linux Paging, Caching und Swapping Inhalte Paging Das Virtuelle Speichermodell Die Page Table im Detail Page Allocation und Page Deallocation Memory Mapping & Demand Paging Caching Die verschiedenen Caches
HW/SW Codesign 5 - Performance
HW/SW Codesign 5 - Performance Martin Lechner e1026059 Computer Technology /29 Inhalt Was bedeutet Performance? Methoden zur Steigerung der Performance Einfluss der Kommunikation Hardware vs. Software
Mikroprozessor bzw. CPU (Central Processing. - Steuerwerk (Control Unit) - Rechenwerk bzw. ALU (Arithmetic Logic Unit)
Der Demo-Computer besitzt einen 4Bit-Mikroprozessor. Er kann entsprechend Wörter mit einer Breite von 4 Bits in einem Schritt verarbeiten. Die einzelnen Schritte der Abarbeitung werden durch Lampen visualisiert.
Grundlagen paralleler Architekturen
Vorlesung Rechnerarchitektur 2 Seite 27 Grundlagen paralleler Architekturen Unterscheidung der Parallelrechner nach dem Operationsprinzip Als grobes Unterscheidungsmerkmal kann die von Flynn [Flynn72]
Benchmarking Intel Pentium III-S vs. Intel Pentium 4
Benchmarking Intel Pentium III-S vs. Intel Pentium 4 André Ceselski Raphael Rosendahl 30.01.2007 Gliederung Motivation Vorstellung der Architekturen Intel P6 Architektur Intel NetBurst TM Architektur Architektur-Unterschiede
IT-Symposium 2008 04.06.2008. 1C01 - Virtualisieren mit dem Windows Server 2008
1C01 - Virtualisieren mit dem Windows Server 2008 Michael Korp Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/mkorp/ Themen Virtualisierung und der Windows Server Was ist anders,
1. Übung - Einführung/Rechnerarchitektur
1. Übung - Einführung/Rechnerarchitektur Informatik I für Verkehrsingenieure Aufgaben inkl. Beispiellösungen 1. Aufgabe: Was ist Hard- bzw. Software? a Computermaus b Betriebssystem c Drucker d Internetbrowser
Mikroprozessor als universeller digitaler Baustein
2. Mikroprozessor 2.1 Allgemeines Mikroprozessor als universeller digitaler Baustein Die zunehmende Integrationsdichte von elektronischen Schaltkreisen führt zwangsläufige zur Entwicklung eines universellen
183.579, WS2012 Übungsgruppen: Mo., 07.01. Do., 10.01.2013
VU Technische Grundlagen der Informatik Übung 7: Speicher, Peripherie 183.579, WS2012 Übungsgruppen: Mo., 07.01. Do., 10.01.2013 Aufgabe 1: Ihre Kreativität ist gefragt! Um die Qualität der Lehrveranstaltung
Grundlagen der Rechnerarchitektur
Grundlagen der Rechnerarchitektur Ein und Ausgabe Übersicht Grundbegriffe Hard Disks und Flash RAM Zugriff auf IO Geräte RAID Systeme SS 2012 Grundlagen der Rechnerarchitektur Ein und Ausgabe 2 Grundbegriffe
Technische Informatik I. Übung 3 Speicherhierarchie. v t d 0 d 1 d 2 d 3 0 1 2 3. Technische Informatik I Übung 3. Technische Informatik I Übung 3
Institut für Kommunikationsnetze und Rechnersysteme Technische Informatik I Paul J. Kühn, Matthias Meyer Übung 3 Speicherhierarchie Inhaltsübersicht Aufgabe 3.1 Daten-Cache Aufgabe 3.2 Virtueller Speicher
Memory Management Units in High-Performance Processors
Memory Management Units in High-Performance Processors Ausgewählte Themen in Hardwareentwurf und Optik Seminar Universität Mannheim LS Rechnerarchitektur - Prof. Dr. U. Brüning WS 2003/2004 Frank Lemke
Theorie und Einsatz von Verbindungseinrichtungen in parallelen Rechnersystemen
Center for Information Services and High Performance Computing (ZIH) Theorie und Einsatz von Verbindungseinrichtungen in parallelen Rechnersystemen Hochgeschwindigkeitskommunikationen 13. Juli 2012 Andy
Xeon, Opteron, UltraSPARC höher, schneller, weiter?
Xeon, Opteron, UltraSPARC höher, schneller, weiter? best OpenSystems Day Spring 2006 Trends im CPU- und Systemdesign Unterföhring Wolfgang Stief stief@best.de Senior Systemingenieur best Systeme GmbH GUUG
Angewandte Informatik
Angewandte Informatik Teil 2.1 Was ist Hardware? Die Zentraleinheit! 1 von 24 Inhaltsverzeichnis 3... Was ist Hardware? 4... Teile des Computers 5... Zentraleinheit 6... Die Zentraleinheit 7... Netzteil
UltraSPARC T1 (Niagara)
UltraSPARC T1 (Niagara) Vortrag im Rahmen des Seminars Ausgewählte Themen in Hardwareentwurf und Optik HWS 06 Universität Mannheim Jochen Kinzel 1 Inhalt Überblick Core Crossbar Level 2-Cache DRAM-Controller
Thema 4. Prozessoren
Thema 4 Prozessoren Wo sind wir? Rechenwerk Steuerwerk CPU Speicherwerk Ein- und Ausgabekanal Befehle Daten Adressen Datenbus Adressbus Steuerbus }Sammelleitungen Abgrenzung Mikroprozessor Im wesentlichen
Vorlesung "Struktur von Mikrorechnern" (CBS)
5 Entwicklung der Prozessorarchitekturen 5.1 Intel Prozessorenreihe i86 5.1.1 8088 und 8086 Prozessoren 5.1.3 80386 Prozessoren 5.1.5 Pentium Prozessoren 5.2 Vergleich von Prozessorarchitekturen unterschiedlicher
Rechnergrundlagen SS 2007. 11. Vorlesung
Rechnergrundlagen SS 2007 11. Vorlesung Inhalt Evaluation der Lehre (Auswertung) Synchroner/asynchroner Systembus Kontrollfluss/Datenfluss RISC vs. CISC Speicherhierarchie Cache Lesen Schreiben Überschreiben
One of the few resources increasing faster than the speed of computer hardware is the amount of data to be processed. Bin Hu
Bin Hu Algorithmen und Datenstrukturen 2 Arbeitsbereich fr Algorithmen und Datenstrukturen Institut fr Computergraphik und Algorithmen Technische Universität Wien One of the few resources increasing faster
Digital Design Entwicklung der DRAMs. Richard Roth / FB Informatik und Mathematik Speicher 1
Entwicklung der DRAMs Richard Roth / FB Informatik und Mathematik Speicher 1 Entwicklung der DRAMs in Zukunft Richard Roth / FB Informatik und Mathematik Speicher 2 DRAM Speicherzelle (Trench Technology)
Technische Informatik
Technische Informatik Eine einführende Darstellung von Prof. Dr. Bernd Becker Prof. Dr. Paul Molitor Oldenbourg Verlag München Wien Inhaltsverzeichnis 1 Einleitung 1 1.1 Was ist überhaupt ein Rechner?
Einführung in die Systemprogrammierung
Einführung in die Systemprogrammierung Speedup: Grundlagen der Performanz Prof. Dr. Christoph Reichenbach Fachbereich 12 / Institut für Informatik 30. April 2015 Eine Aufgabe aus der Praxis Gegeben ein
CPU-Update. Wie Äpfel zu Melonen werden. best OpenSystems Day April 2010. Unterföhring
CPU-Update Wie Äpfel zu Melonen werden best OpenSystems Day April 2010 Unterföhring Wolfgang Stief wolfgang.stief@best.de Senior Systemingenieur best Systeme GmbH GUUG Board Member Motivation Alles wird
Kurz: Stimme meinen Vorrednern zu: Angenehme Atmosphäre. Eher ein Fachgespräch als eine Prüfung. Eindeutig zu empfehlen
Kursversion WS: 10/11 02.2012 Kurs 1727 Kurz: Stimme meinen Vorrednern zu: Angenehme Atmosphäre. Eher ein Fachgespräch als eine Prüfung. Eindeutig zu empfehlen Grundlagen Parallele Programmierung? Was
Prüfung VO Betriebssysteme SS2008 / 7. Juli 2008
Name: Matrikel-Nr: Prüfung VO Betriebssysteme SS2008 / 7. Juli 2008 Bitte schreiben Sie leserlich und antworten Sie kurz und präzise. 1. Zeichnen Sie das Schichten-Modell eines Computersystems und markieren
Die Architektur des Sun UltraSPARC T2 Prozessors, Anwendungsszenarien
Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur, Prof. Spallek Die Architektur des Sun UltraSPARC T2 Prozessors, Anwendungsszenarien Tobias Berndt, to.berndt@t-online.de
Current and Emerging Architectures Multi-core Architectures and Programming
Current and Emerging Architectures Multi-core Architectures and Programming Adel El-Rayyes Hardware-Software-Co-Design, Friedrich-Alexander-Universität Erlangen-Nürnberg 9. Mai 2012 Inhalt Überblick über
Computerarchitektur. Andrew S.Tanenbaum James Goodman BIBLIOTHEK. Strukturen Konzepte Grundlagen. Pearson Studium
Andrew S.Tanenbaum James Goodman Technische Universität Darmatadt FACHBEREICH INFORMATIK BIBLIOTHEK Inventar-Nr.: Sachgebiete:. Standort: Computerarchitektur Strukturen Konzepte Grundlagen Pearson Studium
Computer-Generationen
(K.Zuses Z3, 1941) (Vorschlag) Generation Beispiel Technologie Geschw./Speich. Software Vorgeneration Z3 Elektro- 0,0002 MIPS Verdrahtet 1941-1944 Mark1 mechanik 1.Generation ENIAC, Z22 Elektronen- 0,02
Technische Informatik 1
Technische Informatik 1 1 Einleitung Lothar Thiele Computer Engineering and Networks Laboratory Technische Informatik 1 2 Was ist Technische Informatik? A. Ralston, E.D. Reilly: Encyclopedia of Computer
Excel beschleunigen mit dem mit Windows HPC Server 2008 R2
Excel beschleunigen mit dem mit Windows HPC Server 2008 R2 Steffen Krause Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/steffenk Haftungsausschluss Microsoft kann für die Richtigkeit
Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien
Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Scientific Computing 07. Oktober 2009 Siegfried Benkner Wilfried Gansterer Fakultät für Informatik Universität Wien www.cs.univie.ac.at
Grundlagen der Programmierung 2. Parallele Verarbeitung
Grundlagen der Programmierung 2 Parallele Verarbeitung Prof. Dr. Manfred Schmidt-Schauÿ Künstliche Intelligenz und Softwaretechnologie 27. Mai 2009 Parallele Algorithmen und Ressourcenbedarf Themen: Nebenläufigkeit,
Parallelisierung auf MPSoC-Plattformen
Anwendungen 1 Parallelisierung auf MPSoC-Plattformen MINF 1, WiSe2011 Anwendungen 1 17.11.2011 Betreuer: Prof. Dr. Schwarz Übersicht 1. 2. 3. 4. 5. Einleitung Multiprozessor- Architekturen SMP im Linux
Virtualisierung: Neues aus 2010 und Trends 2011
Virtualisierung: Neues aus 2010 und Trends 2011 Werner Fischer, Technology Specialist Thomas-Krenn.AG Thomas Krenn Herbstworkshop 2010 Freyung, 24. September 2010 Agenda 1) Virtualisierungs-Software VMware
Codesigned Virtual Machines
Codesigned Virtual Machines Seminar Virtualisierung Philipp Kirchhofer philipp.kirchhofer@student.kit.edu Institut für Technische Informatik Lehrstuhl für Rechnerarchitektur Universität Karlsruhe (TH)
Rechnerarchitektur SS 2014
Rechnerarchitektur SS 2014 Parallele Rechnersysteme Michael Engel TU Dortmund, Fakultät für Informatik Teilweise basierend auf Material von Gernot A. Fink und R. Yahyapour 3. Juni 2014 1/30 Mehrprozessorsysteme
Programmierung Paralleler Prozesse
Vorlesung Programmierung Paralleler Prozesse Prof. Dr. Klaus Hering Sommersemester 2007 HTWK Leipzig, FB IMN Sortierproblem Gegeben: Menge M mit einer Ordnungsrelation (etwa Menge der reellen Zahlen) Folge
2008 Jiri Spale, Programmierung in eingebetteten Systemen 1
2008 Jiri Spale, Programmierung in eingebetteten Systemen 1 NetX - Einführung 2008 Jiri Spale, Programmierung in eingebetteten Systemen 2 NetX is... a highly integrated network controller with a new system
Der Cell Prozessor. Seminarvortrag von Viacheslav Mlotok. SS2005 Universität Mannheim, Lehrstuhl für Rechnerarchitektur
Der Cell Prozessor Seminarvortrag von Viacheslav Mlotok SS2005 Universität Mannheim, Lehrstuhl für Rechnerarchitektur 1 Inhalt Entwicklungsziele Cell Architektur Power Processor Element Synergistic Processor
Java. Thread Skalierung. Glossar
FHZ FACHHOCHSCHULE ZENTRALSCHWEIZ HTA HOCHSCHULE FÜR TECHNIK+ARCHITEKTUR LUZERN Abteilung Informatik Java Thread Skalierung Glossar Begriffserklärungen HTA Horw HTA LUZERN T: 041-349-33-11 Technikumstrasse
Zyklus: FETCH, DECODE, FETCH OPERANDS, UPDATE INSTRUCTION POINTER, EXECUTE
1. Von Neumann Architektur Aufbau: CPU Rechenwerk ALU (arithmetische und logische Operationen) Steuerwerk (Steuerung der Verarbeitung über Operationscodes) Hauptspeicher Daten und Befehle Adressierung
Hyperthreads in Itanium - Prozessoren
Hyperthreads in Itanium - Prozessoren und wie OpenVMS damit umgeht Thilo Lauer Technical Consultant Account Support Center 2006 Hewlett-Packard Development Company, L.P. The information contained herein
Neues in Hyper-V Version 2
Michael Korp Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/mkorp Neues in Hyper-V Version 2 - Virtualisieren auf die moderne Art - Windows Server 2008 R2 Hyper-V Robust Basis:
Synthese Eingebetteter Systeme. 14 Abbildung von Anwendungen auf Multicore-Systeme
12 Synthese Eingebetteter Systeme Wintersemester 2012/13 14 Abbildung von Anwendungen auf Multicore-Systeme Michael Engel Informatik 12 TU Dortmund 2012/12/19 Abbildung von Anwendungen auf Multicores Multicore-Architekturen
Chip Level Multithreading
Chip Level Multithreading AG Neurobiologie Universität Bielefeld 10. Januar 2006 Moores Gesetz The complexity for minimum component costs has increased at a rate of roughly a factor of two per year...
wichtigstes Betriebsmittel - neben dem Prozessor: Speicher
Speicherverwaltung Aufgaben der Speicherverwaltung wichtigstes Betriebsmittel - neben dem Prozessor: Speicher Sowohl die ausführbaren Programme selbst als auch deren Daten werden in verschiedenen Speicherbereichen
Projekt für Systemprogrammierung WS 06/07
Dienstag 30.01.2007 Projekt für Systemprogrammierung WS 06/07 Von: Hassan Bellamin E-Mail: h_bellamin@web.de Gliederung: 1. Geschichte und Definition 2. Was ist Virtualisierung? 3. Welche Virtualisierungssoftware
Implementierungsansätze für ein FPGA basiertes Multiprozessor. Marco Kirschke INF-M1 Anwendung 1 - Wintersemester 2009/2010 25.
Implementierungsansätze für ein FPGA basiertes Multiprozessor System INF-M1 Anwendung 1 - Wintersemester 2009/2010 25. November 2009 Inhalt Motivation FPGA-based Embedded Systems Entwurfsübersicht zu MPSoC
1 Proseminar: Konzepte von Betriebssystem-Komponenten. Thema: Server OS AS/400 Referend: Sand Rainer. Server OS - AS/400
1 Proseminar: Konzepte von Betriebssystem-Komponenten Server OS - AS/400 Gliederung Was ist eine AS/400? Wie ist OS/400 aufgebaut? Was kann eine AS/400? Bsp.: Logische Partitionierung 2 Proseminar: Konzepte
Kapitel 4 Grundlagen zur Parallelverarbeitung
Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Kapitel 4 Grundlagen zur Parallelverarbeitung SWT I Sommersemester 2009 Prof. Dr. Walter F. Tichy Dipl.-Inform. David J. Meder Warum Parallelverarbeitung?
Im Original veränderbare Word-Dateien
Das Von-Neumann-Prinzip Prinzipien der Datenverarbeitung Fast alle modernen Computer funktionieren nach dem Von- Neumann-Prinzip. Der Erfinder dieses Konzeptes John von Neumann (1903-1957) war ein in den