Proseminar Rechnerarchitekturen. Parallelcomputer: Multiprozessorsysteme

Größe: px
Ab Seite anzeigen:

Download "Proseminar Rechnerarchitekturen. Parallelcomputer: Multiprozessorsysteme"

Transkript

1 wwwnet-texde Proseminar Rechnerarchitekturen Parallelcomputer: Multiprozessorsysteme Stefan Schumacher, PGP Key <0xB3FBAE33> Id: mps-folientex,v /11/14 21:14:34 stefan stable

2 Gliederung Gliederung Motivation Taxonomie Vektorrechner Feldrechner / systolisches Array Busbasierte Multiprozessorsysteme Schalterbasierte Multiprozessorsysteme Speicherarchitekturen & -verwaltung

3 Motivation Warum Multiprozessorsysteme? höhere Leistung bessere Skalierbarkeit besseres Preis/Leistungsverhältnis verteilte Nutzung von Daten und Ressourcen Sicherheit dank Redundanz einfachere Kommunikation

4 Motivation Nachteile Verbindungsnetzwerk ist Single Point of Failure Verbindungsnetzwerk meist Bottleneck

5 Taxonomie Hardwarekonzepte Kategorisierung nach Verbindung und Kommunikation Einteilung nach Flynn SISD : Single Input Single Data SIMD : Single Input Multiple Data MISD : Multiple Input Single Data MIMD : Multiple Input Multiple Data Stream

6 Taxonomie Flynn-Schema Parallelrechner SISD SIMD MISD MIMD von-neuman Vektorprozessor Arrayprozessor nicht existent Multiprozessor Multicomputer

7 Taxonomie Tanenbaum-Erweiterung erweitert Flynn-Schema bezgl verteilter Systeme eng gekoppelte Systeme lose gekoppelte Systeme weitere Unterteilung bezgl Kommunikation und Cache Busbasiert Schalterbasiert

8 Taxonomie Tanenbaum-Schema MIMD verteilte Systeme und Parallelrechner eng gekoppelt Multiprozessor lose gekoppelt Multicomputer UMA COMA NUMA Gitter Hypercube CoW CC-NUMA NC-NUMA

9 Vektorprozessoren Vektorprozessoren Parallelisierbarkeit von Vektoroperationen bestehen aus Skalareinheit und Vektoreinheit Parallelisierbarkeit tranparent in Hardware (Pipeline) Vorteil: gewohnt sequentiell programmierbar einige Compiler können parallelisieren

10 Vektorprozessoren Vektorrechner Instruktionspuffer Skalareinheit Vektoreinheit Instruktionsholer Hauptspeicher

11 Feldprozessoren Feldprozessoren einen Prozess auf verschiedene Mengen von gleichförmigen Daten anwenden einer Instruktionseinheit instruiert Befehl mehrere nebenläufige spezialisierte CPUs Abarbeitung des Befehls im Gleichtakt auf eigenes Datum

12 Feldprozessoren Feldprozessoren Programmspeicher Instruktionsholeeinheit Instruktionsausgabe Maskiereinheit Verarbeitungseinheit Verarbeitungseinheit Verarbeitungseinheit Verarbeitungseinheit Bussystem

13 Feldprozessoren Feldprozessorverarbeitungseinheit Skalarkontrolleinheit Maskiereinheit Skalarregister Skalarverarbeitungseinheit Speicher Buskontrolleinheit Instruktion Maske Datenpfad Instruktionspfad

14 Feldprozessoren systolisches Array besondere Form des Feldrechners zwei- oder dreidimensionale Verknüpfung von VE taktsynchrones Pipelineverfahren

15 Busbasierte Multiprozessorsysteme Busbasierte Multiprozessorsysteme n Prozessoren, 1 Speichermodul, verbunden über Bus Problem: Bus ist Flaschenhals, skaliert suboptimal Lösung: lokaler Cache speichert Blöcke zwischen

16 Busbasierte Multiprozessorsysteme Cache CPU 1 CPU 2 CPU 3 CPU n Cache 1 Cache 2 Cache 3 Cache n Speicher I/O

17 Busbasierte Multiprozessorsysteme Cache Problem: Cachekoheränz Datum in allen Speichern/Caches gleich Lösung 1: Write-Through-Cache Datum wird sofort in alle Speicher geschrieben Problem: Schreibperformance leidet Lösung 2: Snoopy Cache jeder Cache überwacht Bus auf Schreiboperation bei Treffer eigener gecacheter Daten wird aktualisiert

18 Busbasierte Multiprozessorsysteme Cache Lösung 3: Write-Back-Cache Datum wird nicht geändert, sondern als geändert gekennzeichnet Lösung 4: MESI Modified: Cache geändert,hauptspeicher ungültig Exclusive: Zeile liegt nur im Cache und ist unverändert Shared: Zeile liegt auch in anderen Caches Invalid: Zeile nicht im Cache verfügbar

19 Schalterbasierte Multiprozessorsysteme Schalterbasierte Multiprozessorsysteme Verschaltung von Speicher und CPUs, mehr als ein Bus Kreuzschienenverteiler (Crossbarswitch) Omeganetzwerk

20 Schalterbasierte Multiprozessorsysteme Kreuzschienenverteiler Kreuzschienenverteiler in 4x4 Matrix CP U : 0 CP U : 1 CP U : 2 CP U : n Speicher : 0 Speicher : 1 Speicher : 2 Speicher : n

21 Schalterbasierte Multiprozessorsysteme Omega Netzwerk Omeganetz mit 4 2x2-Schaltern CP U : n Speicher : n CP U : 2 Speicher : 2 CP U : 1 Speicher : 1 CP U : 0 Speicher : 0

22 Speicherarchitekturen und -verwaltung UMA UMA : Uniform Memory Architecture alle CPU mit Speicher verbunden siehe Einprozessorsysteme gleichförmiger Zugriff auf Speicher geringe Latenzzeit Beispiel: SMP

23 Speicherarchitekturen und -verwaltung NUMA NUMA : Non Uniform Memory Architecture nichtgleichförmiger Zugriff auf lokalen oder entfernten RAM Zugriff auf entfernten RAM möglich, aber langsam Beispiel: CM* Cluster aus CPU, MMU, I/O und RAM per Bus verbunden

24 Speicherarchitekturen und -verwaltung CM* Bus CPU RAM I/O MMU CPU RAM I/O MMU

25 Speicherarchitekturen und -verwaltung ccnuma ccnuma : cache coherent NUMA erweitern NUMA um koheränten Caches Snooping Caches, belasten Bus verzeichnisbasierte Multiprozessoren Datenbank über Cacheverteilung

26 Speicherarchitekturen und -verwaltung COMA COMA: Cache Only Memory Architecture RAM einer CPU als lokaler Cache physischer Adressraum Zeilen kann im gesamten System migrieren, benötigt spezielle Speicherverwaltung

Mehrprozessorarchitekturen

Mehrprozessorarchitekturen Mehrprozessorarchitekturen (SMP, UMA/NUMA, Cluster) Arian Bär 12.07.2004 12.07.2004 Arian Bär 1 Gliederung 1. Einleitung 2. Symmetrische Multiprozessoren (SMP) Allgemeines Architektur 3. Speicherarchitekturen

Mehr

Parallelrechner (1) Anwendungen: Simulation von komplexen physikalischen oder biochemischen Vorgängen Entwurfsunterstützung virtuelle Realität

Parallelrechner (1) Anwendungen: Simulation von komplexen physikalischen oder biochemischen Vorgängen Entwurfsunterstützung virtuelle Realität Parallelrechner (1) Motivation: Bedarf für immer leistungsfähigere Rechner Leistungssteigerung eines einzelnen Rechners hat physikalische Grenzen: Geschwindigkeit von Materie Wärmeableitung Transistorgröße

Mehr

Hardware-Architekturen

Hardware-Architekturen Kapitel 3 Hardware-Architekturen Hardware-Architekturen Architekturkategorien Mehrprozessorsysteme Begriffsbildungen g Verbindungsnetze Cluster, Constellation, Grid Abgrenzungen Beispiele 1 Fragestellungen

Mehr

2 Rechnerarchitekturen

2 Rechnerarchitekturen 2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf

Mehr

Architektur paralleler Plattformen

Architektur paralleler Plattformen Architektur paralleler Plattformen Freie Universität Berlin Fachbereich Informatik Wintersemester 2012/2013 Proseminar Parallele Programmierung Mirco Semper, Marco Gester Datum: 31.10.12 Inhalt I. Überblick

Mehr

Intel 80x86 symmetrische Multiprozessorsysteme. Eine Präsentation im Rahmen des Seminars Parallele Rechnerarchitekturen von Bernhard Witte

Intel 80x86 symmetrische Multiprozessorsysteme. Eine Präsentation im Rahmen des Seminars Parallele Rechnerarchitekturen von Bernhard Witte Intel 80x86 symmetrische Multiprozessorsysteme Eine Präsentation im Rahmen des Seminars Parallele Rechnerarchitekturen von Bernhard Witte Gliederung I. Parallel Computing Einführung II.SMP Grundlagen III.Speicherzugriff

Mehr

Johann Wolfgang Goethe-Universität

Johann Wolfgang Goethe-Universität Flynn sche Klassifikation SISD (single instruction, single data stream): IS IS CU PU DS MM Mono (Mikro-)prozessoren CU: Control Unit SM: Shared Memory PU: Processor Unit IS: Instruction Stream MM: Memory

Mehr

Verteilte Betriebssysteme

Verteilte Betriebssysteme Verteiltes System Eine Sammlung unabhängiger Rechner, die dem Benutzer den Eindruck vermitteln, es handle sich um ein einziges System. Verteiltes Betriebssystem Betriebssystem für verteilte Systeme Verwaltet

Mehr

Systeme 1: Architektur

Systeme 1: Architektur slide 1 Vorlesung Systeme 1: Architektur Prof. Dr. Ulrich Ultes-Nitsche Forschungsgruppe Departement für Informatik Universität Freiburg slide 2 Prüfung 18. Februar 2004 8h00-11h40 13h00-18h20 20 Minuten

Mehr

Mehrprozessorarchitekturen (SMP, Cluster, UMA/NUMA)

Mehrprozessorarchitekturen (SMP, Cluster, UMA/NUMA) Proseminar KVBK Mehrprozessorarchitekturen (SMP, Cluster, UMA/NUMA) Arian Bär 12.07.2004 1. Einleitung 2. Symmetrische Multiprozessoren (SMP) 2.1. Allgemeines 2.2. Architektur 3. Speicherarchitekturen

Mehr

Parallelverarbeitung. Parallelverarbeitung. 2. Grundlagen. 2. Grundlagen. 2.1 Parallelität

Parallelverarbeitung. Parallelverarbeitung. 2. Grundlagen. 2. Grundlagen. 2.1 Parallelität 2. Grundlagen Parallelverarbeitung SS 2005 Inhalt Parallelität Ebenen der Parallelität Parallelrechnerarchitekturen Parallele Programmiermodelle 18.04.05 Roland Wismüller, Univ. Siegen roland.wismueller@uni-siegen.de

Mehr

Enterprise Computing

Enterprise Computing Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth Teil 6 Partitionierung NUMA Sharing Disk Storage HP Superdome Cell Board 4 Itanium 2 CPU Chips 32 128 Gbyte I/O Bus mit Kühlern Hauptspeicher Anschlüsse

Mehr

Gliederung Seite 1. Gliederung

Gliederung Seite 1. Gliederung Gliederung Seite 1 Gliederung 1. Klassifikationen...6 1.1. Klassifikation nach der Kopplung der rechnenden Einheiten...6 1.1.1. Enge Kopplung...6 1.1.2. Lose Kopplung...6 1.2. Klassifikation nach der Art

Mehr

Grundlagen paralleler Architekturen

Grundlagen paralleler Architekturen Vorlesung Rechnerarchitektur 2 Seite 27 Grundlagen paralleler Architekturen Unterscheidung der Parallelrechner nach dem Operationsprinzip Als grobes Unterscheidungsmerkmal kann die von Flynn [Flynn72]

Mehr

Maik Zemann. Flynn s Taxonomie. Parallele Rechnerarchitekturen SS 2004 Technische Fakultät Universität Bielefeld. 3. Mai 2004 Flynn's Taxonomie 1

Maik Zemann. Flynn s Taxonomie. Parallele Rechnerarchitekturen SS 2004 Technische Fakultät Universität Bielefeld. 3. Mai 2004 Flynn's Taxonomie 1 Maik Zemann Flynn s Taxonomie Parallele Rechnerarchitekturen SS 2004 Technische Fakultät Universität Bielefeld 3. Mai 2004 Flynn's Taxonomie 1 Gliederung Einleitung Gliederung Flynn s Taxonomie Das SISD-Modell

Mehr

Rechnerarchitektur SS 2014

Rechnerarchitektur SS 2014 Rechnerarchitektur SS 2014 Parallele Rechnersysteme Michael Engel TU Dortmund, Fakultät für Informatik Teilweise basierend auf Material von Gernot A. Fink und R. Yahyapour 3. Juni 2014 1/30 Mehrprozessorsysteme

Mehr

Computational Biology: Bioelektromagnetismus und Biomechanik

Computational Biology: Bioelektromagnetismus und Biomechanik Computational Biology: Bioelektromagnetismus und Biomechanik Implementierung Gliederung Wiederholung: Biomechanik III Statische Elastomechanik Finite Elemente Diskretisierung Finite Differenzen Diskretisierung

Mehr

Rechnerarchitektur SS 2012

Rechnerarchitektur SS 2012 Rechnerarchitektur SS 2012 Cachekohärenz Michael Engel TU Dortmund, Fakultät für Informatik Teilweise basierend auf Material von Gernot A. Fink und R. Yahyapour 11. Juni 2013 Speicher in MP-Systemen Zentrales

Mehr

IT-Infrastruktur, WS 2014/15, Hans-Georg Eßer

IT-Infrastruktur, WS 2014/15, Hans-Georg Eßer ITIS-D'' IT-Infrastruktur WS 2014/15 Hans-Georg Eßer Dipl.-Math., Dipl.-Inform. Foliensatz D'': Rechnerstrukturen, Teil 3 v1.0, 2014/11/27 Folie D''-1 Dieser Foliensatz Vorlesungsübersicht Seminar Wiss.

Mehr

1 Organisationsaspekte RISC- und CISC-Prozessoren Ausnutzen von Cache-Effekten

1 Organisationsaspekte RISC- und CISC-Prozessoren Ausnutzen von Cache-Effekten McFarling [1989] konnte Cache Misses um 75% in 8KB direkt abbildenden Caches durch Softwaremaßnahmen senken. Instruktionen Umordnen im Speicher, um Conflict-Misses zu reduzieren Profiling : spezielle Konfliktvermeidungsmaßnahmen

Mehr

Bsys2 Zusammenfassung. Definition Die CPU ist das Gehirn des Computers. Sie holt Befehle aus dem Speicher und führt sie aus.

Bsys2 Zusammenfassung. Definition Die CPU ist das Gehirn des Computers. Sie holt Befehle aus dem Speicher und führt sie aus. Prozessoren Definition Die CPU ist das Gehirn des Computers. Sie holt Befehle aus dem Speicher und führt sie aus. Register Alle Prozessoren besitzen interne Register, um den Zugriff auf Daten zu beschleunigen.

Mehr

2.1 Verteilte Hardware-Architekturen 2.2 Grundbegriffe verteilter Betriebssysteme 2.3 Verteilte Betriebssystemkerne

2.1 Verteilte Hardware-Architekturen 2.2 Grundbegriffe verteilter Betriebssysteme 2.3 Verteilte Betriebssystemkerne Kap. 2: Systemarchitektur 2.1 Verteilte Hardware-Architekturen 2.2 Grundbegriffe verteilter Betriebssysteme 2.3 Verteilte Betriebssystemkerne Verteilte Systeme 2-1 2.1 Verteilte Hardware-Architekturen

Mehr

Parallele Rechnerarchitektur I

Parallele Rechnerarchitektur I Parallele Rechnerarchitektur I Stefan Lang Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Universität Heidelberg INF 368, Raum 532 D-69120 Heidelberg phone: 06221/54-8264 email: Stefan.Lang@iwr.uni-heidelberg.de

Mehr

Rechnerarchitektur SS 2012

Rechnerarchitektur SS 2012 Rechnerarchitektur SS 2012 Parallele Rechnersysteme TU Dortmund, Fakultät für Informatik XII Literatur: Hennessy/Patterson: Computer Architecture, 3. Auflage, 2003, Kapitel 6, S. 527ff. Huang: Advanced

Mehr

Vorlesung "Struktur von Mikrorechnern" (CBS)

Vorlesung Struktur von Mikrorechnern (CBS) Ziele eines Mehrrechnerkonzeptes - Aufteilung von Aufgaben auf mehrere en kostengünstige Leistungssteigerung -einzelne en können auf privaten und auf gemeinsamen zurückgreifen -en können selbständig agieren

Mehr

HORUS. Seminar "Ausgewählte Themen in Hardwareentwurf und Optik" im HWS Martin Scherer

HORUS. Seminar Ausgewählte Themen in Hardwareentwurf und Optik im HWS Martin Scherer HORUS Seminar "Ausgewählte Themen in Hardwareentwurf und Optik" im HWS 2006 Martin Scherer Horus Inhalt 1 Einführung 2 Cachekohärenz 3 ExtendiScale Architektur 4 Übertragungsbeispiele 5 Performance Erweiterungen

Mehr

COMPUTERKLASSEN MULTICOMPUTER und SPEZIALANWENDUNGSSYSTEME

COMPUTERKLASSEN MULTICOMPUTER und SPEZIALANWENDUNGSSYSTEME D - CA - XIX - CC,M&SPC - 1 HUMBOLDT-UNIVERSITÄT ZU BERLIN INSTITUT FÜR INFORMATIK Vorlesung 19 COMPUTERKLASSEN MULTICOMPUTER und SPEZIALANWENDUNGSSYSTEME Sommersemester 2003 Leitung: Prof. Dr. Miroslaw

Mehr

CPU Speicher I/O. Abbildung 11.1: Kommunikation über Busse

CPU Speicher I/O. Abbildung 11.1: Kommunikation über Busse Kapitel 11 Rechnerarchitektur 11.1 Der von-neumann-rechner Wir haben uns bisher mehr auf die logischen Bausteine konzentriert. Wir geben jetzt ein Rechnermodell an, das der physikalischen Wirklichkeit

Mehr

Beispiel Parallelisierung 2D Laplace. Lagrange Formulierung/Hyperelastisches Material. Finite Differenzen Diskretisierung

Beispiel Parallelisierung 2D Laplace. Lagrange Formulierung/Hyperelastisches Material. Finite Differenzen Diskretisierung Simulation von physikalischen Feldern im menschlichen Körper Implementierung Gliederung Gliederung Wiederholung: Biomechanik III Statische elastomechanische Probleme Finite Elemente Diskretisierung Finite

Mehr

Grundlagen der Programmierung 2. Parallele Verarbeitung

Grundlagen der Programmierung 2. Parallele Verarbeitung Grundlagen der Programmierung 2 Parallele Verarbeitung Prof. Dr. Manfred Schmidt-Schauÿ Künstliche Intelligenz und Softwaretechnologie 27. Mai 2009 Parallele Algorithmen und Ressourcenbedarf Themen: Nebenläufigkeit,

Mehr

Multiprozessor System on Chip

Multiprozessor System on Chip Multiprozessor System on Chip INF-M1 AW1-Vortrag 25. November 2009 Übersicht 1. Einleitung und Motivation 2. Multiprozessor System on Chip (MPSoC) 3. Multiprozessoren mit Xilinx EDK 4. FAUST SoC Fahrzeug

Mehr

Paralleles Rechnen. (Architektur verteilter Systeme) von Thomas Offermann Philipp Tommek Dominik Pich

Paralleles Rechnen. (Architektur verteilter Systeme) von Thomas Offermann Philipp Tommek Dominik Pich Paralleles Rechnen (Architektur verteilter Systeme) von Thomas Offermann Philipp Tommek Dominik Pich Gliederung Motivation Anwendungsgebiete Warum paralleles Rechnen Flynn's Klassifikation Theorie: Parallel

Mehr

Symmetrischer Multiprozessor (SMP)

Symmetrischer Multiprozessor (SMP) Symmetrischer Multiprozessor (SMP) Motivation: ein globaler Adressraum für mehrere Prozesse P i Prozesse P i haben gemeinsame Daten ( shared variables ) private Daten ( private variables ) gemeinsamen

Mehr

Rechnerarchitektur und Betriebssysteme (CS201): Multiprogramming und -Tasking Flynn-Klassifikation, ILP, VLIW

Rechnerarchitektur und Betriebssysteme (CS201): Multiprogramming und -Tasking Flynn-Klassifikation, ILP, VLIW Rechnerarchitektur und Betriebssysteme (CS201): Multiprogramming und -Tasking Flynn-Klassifikation, ILP, VLIW 26. Oktober 2012 Prof. Dr. Christian Tschudin Departement Informatik, Universität Basel Uebersicht

Mehr

Moderne Betriebssysteme. Kapitel 8. Kapitel 8. Folie: 1. Multiprozessorsysteme. Autor: Andrew S. Tanenbaum

Moderne Betriebssysteme. Kapitel 8. Kapitel 8. Folie: 1. Multiprozessorsysteme. Autor: Andrew S. Tanenbaum Moderne Betriebssysteme Kapitel 8 Multiprozessorsysteme Kapitel 8 Folie: 1 Multiprozessorsysteme Autor: Andrew S. Tanenbaum Pearson Studium 2009 2 3 4 5 6 7 Betriebssystemarten für Multiprozessoren Jede

Mehr

Parallelisierung auf MPSoC-Plattformen

Parallelisierung auf MPSoC-Plattformen Anwendungen 1 Parallelisierung auf MPSoC-Plattformen MINF 1, WiSe2011 Anwendungen 1 17.11.2011 Betreuer: Prof. Dr. Schwarz Übersicht 1. 2. 3. 4. 5. Einleitung Multiprozessor- Architekturen SMP im Linux

Mehr

Parallel Computing Platforms

Parallel Computing Platforms Parallel Computing Platforms Hardware Modelle M. Thaler, TG208, tham@zhaw.ch www.zhaw.ch/~tham Februar 15 1 Literatur - https://computing.llnl.gov/tutorials - http://www.top500.org -[Mattson] pp. 7-12

Mehr

Gregor Michalicek, Marcus Schüler. Multiprozessoren

Gregor Michalicek, Marcus Schüler. Multiprozessoren Gregor Michalicek, Marcus Schüler Gregor Michalicek Marcus Schüler Gregor Michalicek, Marcus Schüler Vorteile gegenüber Singleprozessoren ¾ sind zuverlässiger. Einige Multiprozessorsysteme können trotz

Mehr

Grundlagen der Parallelisierung

Grundlagen der Parallelisierung Grundlagen der Parallelisierung Philipp Kegel, Sergei Gorlatch AG Parallele und Verteilte Systeme Institut für Informatik Westfälische Wilhelms-Universität Münster 3. Juli 2009 Inhaltsverzeichnis 1 Einführung

Mehr

Betriebssysteme (BS) Inhalt. Multiprozessorsysteme. Olaf Spinczyk. olaf.spinczyk@tu-dortmund.de http://ess.cs.tu-dortmund.de/~os

Betriebssysteme (BS) Inhalt. Multiprozessorsysteme. Olaf Spinczyk. olaf.spinczyk@tu-dortmund.de http://ess.cs.tu-dortmund.de/~os Betriebssysteme (BS) Multiprozessorsysteme http://ess.cs.tu-dortmund.de/de/teaching/ss2015/bs/ Olaf Spinczyk olaf.spinczyk@tu-dortmund.de http://ess.cs.tu-dortmund.de/~os AG Eingebettete Systemsoftware

Mehr

3 Technikarchitekturen

3 Technikarchitekturen 3 Technikarchitekturen 3.1 Rechnerarchitektur Definition Taxonomien Komponenten Rechnergrößentypologie 3.2 Kommunikationssystemarchitektur ISO-Referenzmodell TCP/IP Grundlagen der Telekommunikation 3.3

Mehr

Hugepages, NUMA or nothing on Linux?

Hugepages, NUMA or nothing on Linux? Hugepages, NUMA or nothing on Linux? Daniel Hillinger Value Transformation Services S.r.l. Zweigniederlassung Deutschland München Schlüsselworte Memory; Arbeitsspeicher; NUMA; Hugepages Einleitung Speicherarchitekturen

Mehr

Cache Kohärenz. von Rainer Leisen

Cache Kohärenz. von Rainer Leisen Cache Kohärenz von Rainer Leisen Vorwort Diese Seminararbeit Cache Kohärenz wurde parallel zu der Veranstaltung Verteilte und Parallele Systeme II der Fachhochschule Bonn-Rhein-Sieg erstellt. In diesem

Mehr

Rechneraufbau und Rechnerstrukturen

Rechneraufbau und Rechnerstrukturen Rechneraufbau und Rechnerstrukturen von Prof. Dr. Walter Oberschelp, RWTH Aachen und Prof. Dr. Gottfried Vossen, Universität Münster 7, vollständig überarbeitete und aktualisierte Auflage R.Oldenbourg

Mehr

Convey, Hybrid-Core Computing

Convey, Hybrid-Core Computing Convey, Hybrid-Core Computing Vortrag im Rahmen des Seminars Ausgewählte Themen in Hardwareentwurf und Optik HWS 09 Universität Mannheim Markus Müller 1 Inhalt Hybrid-Core Computing? Convey HC-1 Überblick

Mehr

Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern

Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern Institut für Betriebssysteme und Rechnerverbund TU Braunschweig 25.10., 26.10.

Mehr

Die Marvel, ein gedrosselter Supercomputer

Die Marvel, ein gedrosselter Supercomputer Die Marvel, ein gedrosselter Supercomputer Warum ist die Marvel so schnell? Warum ist die Marvel so langsam? Erfahrungen mit dem Softwaresupport Warum ist die Marvel so schnell? Hardware Z.Cvetanovic,

Mehr

Rechneraufbau und Rechnerstrukturen

Rechneraufbau und Rechnerstrukturen Rechneraufbau und Rechnerstrukturen von Walter Oberschelp RWTH Aachen und Gottfried Vossen Universität Münster 10. Auflage c 2006 R. Oldenbourg Verlag GmbH, München Inhaltsverzeichnis Auszug... x... aus

Mehr

RAM. Konsistenzprobleme entstehen => CPU - durch Verzögerung in Warteschlange, Umfangreiche Pufferung in den PCI Brücken. lesen. EOP-Signal.

RAM. Konsistenzprobleme entstehen => CPU - durch Verzögerung in Warteschlange, Umfangreiche Pufferung in den PCI Brücken. lesen. EOP-Signal. 11. s 11.1 Pufferspeicher Lesepuffer um vorauszulesen: - erste Leseoperation hat lange Latenzzeit, - Folgedaten vorsorglich schon gelesen, - "prefetch buffer". Schreibpuffer um ein Blockieren des schreibenden

Mehr

RO II Übungen ohne Lösungen V20

RO II Übungen ohne Lösungen V20 H. Richter 05.04.2017 RO II Übungen ohne Lösungen V20 Übung 1: Gesamtpunktzahl [76] (76P) 1 Aufgabe: Superskalarität [22] 1.) Worin besteht der Unterschied zwischen einem skalaren Prozessor und einem superskalaren

Mehr

1 Konzepte der Parallelverarbeitung

1 Konzepte der Parallelverarbeitung Parallelverarbeitung Folie 1-1 1 Konzepte der Parallelverarbeitung Erhöhung der Rechenleistung verbesserte Prozessorarchitekturen mit immer höheren Taktraten Vektorrechner Multiprozessorsysteme (Rechner

Mehr

GLEICHES BEISPIEL, write-back STRATEGIE

GLEICHES BEISPIEL, write-back STRATEGIE GLEICHES BEISPIEL, write-back STRATEGIE e 1 Vorlesung 4 2.4.3. CACHE-KOHÄRENZ UND SPEICHER-KONSISTENZ Einfache aber wichtige Eigenschaft des (sequentiellen) Computerspeichers: Beim Lesen einer Speicherzelle

Mehr

Betriebssysteme (BS)

Betriebssysteme (BS) Betriebssysteme (BS) Multiprozessorsysteme Olaf Spinczyk Arbeitsgruppe Eingebettete Systemsoftware Lehrstuhl für Informatik 12 TU Dortmund Olaf.Spinczyk@tu-dortmund.de http://ess.cs.uni-dortmund.de/~os/

Mehr

Kurz: Stimme meinen Vorrednern zu: Angenehme Atmosphäre. Eher ein Fachgespräch als eine Prüfung. Eindeutig zu empfehlen

Kurz: Stimme meinen Vorrednern zu: Angenehme Atmosphäre. Eher ein Fachgespräch als eine Prüfung. Eindeutig zu empfehlen Kursversion WS: 10/11 02.2012 Kurs 1727 Kurz: Stimme meinen Vorrednern zu: Angenehme Atmosphäre. Eher ein Fachgespräch als eine Prüfung. Eindeutig zu empfehlen Grundlagen Parallele Programmierung? Was

Mehr

Einfaches MSI-Writeback-Inval-Protokoll

Einfaches MSI-Writeback-Inval-Protokoll Einfaches MSI-Writeback-Inval-Protokoll Write-Back Cache typischerweise Write-allocate bei einem Write-Miss Zustände Invalid (I): Shared (S): Kopien in einem oder mehreren Caches Dirty or Modified (M):

Mehr

Protected User-Level DMA in SCI Shared Memory Umgebungen

Protected User-Level DMA in SCI Shared Memory Umgebungen Protected User-Level DMA in SCI Shared Memory Umgebungen Mario Trams University of Technology Chemnitz, Chair of Computer Architecture 6. Halle Chemnitz Seminar zu Parallelverarbeitung und Programmiersprachen

Mehr

Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008

Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008 Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008 Jörg Rödel Virtualization - Whats out there? Virtualisierung hat bereits längere Geschichte auf x86 Startete mit VMware Setzte

Mehr

Rechnerarchitekturen für Parallele und Verteilte Systeme

Rechnerarchitekturen für Parallele und Verteilte Systeme Rechnerarchitekturen für Parallele und Verteilte Systeme 2 Zur Erhöhung der Rechenleistung durch parallele Auslegung und Vervielfachung der Prozessoren kristallisieren sich heute vier Möglichkeiten auf

Mehr

RO II Übungen ohne Lösungen V16

RO II Übungen ohne Lösungen V16 RO II Übungen ohne Lösungen V16 HRI 23.04.2015 1 Übung 1 (149P) Superskalarität, Parallelität Allgemein, Dynamische Befehlsausführung 1.1 Aufgabe: Superskalarität (27P) 1.) Was bedeutet der Begriff Superskalarität?

Mehr

Multikern-Rechner und Rechnerbündel

Multikern-Rechner und Rechnerbündel Multikern-Rechner und Rechnerbündel Dr. Victor Pankratius David J. Meder IPD Tichy Lehrstuhl für Programmiersysteme KIT die Kooperation von Forschungszentrum Karlsruhe GmbH und Universität Karlsruhe (TH)

Mehr

11.0 Rechnerarchitekturen

11.0 Rechnerarchitekturen 11.0 Rechnerarchitekturen Die Ziele dieses Kapitels sind: Kennen lernen der Rechnerklassifikation nach Flynn Betrachtung von Prozessorarchitekturen auf verschiedenen Abstraktionsebenen - Befehlsarchitektur

Mehr

Rechnergrundlagen SS 2007. 11. Vorlesung

Rechnergrundlagen SS 2007. 11. Vorlesung Rechnergrundlagen SS 2007 11. Vorlesung Inhalt Evaluation der Lehre (Auswertung) Synchroner/asynchroner Systembus Kontrollfluss/Datenfluss RISC vs. CISC Speicherhierarchie Cache Lesen Schreiben Überschreiben

Mehr

Parallele Rechnerarchitekturen. Bisher behandelte von Neumann-Architektur:

Parallele Rechnerarchitekturen. Bisher behandelte von Neumann-Architektur: Parallele Rechnerarchitekturen Bisher behandelte von Neumann-Architektur: v.-neumann-architektur Eingabewerk Speicher Ausgabewerk Rechenwerk Steuerwerk Steuerbefehle Daten (Daten, Befehle, Adressen,...)

Mehr

Multicore Herausforderungen an das Software-Engineering. Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010

Multicore Herausforderungen an das Software-Engineering. Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010 Multicore Herausforderungen an das Software-Engineering Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010 Inhalt _ Motivation _ Herausforderung 1: Hardware _ Herausforderung 2: Software-Partitionierung

Mehr

CUDA. Jürgen Pröll. Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg Jürgen Pröll 1

CUDA. Jürgen Pröll. Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg Jürgen Pröll 1 CUDA Jürgen Pröll Multi-Core Architectures and Programming Jürgen Pröll 1 Image-Resize: sequentiell resize() mit bilinearer Interpolation leicht zu parallelisieren, da einzelne Punkte voneinander unabhängig

Mehr

Betriebssysteme Kap A: Grundlagen

Betriebssysteme Kap A: Grundlagen Betriebssysteme Kap A: Grundlagen 1 Betriebssystem Definition DIN 44300 Die Programme eines digitalen Rechensystems, die zusammen mit den Eigenschaften dieser Rechenanlage die Basis der möglichen Betriebsarten

Mehr

mathematik und informatik

mathematik und informatik Prof. Dr. Jörg Keller, Prof. Dr. Wolfram Schiffmann Kurs 01727 e Programmierung und Grid- Computing LESEPROBE mathematik und informatik Das Werk ist urheberrechtlich geschützt. Die dadurch begründeten

Mehr

Implementierungsansätze für ein FPGA basiertes Multiprozessor. Marco Kirschke INF-M1 Anwendung 1 - Wintersemester 2009/2010 25.

Implementierungsansätze für ein FPGA basiertes Multiprozessor. Marco Kirschke INF-M1 Anwendung 1 - Wintersemester 2009/2010 25. Implementierungsansätze für ein FPGA basiertes Multiprozessor System INF-M1 Anwendung 1 - Wintersemester 2009/2010 25. November 2009 Inhalt Motivation FPGA-based Embedded Systems Entwurfsübersicht zu MPSoC

Mehr

Masterpraktikum Scientific Computing

Masterpraktikum Scientific Computing Masterpraktikum Scientific Computing High-Performance Computing Thomas Auckenthaler Alexander Heinecke Technische Universität München, Germany Outline Gastvortrag + Begin 14:30 Logins Ebenen der Parallelität

Mehr

IT für Führungskräfte. Zentraleinheiten. 11.04.2002 Gruppe 2 - CPU 1

IT für Führungskräfte. Zentraleinheiten. 11.04.2002 Gruppe 2 - CPU 1 IT für Führungskräfte Zentraleinheiten 11.04.2002 Gruppe 2 - CPU 1 CPU DAS TEAM CPU heißt Central Processing Unit! Björn Heppner (Folien 1-4, 15-20, Rollenspielpräsentation 1-4) Harald Grabner (Folien

Mehr

Teil Rechnerarchitekturen M07. Multiprogramming und Tasking, Flynn-Klassifikation, Parallelismus. Corinna Schmitt

Teil Rechnerarchitekturen M07. Multiprogramming und Tasking, Flynn-Klassifikation, Parallelismus. Corinna Schmitt Teil Rechnerarchitekturen M07 Multiprogramming und Tasking, Flynn-Klassifikation, Parallelismus Corinna Schmitt corinna.schmitt@unibas.ch Multiprogrammierung und -Tasking 2015 Corinna Schmitt Teil Rechnerarchitekturen

Mehr

Universität Karlsruhe (TH)

Universität Karlsruhe (TH) Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Multikern-Rechner und Rechnerbündel Prof. Dr. Walter F. Tichy Dr. Victor Pankratius David Meder Ali Jannesari Inhalt der Vorlesung Rechnerbündel

Mehr

Seminar "Ausgewählte Themen in Hardwareentwurf und Optik" im HS 2007. Transactional Memory. Vortrag von Erdin Sinanović

Seminar Ausgewählte Themen in Hardwareentwurf und Optik im HS 2007. Transactional Memory. Vortrag von Erdin Sinanović Seminar "Ausgewählte Themen in Hardwareentwurf und Optik" im HS 2007 Transactional Memory Vortrag von Erdin Sinanović Übersicht Was ist Transactional Memory (TM)? Wie programmiert man mit TM? Software

Mehr

Kapitel 6 Anfragebearbeitung

Kapitel 6 Anfragebearbeitung LUDWIG- MAXIMILIANS- UNIVERSITY MUNICH DEPARTMENT INSTITUTE FOR INFORMATICS DATABASE Skript zur Vorlesung: Datenbanksysteme II Sommersemester 2014 Kapitel 6 Anfragebearbeitung Vorlesung: PD Dr. Peer Kröger

Mehr

Grundlagen der Rechnerarchitektur

Grundlagen der Rechnerarchitektur Grundlagen der Rechnerarchitektur Speicher Übersicht Speicherhierarchie Cache Grundlagen Verbessern der Cache Performance Virtueller Speicher SS 2012 Grundlagen der Rechnerarchitektur Speicher 2 Speicherhierarchie

Mehr

The End Rechnernetze - rough cut

The End Rechnernetze - rough cut The End Rechnernetze - rough cut 2015 - Peter Sturm Universität Trier Peter Sturm, University of Trier 1 Inhalte SLIP, PPP, PPPoE, DHCP,... Wireless Interconnection Networks Supercomputer Die Client- Seite

Mehr

Multicore-Architekturen

Multicore-Architekturen Universität Erlangen- Nürnberg Technische Universität München Universität Stuttgart Multicore-Architekturen Vortrag im Rahmen der Ferienakademie 2009 Kurs 1: Programmierkonzepte für Multi-Core Rechner

Mehr

Chapter 8 Multiple Processor Systems. 8.1 Multiprocessors 8.2 Multicomputers 8.3 Distributed systems

Chapter 8 Multiple Processor Systems. 8.1 Multiprocessors 8.2 Multicomputers 8.3 Distributed systems Chapter 8 Multiple Processor Systems 8.1 Multiprocessors 8.2 Multicomputers 8.3 Distributed systems Multiprocessor Systems Continuous need for faster computers shared memory model message passing multiprocessor

Mehr

MULTICORE- UND GPGPU- ARCHITEKTUREN

MULTICORE- UND GPGPU- ARCHITEKTUREN MULTICORE- UND GPGPU- ARCHITEKTUREN Korbinian Pauli - 17. November 2011 Seminar Multicore Programmierung, WS11, Universität Passau 2 Einleitung Klassisches Problem der Informatik: riesige Datenmenge! Volkszählung

Mehr

Teil Rechnerarchitekturen. Repetitorium. Corinna Schmitt

Teil Rechnerarchitekturen. Repetitorium. Corinna Schmitt Teil Rechnerarchitekturen Repetitorium Corinna Schmitt corinna.schmitt@unibas.ch Vorlesungsinhalt Rechnerarchitekturen M01: Architektur, ALU, Flip-Flop M02: Einführung in die Sprache C M03: 2er-Komplement,

Mehr

Konzepte und Methoden der Systemsoftware. Aufgabe 1: Polling vs Interrupts. SoSe bis P

Konzepte und Methoden der Systemsoftware. Aufgabe 1: Polling vs Interrupts. SoSe bis P SoSe 2014 Konzepte und Methoden der Systemsoftware Universität Paderborn Fachgebiet Rechnernetze Präsenzübung 3(Musterlösung) 2014-05-05 bis 2014-05-09 Aufgabe 1: Polling vs Interrupts (a) Erläutern Sie

Mehr

Verteilte Systeme Einführung Prof.Dr.Rainer Seck/Original Prof. Dr. Weber V1.1 Seite 1 von 23. E Einführung

Verteilte Systeme Einführung Prof.Dr.Rainer Seck/Original Prof. Dr. Weber V1.1 Seite 1 von 23. E Einführung Verteilte Systeme Einführung Prof.Dr.Rainer Seck/Original Prof. Dr. Weber V1.1 Seite 1 von 23 Bis Mitte der achtziger Jahre: E Einführung zentralisierte Systeme mit einfachen ASCII-Terminals. Timesharing-Prinzip

Mehr

Rechnernutzung in der Physik. Betriebssysteme

Rechnernutzung in der Physik. Betriebssysteme Rechnernutzung in der Physik Betriebssysteme 1 Betriebssysteme Anwendungsprogramme Betriebssystem Treiber BIOS Direkter Zugriff von Anwenderprogrammen auf Hardware nur in Ausnahmefällen sinnvoll / möglich:

Mehr

Wozu Supercomputer Geschichte des Supercompu ngs Konnek vität und Topologien Ausgewählte Systeme Auswirkungen auf den Desktop Ausblick

Wozu Supercomputer Geschichte des Supercompu ngs Konnek vität und Topologien Ausgewählte Systeme Auswirkungen auf den Desktop Ausblick Rechnernetze Supercomputer Übersicht Wozu Supercomputer Geschichte des Supercompu ngs Konnek vität und Topologien Ausgewählte Systeme Auswirkungen auf den Desktop Ausblick 1 WOZU SUPERCOMPUTER? Probleme

Mehr

Vertiefungsrichtung Rechnerarchitektur

Vertiefungsrichtung Rechnerarchitektur srichtung () ( für ) Prof. Dietmar Fey Ziele der srichtung RA Vertiefen des Verständnis vom Aufbau, Funktionsweise von Rechnern und Prozessoren Modellierung und Entwurf von Rechnern und Prozessoren ()

Mehr

Informatik II. Rechnerarchitektur. Rechnerarchitektur. Rechnerarchitektur. Einführung. Rainer Schrader. 24. November 2005

Informatik II. Rechnerarchitektur. Rechnerarchitektur. Rechnerarchitektur. Einführung. Rainer Schrader. 24. November 2005 Informatik II Einführung Rainer Schrader Zentrum für Angewandte Informatik Köln 24. November 2005 1 / 59 2 / 59 Gliederung von-neumann-rechner Vektor- und Feldrechner arallelrechner alternative Rechnerkonzepte

Mehr

Hochleistungsrechnen Hybride Parallele Programmierung. Prof. Dr. Thomas Ludwig Universität Hamburg Informatik Wissenschaftliches Rechnen

Hochleistungsrechnen Hybride Parallele Programmierung. Prof. Dr. Thomas Ludwig Universität Hamburg Informatik Wissenschaftliches Rechnen Hochleistungsrechnen Hybride Parallele Programmierung Prof. Dr. Thomas Ludwig Universität Hamburg Informatik Wissenschaftliches Rechnen Inhaltsübersicht Einleitung und Motivation Programmiermodelle für

Mehr

Grundlagen der Rechnerarchitektur. Ein und Ausgabe

Grundlagen der Rechnerarchitektur. Ein und Ausgabe Grundlagen der Rechnerarchitektur Ein und Ausgabe Übersicht Grundbegriffe Hard Disks und Flash RAM Zugriff auf IO Geräte RAID Systeme SS 2012 Grundlagen der Rechnerarchitektur Ein und Ausgabe 2 Grundbegriffe

Mehr

6. Parallele Algorithmen

6. Parallele Algorithmen 6. Parallele Algorithmen 6.1 Vorbemerkungen Bisher: Instruktionen von Programmen werden durch einen einzigen Prozessor sequentiell ausgeführt. Eine Beschleunigung von Algorithmen ist dabei nur möglich,

Mehr

Der Clusterkonfigurator von Leonardo Lapeira, transtec AG

Der Clusterkonfigurator von Leonardo Lapeira, transtec AG Der Clusterkonfigurator von Leonardo Lapeira, transtec AG Die optimale Ausstattung definieren Die Leistung eines HPC-Clusters mathematisch zu beschreiben und vorherzusagen, ist bislang kaum versucht worden.

Mehr

1 Grundlagen Verteilter Systeme 1.1 BegrŸndung und Bedeutung. Paradigmenwechsel in der Informatik. Verteilte Systeme

1 Grundlagen Verteilter Systeme 1.1 BegrŸndung und Bedeutung. Paradigmenwechsel in der Informatik. Verteilte Systeme 1 Grundlagen Verteilter Systeme 1.1 BegrŸndung und Bedeutung H.-U. Hei, Uni aderborn aradigmenwechsel in der Informatik Zum wissenschaftstheoretischen Begriff des aradigma H.-U. Hei, Uni aderborn Verteilte

Mehr

Einführung in die Parallelverarbeitung

Einführung in die Parallelverarbeitung HTWM Hochschule für Technik und Wirtschaft Mittweida Technikumsplatz 17 09648 Mittweida Fach: Parallelverarbeitung Prof.: Prof. Schneider Einführung in die Parallelverarbeitung Mitschrift von: Drost, Isabel

Mehr

Angewandte Informatik

Angewandte Informatik Angewandte Informatik Teil 2.1 Was ist Hardware? Die Zentraleinheit! 1 von 24 Inhaltsverzeichnis 3... Was ist Hardware? 4... Teile des Computers 5... Zentraleinheit 6... Die Zentraleinheit 7... Netzteil

Mehr

Virtueller Speicher. SS 2012 Grundlagen der Rechnerarchitektur Speicher 44

Virtueller Speicher. SS 2012 Grundlagen der Rechnerarchitektur Speicher 44 Virtueller Speicher SS 2012 Grundlagen der Rechnerarchitektur Speicher 44 Die Idee Virtuelle Adressen Prozess 1 Speicherblock 0 Speicherblock 1 Speicherblock 2 Speicherblock 3 Speicherblock 4 Speicherblock

Mehr

2. Der ParaNut-Prozessor "Parallel and more than just another CPU core"

2. Der ParaNut-Prozessor Parallel and more than just another CPU core 2. Der ParaNut-Prozessor "Parallel and more than just another CPU core" Neuer, konfigurierbarer Prozessor Parallelität auf Daten- (SIMD) und Thread-Ebene Hohe Skalierbarkeit mit einer Architektur neues

Mehr

Grundlagen der Rechnerarchitektur

Grundlagen der Rechnerarchitektur Grundlagen der Rechnerarchitektur Ein und Ausgabe Übersicht Grundbegriffe Hard Disks und Flash RAM Zugriff auf IO Geräte RAID Systeme SS 2012 Grundlagen der Rechnerarchitektur Ein und Ausgabe 2 Grundbegriffe

Mehr

Erweiterung des Threadmodelles für den Einsatz in verteilten und heterogenen Systemumgebungen

Erweiterung des Threadmodelles für den Einsatz in verteilten und heterogenen Systemumgebungen Erweiterung des Threadmodelles für den Einsatz in verteilten und heterogenen Systemumgebungen Von der Universität Bayreuth zur Erlangung des Grades eines Doktors der Naturwissenschaften (Dr. rer. nat.)

Mehr

Computer-Architektur Ein Überblick

Computer-Architektur Ein Überblick Computer-Architektur Ein Überblick Johann Blieberger Institut für Rechnergestützte Automation Computer-Architektur Ein Überblick p.1/27 Computer-Aufbau: Motherboard Computer-Architektur Ein Überblick p.2/27

Mehr

Kapitel VI. Speicherverwaltung. Speicherverwaltung

Kapitel VI. Speicherverwaltung. Speicherverwaltung Kapitel VI Speicherverwaltung 1 Speicherverwaltung Computer exekutiert Programme (mit Daten) im Hauptspeicher. Hauptspeicher: Großes Array von Wörtern (1 oder mehrere Bytes) Jedes Wort hat eine eigene

Mehr

Opteron und I/O. Toni Schmidbauer. 11. Mai Zusammenfassung. Eine kurze Beschreibung der AMD Opteron Architektur.

Opteron und I/O. Toni Schmidbauer. 11. Mai Zusammenfassung. Eine kurze Beschreibung der AMD Opteron Architektur. Opteron und I/O Toni Schmidbauer 11. Mai 2005 Zusammenfassung Eine kurze Beschreibung der AMD Opteron Architektur Inhaltsverzeichnis 1 Allgemeines 2 2 Was ist ein Interconnect? 2 3 Traditionelles PC Chipset

Mehr