Maik Zemann. Flynn s Taxonomie. Parallele Rechnerarchitekturen SS 2004 Technische Fakultät Universität Bielefeld. 3. Mai 2004 Flynn's Taxonomie 1

Größe: px
Ab Seite anzeigen:

Download "Maik Zemann. Flynn s Taxonomie. Parallele Rechnerarchitekturen SS 2004 Technische Fakultät Universität Bielefeld. 3. Mai 2004 Flynn's Taxonomie 1"

Transkript

1 Maik Zemann Flynn s Taxonomie Parallele Rechnerarchitekturen SS 2004 Technische Fakultät Universität Bielefeld 3. Mai 2004 Flynn's Taxonomie 1

2 Gliederung Einleitung Gliederung Flynn s Taxonomie Das SISD-Modell Das SIMD-Modell Das MISD-Modell Das MIMD-Modell Erweiterungen der Flynn schen Taxonomie Alternative Taxonomien Zusammenfassung Ausblick Quellen und Literatur 3. Mai 2004 Flynn's Taxonomie 2

3 Einleitung Wer ist Michael J. Flynn? IBM (Computer organizations and design) 1961 Promotion an der Purdue University Seit 1975 Professor an der Stanford University Awards: Eckert-Mauchley (1992), Harry Goode Memorial (1995), Tesla Medal und Ehrendoktor (1998) 3. Mai 2004 Flynn's Taxonomie 3

4 Einleitung Was ist eine Taxonomie? Wikipedia: Die Taxonomie ist die Wissenschaft von der Einteilung von Dingen in Taxa (Gruppen). Ursprünglicher Begriff aus der Biologie Viele Fachbereiche verwenden den Begriff der Taxonomie allgemein für ein Klassifikationssystem, eine Systematik oder den Vorgang des Klassifizierens. 3. Mai 2004 Flynn's Taxonomie 4

5 Einleitung Der Begriff der Taxonomie in der Informatik Klassifikation verschiedener Computer und Architekturen in bestimmte Gruppen z.b.: IBM PC, Alliant FX/8, U/Burroughs ILLIAC-IV NEC EarthSimulator, Quantencomputer, Transputer uvm. 3. Mai 2004 Flynn's Taxonomie 5

6 Einleitung Motivation (1) Vergleichbarkeit von Rechnern Einfache Charakteristika dienen als Klassifikationsbasis Keine detaillierten Informationen/Datenblätter notwendig Einfaches qualitatives Maß für die Ähnlichkeit zweier Architekturen Klassifikation kann nach verschiedenen Gesichtspunkten erfolgen (z.b.: Anzahl und Struktur funktioneller Einheiten oder Pipelining und Parallelismus) Gute Taxonomie weist jedem Rechner genau eine Gruppe zu 3. Mai 2004 Flynn's Taxonomie 6

7 Einleitung Motivation (2) Zunehmende Abweichung von der klassischen von Neumann Architektur Gleichzeitige Ausführung von Operationen (Parallelismus) Vielfältige Architektur-Möglichkeiten Führte zur Schaffung von Klassifikationsschemata Eine mögliche Klassifikation, die sich wegen ihrer Einfachheit durchsetzte, ist die nach Michael J. Flynn 3. Mai 2004 Flynn's Taxonomie 7

8 Gliederung Einleitung Gliederung Flynn s Taxonomie Das SISD-Modell Das SIMD-Modell Das MISD-Modell Das MIMD-Modell Erweiterungen der Flynn schen Taxonomie Alternative Taxonomien Zusammenfassung Ausblick Quellen und Literatur 3. Mai 2004 Flynn's Taxonomie 8

9 Flynn s Taxonomie Flynn s Taxonomie Bekannte Klassifikation von Michael J. Flynn (1972) Basiert auf zwei Konzepten: Befehlsströme Datenströme 3. Mai 2004 Flynn's Taxonomie 9

10 Flynn s Taxonomie Befehlsströme Instruktionen die auf Datenworten ausgeführt werden können Jeder Befehlsstrom benötigt einen eigenen Befehlszähler, der den aktuellen Befehl des ihm zugeordneten Stroms beinhaltet System mit n Prozessoren besitzt n Befehlszähler Bei Flynn: Anzahl der gleichzeitig ausführbaren Befehlsströme 3. Mai 2004 Flynn's Taxonomie 10

11 Flynn s Taxonomie Datenströme Sequenz von Werte-Tupeln auf denen Operationen (Befehle) ausgeführt werden können Bei Flynn: Anzahl der gleichzeitig bearbeitbaren Datenströme 3. Mai 2004 Flynn's Taxonomie 11

12 Flynn s Taxonomie Mögliche Kategorien 3. Mai 2004 Flynn's Taxonomie 12

13 SISD-Modell Das SISD-Modell Ein sequenziell abgearbeiteter Befehlsstrom verarbeitet einen entsprechend sequenziellen Datenstrom Die meisten Rechner gehören zu dieser Kategorie: Die meisten Mikroprozessoren Fast alle Mainframe-Computer Pipeline-Prozessoren werden allgemein dazugezählt Fast alle Minicomputer der 80er Jahre 3. Mai 2004 Flynn's Taxonomie 13

14 SISD-Modell Das SISD-Modell Allgemein: Alle Einzelrechner, die Eigenständig zur Lösung ihrer Aufgaben eingesetzt werden Beispiel: von Neumann-Architektur 3. Mai 2004 Flynn's Taxonomie 14

15 SISD-Modell Informationsfluss beim SISD-Modell 3. Mai 2004 Flynn's Taxonomie 15

16 SIMD-Modell Das SIMD-Modell Typische Architektur von Großrechnern bzw. Array-Prozessoren Bekannt als Vektorrechner oder Supercomputer (z.b. Cray 1) Schnelle Ausführung eines Befehlsstroms auf mehrere gleichzeitig eintreffende Datenströme 3. Mai 2004 Flynn's Taxonomie 16

17 SIMD-Modell Das SIMD-Modell Es gibt nur ein Leitwerk zur Befehlsentschlüsselung Parallele Nutzung mehrerer Rechenwerke Verteilung eines Befehlsstroms an mehrere Einheiten nennt man Instruction Broadcasting Jedes Rechenwerk verfügt über eigene bidirektionale Verbindung zum Hauptspeicher (Erweiterung des von Neumann-Prinzips) 3. Mai 2004 Flynn's Taxonomie 17

18 SIMD-Modell Das SIMD-Modell Einzelne Datenprozessoren können von der Verarbeitung einzelner Befehle ausgenommen werden, können aber zeitgleich keinen anderen Befehl ausführen Synchroner Ablauf: Tasks starten und terminieren alle zum selben Zeitpunkt 3. Mai 2004 Flynn's Taxonomie 18

19 SIMD-Modell Das SIMD-Modell 3. Mai 2004 Flynn's Taxonomie 19

20 SIMD-Modell Ein Beispiel SIMD-Rechner arbeiten auf Vektoren, deren Komponenten unabhängig voneinander verarbeitet werden können Beispiel: Addition von 6 Zahlen ((1+4)+(10+6)+(8+12)) Verteilung der Rechenoperationen auf 3 Datenprozessoren Nach 1. Takt liegen drei Zwischenergebnisse vor (5, 16, 20) Nach 2. Takt 2 Zwischenergebnisse (21, 20) Nach 3. Takt liegt das Gesamtergebnis vor (41) Vergleich SISD: 5 Takte 3. Mai 2004 Flynn's Taxonomie 20

21 MISD-Modell Das MISD-Modell Mehrere Leit- bzw. Rechenwerke bearbeiten einen Datenstrom Fließbandprinzip 3. Mai 2004 Flynn's Taxonomie 21

22 MISD-Modell Struktur erinnert an Pipelining Das MISD-Modell Gesamtaufgabe wird in aufeinanderfolgende Teilaufgaben zerlegt Mögliche Anwendung: Filtern von Videodaten Gesamtfilter wird in Teilfilter zerlegt Jeder Teilfilter wird von einem Pipelineprozessor verarbeitet 3. Mai 2004 Flynn's Taxonomie 22

23 MISD-Modell Das MISD-Modell Softwaretechnische Umsetzung des Prinzips in UNIX-Systemen Beispiel: pipe -Befehl: Ein Rechenprozess versorgt einen Anderen ständig mit Daten Die Ausführung auf nur einem Datenstrom ist eine zu starke Einschränkung Keine bekannte Hardwareimplementierung 3. Mai 2004 Flynn's Taxonomie 23

24 MIMD-Modell Das MIMD-Modell Mehrere Befehlsströme bearbeiten zeitgleich mehrere unterschiedliche Datenströme Ein Leitwerk und das von ihm gesteuerte Rechenwerk fasst man allgemein als Prozessor zusammen Jeder Prozessor arbeitet auf seinen eigenen Daten mit seinen eigenen Befehlen Asynchroner Ablauf: Da jeder Prozessor seine eigenen Tasks verwaltet, können diese zu unterschiedlichen Zeitpunkten starten oder terminieren 3. Mai 2004 Flynn's Taxonomie 24

25 MIMD-Modell Das MIMD-Modell 3. Mai 2004 Flynn's Taxonomie 25

26 MIMD-Modell Noch ein Beispiel: Sega-Spielekonsole Prozessor (Fa. Motorola, 16-Bit) führt Hauptprogramm aus Nutzt Z80-Prozessor (Fa. Zilog, 8-Bit) für nebenläufige Aufgaben Prozessor lädt Programme in den Z80-Prozessor, die dann vollkommen unabhängig vom Prozessor ausgeführt werden 3. Mai 2004 Flynn's Taxonomie 26

27 MIMD-Modell Das MIMD-Modell Solche MIMD-Systeme sind sehr vielfältig in ihren möglichen Architekturen Insbesondere in der Art der Kommunikation Sie können anhand einiger Erweiterungen der Flynn schen Taxonomie in Unterkategorien eingeteilt werden Eng gekoppelte Systeme (Mehrprozessorsysteme) Lose gekoppelte Systeme (Mehrrechnersysteme) 3. Mai 2004 Flynn's Taxonomie 27

28 Gliederung Einleitung Gliederung Flynn s Taxonomie Das SISD-Modell Das SIMD-Modell Das MISD-Modell Das MIMD-Modell Erweiterungen der Flynn schen Taxonomie Alternative Taxonomien Zusammenfassung Ausblick Quellen und Literatur 3. Mai 2004 Flynn's Taxonomie 28

29 Erweiterungen der Flynn schen Taxonomie Erweiterungen der Flynn schen Taxonomie Einteilung nach Kommunikations- und Speicherorganisation Nachrichtengekoppelt Speichergekoppelt Einteilung nach Verbindungs-Netzwerken Verbindungstopologie (hierarchisch, regulär,...) Blockierungsverhalten (blockierungsfrei, blockierend) Betriebsweise (synchron, asynchron) Mai 2004 Flynn's Taxonomie 29

30 Erweiterungen der Flynn schen Taxonomie Übersicht 3. Mai 2004 Flynn's Taxonomie 30

31 Erweiterungen der Flynn schen Taxonomie Übersicht 3. Mai 2004 Flynn's Taxonomie 31

32 Erweiterungen der Flynn schen Taxonomie Eng gekoppelte Systeme oder Multiprozessorsysteme Speichergekoppelte Systeme mit globalem Adressraum Keine explizite Kommunikation nötig, da der anfordernde Prozessor aus dem Hauptspeicher lesen kann (Zugriffskonflikte) Synchronisation erforderlich!! Anhand der Speicherzugriffsart unterteilbar in UMA (Uniform Memory Access) NUMA (Non Uniform Memory Access) 3. Mai 2004 Flynn's Taxonomie 32

33 Erweiterungen der Flynn schen Taxonomie Unified Memory Access Zentraler gemeinsamer Speicher (Shared-Memory) Vom Ort unabhängige Zugriffszeit für alle Prozessoren Zwei Varianten: Verbindung zum Speicher mittels Datenbus Verbindung zum Speicher mittels Switches 3. Mai 2004 Flynn's Taxonomie 33

34 Erweiterungen der Flynn schen Taxonomie Non Unified Memory Access Gemeinsamer verteilter Speicher (Distributed-Shared-Memory) Jeder Prozessor hat einen eigenen lokalen Speicher Zugriff auf lokalen Speicher erfolgt schneller als auf entfernten Speicher Ortsabhängige Zugriffszeit 3. Mai 2004 Flynn's Taxonomie 34

35 Erweiterungen der Flynn schen Taxonomie Hybride Strukturen In der Praxis Sowohl CPUs mit Busanbindung an den lokalen Speicher innerhalb eines Clusters, als auch Switch-Netzwerk zwischen Clustern Beispiel: Sun Enterprise Mai 2004 Flynn's Taxonomie 35

36 Erweiterungen der Flynn schen Taxonomie Lose gekoppeltes System oder Multirechnersysteme Nachrichtengekoppeltes System mit lokalen Adressräumen Jeder Prozessor hat seinen eigenen Speicher und ist u.u. ein eigenständiger Computer Kopplung mehrerer Computer über ein Verbindungsnetzwerk Verteiltes System Kommunikation wird wie Ein-/Ausgabe behandelt mittels spezieller Befehle wie send oder receive 3. Mai 2004 Flynn's Taxonomie 36

37 Erweiterungen der Flynn schen Taxonomie Multirechnersysteme Unterteilbar anhand des Netzwerkes: Busbasiert Verbindungsbasiert 3. Mai 2004 Flynn's Taxonomie 37

38 Erweiterungen der Flynn schen Taxonomie Busbasierte Multirechnersysteme Keine gemeinsamen Speicherzugriffe Nur einfacher Nachrichtenaustausch Meist lokale Netzwerkverbindungen mit 10 bis 100 MBit/s Beispiel: Workstations im LAN 3. Mai 2004 Flynn's Taxonomie 38

39 Erweiterungen der Flynn schen Taxonomie Verbindungsbasierte Multirechnersysteme Auch hier nur Nachrichtenaustausch ohne gemeinsamen Speicherzugriff Hauptanforderung in dieser Kategorie Schnelles und flexibles Netzwerk für den Nachrichtenaustausch Verschiedene Topologien denkbar z.b.: Hypercube Jeder Rechner bekommt eine binäre Identifikation Alle Rechner, deren IDs sich um 1-Bit unterscheiden, werden miteinander verbunden 3. Mai 2004 Flynn's Taxonomie 39

40 Erweiterungen der Flynn schen Taxonomie Verbindungsbasierte Multirechnersysteme 1-, 2- oder 3-dimensionale Netze Vorteil: theoretisch beliebig ausbaufähig 3. Mai 2004 Flynn's Taxonomie 40

41 Erweiterungen der Flynn schen Taxonomie Speichergekoppelt Multirechner vs. Multiprozessor Nachrichtengekoppelt _ -Einfach zu programmieren -Schwierig zu bauen -Kommunikation implizit durch Lade- und Speichere-Befehle -Häufiger Engpass: Datenbus -Zuverlässigkeit - Schwierig zu programmieren - Einfach zu bauen - verlangt schnelles, dynamisches Netzwerk - Höhere Kosten - Wachstumspotential -Wirtschaftlich - Sicherheit 3. Mai 2004 Flynn's Taxonomie 41

42 Gliederung Einleitung Gliederung Flynn s Taxonomie Das SISD-Modell Das SIMD-Modell Das MISD-Modell Das MIMD-Modell Erweiterungen der Flynn schen Taxonomie Alternative Taxonomien Zusammenfassung Ausblick Quellen und Literatur 3. Mai 2004 Flynn's Taxonomie 42

43 Alternative Taxonomien Handler`s Taxonomie (1977) Alternative Taxonomien 3 Ebenen: Leitwerke, Rechenwerke, parallel verarbeitete Bitstellen Computer T = <k * k, d * d, w * w > k= Anzahl der Steuereinheiten k = Anzahl der Steuereinheiten im Pipelining d= Anzahl der Rechenwerke pro Leitwerk d =Anzahl der Rechenwerke pro Leitwerk im Pipelining w=anzahl der parallel verarbeiteten Bits pro Rechenwerk w =Anzahl der Pipelinephasen einer Instruktion Beispiel: Intel Paragon XP/S: <1840 * 2, 1 * 2, 64 * 3> 3. Mai 2004 Flynn's Taxonomie 43

44 Gliederung Einleitung Gliederung Flynn s Taxonomie Das SISD-Modell Das SIMD-Modell Das MISD-Modell Das MIMD-Modell Erweiterungen der Flynn schen Taxonomie Alternative Taxonomien Zusammenfassung Ausblick Quellen und Literatur 3. Mai 2004 Flynn's Taxonomie 44

45 Zusammenfassung Zusammenfassung (1) Vier verschiedene Modelle: SIMD, SISD, MISD, MIMD Wichtigste Klassifikationsmerkmale: Datenströme und Instruktionsströme sowie Speicher- und Kommunikationsorganisation Wirkliche Parallelität bieten nur Rechner der Kategorien SIMD und MIMD SIMD bietet Datenparallelität MIMD unterstützt echte Prozessparallelität 3. Mai 2004 Flynn's Taxonomie 45

46 Zusammenfassung Zusammenfassung (2) Aufgrund der geringen Anzahl der Klassifikationsmerkmale gibt es ein breites Spektrum in den einzelnen Kategorien Erweiterung der Taxonomie: Multiprozessor- und Multirechner- Systeme Es gibt zahlreiche Klassifikationsmodelle, von denen das Flynn sche aufgrund seiner Einfachheit das Bekannteste und auch meist Kritisierte ist Im Großen und Ganzen verrät die Flynn`sche Taxonomie nur wenig mehr als die Tatsache ob ein Rechner Parallel ist, oder nicht 3. Mai 2004 Flynn's Taxonomie 46

47 Ausblick Ausblick PCs haben mit Video-, Sound-, und ähnlichen Karten schon ein erhebliches Maß an Parallelarbeit implementiert PCs und Server mit mehr als einer CPU sind heute bereits Stand der Technik Parallelisierung aufgrund der steigenden Datenmengen immer gefragter, gerade im Bereich von Multimediaoperationen Ansatz: Hyperthreading bis zu vier virtuelle CPU-Kerne auf einem Chip 3. Mai 2004 Flynn's Taxonomie 47

48 Quellen und Literatur Literatur Parallel Computer Taxonomy, Wasel Chemij Hardware Konzepte, Prof.Dr. K. Irmscher Mehrprozessorsysteme Weiterführende Literatur: M.J.Flynn: Computer Architekture, Jones and Bartlet, Mai 2004 Flynn's Taxonomie 48

2 Rechnerarchitekturen

2 Rechnerarchitekturen 2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf

Mehr

Proseminar Rechnerarchitekturen. Parallelcomputer: Multiprozessorsysteme

Proseminar Rechnerarchitekturen. Parallelcomputer: Multiprozessorsysteme wwwnet-texde Proseminar Rechnerarchitekturen Parallelcomputer: Multiprozessorsysteme Stefan Schumacher, , PGP Key http://wwwnet-texde/uni Id: mps-folientex,v

Mehr

Hardware-Architekturen

Hardware-Architekturen Kapitel 3 Hardware-Architekturen Hardware-Architekturen Architekturkategorien Mehrprozessorsysteme Begriffsbildungen g Verbindungsnetze Cluster, Constellation, Grid Abgrenzungen Beispiele 1 Fragestellungen

Mehr

Verteilte Betriebssysteme

Verteilte Betriebssysteme Verteiltes System Eine Sammlung unabhängiger Rechner, die dem Benutzer den Eindruck vermitteln, es handle sich um ein einziges System. Verteiltes Betriebssystem Betriebssystem für verteilte Systeme Verwaltet

Mehr

Überblick. Einleitung. Befehlsschnittstelle Mikroarchitektur Speicherarchitektur Ein-/Ausgabe Multiprozessorsysteme,...

Überblick. Einleitung. Befehlsschnittstelle Mikroarchitektur Speicherarchitektur Ein-/Ausgabe Multiprozessorsysteme,... Überblick Einleitung Lit., Motivation, Geschichte, v.neumann- Modell, VHDL Befehlsschnittstelle Mikroarchitektur Speicherarchitektur Ein-/Ausgabe Multiprozessorsysteme,... Kap.6 Multiprozessorsysteme Einsatz

Mehr

Systeme 1: Architektur

Systeme 1: Architektur slide 1 Vorlesung Systeme 1: Architektur Prof. Dr. Ulrich Ultes-Nitsche Forschungsgruppe Departement für Informatik Universität Freiburg slide 2 Prüfung 18. Februar 2004 8h00-11h40 13h00-18h20 20 Minuten

Mehr

Intel 80x86 symmetrische Multiprozessorsysteme. Eine Präsentation im Rahmen des Seminars Parallele Rechnerarchitekturen von Bernhard Witte

Intel 80x86 symmetrische Multiprozessorsysteme. Eine Präsentation im Rahmen des Seminars Parallele Rechnerarchitekturen von Bernhard Witte Intel 80x86 symmetrische Multiprozessorsysteme Eine Präsentation im Rahmen des Seminars Parallele Rechnerarchitekturen von Bernhard Witte Gliederung I. Parallel Computing Einführung II.SMP Grundlagen III.Speicherzugriff

Mehr

Architektur paralleler Plattformen

Architektur paralleler Plattformen Architektur paralleler Plattformen Freie Universität Berlin Fachbereich Informatik Wintersemester 2012/2013 Proseminar Parallele Programmierung Mirco Semper, Marco Gester Datum: 31.10.12 Inhalt I. Überblick

Mehr

Seminar Parallele Rechnerarchitekturen SS04 \ SIMD Implementierung aktueller Prozessoren 2 (Dominik Tamm) \ Inhalt. Seite 1

Seminar Parallele Rechnerarchitekturen SS04 \ SIMD Implementierung aktueller Prozessoren 2 (Dominik Tamm) \ Inhalt. Seite 1 \ Inhalt Seite 1 \ Inhalt SIMD Kurze Rekapitulation 3Dnow! (AMD) AltiVec (PowerPC) Quellen Seite 2 \ Wir erinnern uns: Nach Flynn s Taxonomie kann man jeden Computer In eine von vier Kategorien einteilen:

Mehr

Mehrprozessorarchitekturen

Mehrprozessorarchitekturen Mehrprozessorarchitekturen (SMP, UMA/NUMA, Cluster) Arian Bär 12.07.2004 12.07.2004 Arian Bär 1 Gliederung 1. Einleitung 2. Symmetrische Multiprozessoren (SMP) Allgemeines Architektur 3. Speicherarchitekturen

Mehr

IT für Führungskräfte. Zentraleinheiten. 11.04.2002 Gruppe 2 - CPU 1

IT für Führungskräfte. Zentraleinheiten. 11.04.2002 Gruppe 2 - CPU 1 IT für Führungskräfte Zentraleinheiten 11.04.2002 Gruppe 2 - CPU 1 CPU DAS TEAM CPU heißt Central Processing Unit! Björn Heppner (Folien 1-4, 15-20, Rollenspielpräsentation 1-4) Harald Grabner (Folien

Mehr

Gliederung Seite 1. Gliederung

Gliederung Seite 1. Gliederung Gliederung Seite 1 Gliederung 1. Klassifikationen...6 1.1. Klassifikation nach der Kopplung der rechnenden Einheiten...6 1.1.1. Enge Kopplung...6 1.1.2. Lose Kopplung...6 1.2. Klassifikation nach der Art

Mehr

Paralleles Rechnen. (Architektur verteilter Systeme) von Thomas Offermann Philipp Tommek Dominik Pich

Paralleles Rechnen. (Architektur verteilter Systeme) von Thomas Offermann Philipp Tommek Dominik Pich Paralleles Rechnen (Architektur verteilter Systeme) von Thomas Offermann Philipp Tommek Dominik Pich Gliederung Motivation Anwendungsgebiete Warum paralleles Rechnen Flynn's Klassifikation Theorie: Parallel

Mehr

Rechneraufbau und Rechnerstrukturen

Rechneraufbau und Rechnerstrukturen Rechneraufbau und Rechnerstrukturen von Prof. Dr. Walter Oberschelp, RWTH Aachen und Prof. Dr. Gottfried Vossen, Universität Münster 7, vollständig überarbeitete und aktualisierte Auflage R.Oldenbourg

Mehr

Parallele Programmiermodelle

Parallele Programmiermodelle Parallele Programmiermodelle ProSeminar: Parallele Programmierung Semester: WS 2012/2013 Dozentin: Margarita Esponda Einleitung - Kurzer Rückblick Flynn'sche Klassifikationsschemata Unterteilung nach Speicherorganissation

Mehr

Rechneraufbau und Rechnerstrukturen

Rechneraufbau und Rechnerstrukturen Rechneraufbau und Rechnerstrukturen von Prof. Dr. em. Walter Oberschelp, RWTH Aachen und Prof. Dr. Gottfried Vossen, Universität Münster 9. Auflage Oldenbourg Verlag München Wien Inhaltsverzeichnis Vorwort

Mehr

Parallelverarbeitung. Parallelverarbeitung. 2. Grundlagen. 2. Grundlagen. 2.1 Parallelität

Parallelverarbeitung. Parallelverarbeitung. 2. Grundlagen. 2. Grundlagen. 2.1 Parallelität 2. Grundlagen Parallelverarbeitung SS 2005 Inhalt Parallelität Ebenen der Parallelität Parallelrechnerarchitekturen Parallele Programmiermodelle 18.04.05 Roland Wismüller, Univ. Siegen roland.wismueller@uni-siegen.de

Mehr

Vorlesung "Struktur von Mikrorechnern" (CBS)

Vorlesung Struktur von Mikrorechnern (CBS) Ziele eines Mehrrechnerkonzeptes - Aufteilung von Aufgaben auf mehrere en kostengünstige Leistungssteigerung -einzelne en können auf privaten und auf gemeinsamen zurückgreifen -en können selbständig agieren

Mehr

Parallelrechner (1) Anwendungen: Simulation von komplexen physikalischen oder biochemischen Vorgängen Entwurfsunterstützung virtuelle Realität

Parallelrechner (1) Anwendungen: Simulation von komplexen physikalischen oder biochemischen Vorgängen Entwurfsunterstützung virtuelle Realität Parallelrechner (1) Motivation: Bedarf für immer leistungsfähigere Rechner Leistungssteigerung eines einzelnen Rechners hat physikalische Grenzen: Geschwindigkeit von Materie Wärmeableitung Transistorgröße

Mehr

Johann Wolfgang Goethe-Universität

Johann Wolfgang Goethe-Universität Flynn sche Klassifikation SISD (single instruction, single data stream): IS IS CU PU DS MM Mono (Mikro-)prozessoren CU: Control Unit SM: Shared Memory PU: Processor Unit IS: Instruction Stream MM: Memory

Mehr

3 Technikarchitekturen

3 Technikarchitekturen 3 Technikarchitekturen 3.1 Rechnerarchitektur Definition Taxonomien Komponenten Rechnergrößentypologie 3.2 Kommunikationssystemarchitektur ISO-Referenzmodell TCP/IP Grundlagen der Telekommunikation 3.3

Mehr

Konzepte der parallelen Programmierung

Konzepte der parallelen Programmierung Fakultät Informatik, Institut für Technische Informatik, Professur Rechnerarchitektur Konzepte der parallelen Programmierung Parallele Programmiermodelle Nöthnitzer Straße 46 Raum 1029 Tel. +49 351-463

Mehr

Rechnergrundlagen SS 2007. 11. Vorlesung

Rechnergrundlagen SS 2007. 11. Vorlesung Rechnergrundlagen SS 2007 11. Vorlesung Inhalt Evaluation der Lehre (Auswertung) Synchroner/asynchroner Systembus Kontrollfluss/Datenfluss RISC vs. CISC Speicherhierarchie Cache Lesen Schreiben Überschreiben

Mehr

Übersicht. Einleitung. Übersicht. Architektur. Dr.-Ing. Volkmar Sieh WS 2008/2009

Übersicht. Einleitung. Übersicht. Architektur. Dr.-Ing. Volkmar Sieh WS 2008/2009 Übersicht Einleitung 1 Einleitung Dr.-Ing. Volkmar Sieh 2 Technologische Trends Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 3 Historischer

Mehr

Rechnerarchitektur und Betriebssysteme (CS201): Multiprogramming und -Tasking Flynn-Klassifikation, ILP, VLIW

Rechnerarchitektur und Betriebssysteme (CS201): Multiprogramming und -Tasking Flynn-Klassifikation, ILP, VLIW Rechnerarchitektur und Betriebssysteme (CS201): Multiprogramming und -Tasking Flynn-Klassifikation, ILP, VLIW 26. Oktober 2012 Prof. Dr. Christian Tschudin Departement Informatik, Universität Basel Uebersicht

Mehr

Distributed Memory Computer (DMC)

Distributed Memory Computer (DMC) Distributed Memory Computer (DMC) verteilter Speicher: jeder Prozessor kann nur auf seinen lokalen Speicher zugreifen Kopplung mehrerer Prozessoren über E/A-Schnittstellen und Verbindungsnetzwerk, nicht

Mehr

OpenCL. Programmiersprachen im Multicore-Zeitalter. Tim Wiersdörfer

OpenCL. Programmiersprachen im Multicore-Zeitalter. Tim Wiersdörfer OpenCL Programmiersprachen im Multicore-Zeitalter Tim Wiersdörfer Inhaltsverzeichnis 1. Was ist OpenCL 2. Entwicklung von OpenCL 3. OpenCL Modelle 1. Plattform-Modell 2. Ausführungs-Modell 3. Speicher-Modell

Mehr

B Einführung. 1 Historische Entwicklung. 1 Historische Entwicklung (3) 1 Historische Entwicklung (2)

B Einführung. 1 Historische Entwicklung. 1 Historische Entwicklung (3) 1 Historische Entwicklung (2) 1 Historische Entwicklung 8500 v. Chr.: Zählsysteme in vielen Kulturen benutzt häufig 5 oder 10 als Basis 1. historische Entwicklung 2. Entwicklung der Mikroprozessoren 3. Entwicklung der Betriebssysteme

Mehr

Computational Biology: Bioelektromagnetismus und Biomechanik

Computational Biology: Bioelektromagnetismus und Biomechanik Computational Biology: Bioelektromagnetismus und Biomechanik Implementierung Gliederung Wiederholung: Biomechanik III Statische Elastomechanik Finite Elemente Diskretisierung Finite Differenzen Diskretisierung

Mehr

Besprechung des 5. Übungsblattes Parallelität innerhalb der CPU Pipelining

Besprechung des 5. Übungsblattes Parallelität innerhalb der CPU Pipelining Themen heute Besprechung des 5. Übungsblattes Parallelität innerhalb der CPU Pipelining Organisatorisches Wie schon in den vorhergehenden Tutorien erwähnt, ist Mehrfachabgabe, außer bei Programmieraufgaben,

Mehr

Rechnerarchitektur SS 2012

Rechnerarchitektur SS 2012 Rechnerarchitektur SS 2012 Parallele Rechnersysteme TU Dortmund, Fakultät für Informatik XII Literatur: Hennessy/Patterson: Computer Architecture, 3. Auflage, 2003, Kapitel 6, S. 527ff. Huang: Advanced

Mehr

Grundlagen der Parallelisierung

Grundlagen der Parallelisierung Grundlagen der Parallelisierung Philipp Kegel, Sergei Gorlatch AG Parallele und Verteilte Systeme Institut für Informatik Westfälische Wilhelms-Universität Münster 3. Juli 2009 Inhaltsverzeichnis 1 Einführung

Mehr

Verteilte Systeme - Einleitung

Verteilte Systeme - Einleitung Verteilte Systeme - Einleitung... alois.schuette@h-da.de Alois Schütte 15. Oktober 2014 1 / 36 Inhaltsverzeichnis Ziel dieses Teils der Veranstaltung ist es, die wichtigsten Begriffe zu erklären und Abgrenzungen

Mehr

Multicore-Architekturen

Multicore-Architekturen Universität Erlangen- Nürnberg Technische Universität München Universität Stuttgart Multicore-Architekturen Vortrag im Rahmen der Ferienakademie 2009 Kurs 1: Programmierkonzepte für Multi-Core Rechner

Mehr

CARL HANSER VERLAG. Christian Märtin. Einführung in die Rechnerarchitektur Prozessoren und Systeme

CARL HANSER VERLAG. Christian Märtin. Einführung in die Rechnerarchitektur Prozessoren und Systeme CARL HANSER VERLAG Christian Märtin Einführung in die Rechnerarchitektur Prozessoren und Systeme 3-446-22242-1 www.hanser.de 6 Inhalt INHALTSVERZEICHNIS 1 IM WETTLAUF MIT MOORE S LAW 10 1.1 Moderner Rechnerarchitekturbegriff

Mehr

LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610

LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610 LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610 Dominik Weinrich dominik.weinrich@tu-dresden.de Dresden, 30.11.2017 Gliederung Motivation Aufbau und Hardware

Mehr

Parallele und verteilte Programmierung

Parallele und verteilte Programmierung Thomas Rauber Gudula Rünger Parallele und verteilte Programmierung Mit 165 Abbildungen und 17 Tabellen Jp Springer Inhaltsverzeichnis 1. Einleitung 1 Teil I. Architektur 2. Architektur von Parallelrechnern

Mehr

Rechnerarchitektur SS 2014

Rechnerarchitektur SS 2014 Rechnerarchitektur SS 2014 Parallele Rechnersysteme Michael Engel TU Dortmund, Fakultät für Informatik Teilweise basierend auf Material von Gernot A. Fink und R. Yahyapour 3. Juni 2014 1/30 Mehrprozessorsysteme

Mehr

Teil Rechnerarchitekturen M07. Multiprogramming und Tasking, Flynn-Klassifikation, Parallelismus. Corinna Schmitt

Teil Rechnerarchitekturen M07. Multiprogramming und Tasking, Flynn-Klassifikation, Parallelismus. Corinna Schmitt Teil Rechnerarchitekturen M07 Multiprogramming und Tasking, Flynn-Klassifikation, Parallelismus Corinna Schmitt corinna.schmitt@unibas.ch Multiprogrammierung und -Tasking 2015 Corinna Schmitt Teil Rechnerarchitekturen

Mehr

Systeme I: Betriebssysteme Kapitel 4 Prozesse. Wolfram Burgard

Systeme I: Betriebssysteme Kapitel 4 Prozesse. Wolfram Burgard Systeme I: Betriebssysteme Kapitel 4 Prozesse Wolfram Burgard Version 18.11.2015 1 Inhalt Vorlesung Aufbau einfacher Rechner Überblick: Aufgabe, Historische Entwicklung, unterschiedliche Arten von Betriebssystemen

Mehr

Kapitel 1 Parallele Modelle Wie rechnet man parallel?

Kapitel 1 Parallele Modelle Wie rechnet man parallel? PRAM- PRAM- DAG- R UND R Coles und Kapitel 1 Wie rechnet man parallel? Vorlesung Theorie Paralleler und Verteilter Systeme vom 11. April 2008 der Das DAG- Das PRAM- Das werkmodell Institut für Theoretische

Mehr

ZENTRALEINHEITEN GRUPPE

ZENTRALEINHEITEN GRUPPE 31. Oktober 2002 ZENTRALEINHEITEN GRUPPE 2 Rita Schleimer IT für Führungskräfte WS 2002/03 1 Rita Schleimer TEIL 1 - Inhalt Zentraleinheit - Überblick Architekturprinzipien Zentralspeicher IT für Führungskräfte

Mehr

Überblick und Aufgaben

Überblick und Aufgaben Aufgaben eines Betriebssystems Komponenten und Benutzer eines Rechnersystems Endbenutzer Applikationen Middleware Applikations- Programmierer System- Programmierer Betriebssystem Hardware 5 Aufgaben eines

Mehr

Datenbanken Implementierungstechniken SS2015

Datenbanken Implementierungstechniken SS2015 Hochschule für Technik, Wirtschaft und Kultur Leipzig Leipzig University of Applied Sciences Parallele DBMS Datenbanken Implementierungstechniken SS2015 Alexander Müller Fakultät Informatik, Mathematik

Mehr

Abkürzungen. Kapitel 1 - Einleitung Stand der Automobilelektronik Historische Entwicklung Gegenwärtige Probleme 2

Abkürzungen. Kapitel 1 - Einleitung Stand der Automobilelektronik Historische Entwicklung Gegenwärtige Probleme 2 Inhalt Abkürzungen X Kapitel 1 - Einleitung 1 1.1 Stand der Automobilelektronik 1 1.1.1 Historische Entwicklung 1 1.1.2 Gegenwärtige Probleme 2 1.2 Zielsetzung 5 1.3 Aufbau der Arbeit 6 1.4 Veröffentlichungen

Mehr

CPU Speicher I/O. Abbildung 11.1: Kommunikation über Busse

CPU Speicher I/O. Abbildung 11.1: Kommunikation über Busse Kapitel 11 Rechnerarchitektur 11.1 Der von-neumann-rechner Wir haben uns bisher mehr auf die logischen Bausteine konzentriert. Wir geben jetzt ein Rechnermodell an, das der physikalischen Wirklichkeit

Mehr

Rechneraufbau und Rechnerstrukturen

Rechneraufbau und Rechnerstrukturen Rechneraufbau und Rechnerstrukturen von Walter Oberschelp RWTH Aachen und Gottfried Vossen Universität Münster 10. Auflage c 2006 R. Oldenbourg Verlag GmbH, München Inhaltsverzeichnis Auszug... x... aus

Mehr

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1 Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer

Mehr

2.2 Rechnerorganisation: Aufbau und Funktionsweise

2.2 Rechnerorganisation: Aufbau und Funktionsweise 2.2 Rechnerorganisation: Aufbau und Funktionsweise é Hardware, Software und Firmware é grober Aufbau eines von-neumann-rechners é Arbeitsspeicher, Speicherzelle, Bit, Byte é Prozessor é grobe Arbeitsweise

Mehr

Technische Grundlagen der Informatik 2 SS Einleitung. R. Hoffmann FG Rechnerarchitektur Technische Universität Darmstadt E-1

Technische Grundlagen der Informatik 2 SS Einleitung. R. Hoffmann FG Rechnerarchitektur Technische Universität Darmstadt E-1 E-1 Technische Grundlagen der Informatik 2 SS 2009 Einleitung R. Hoffmann FG Rechnerarchitektur Technische Universität Darmstadt Lernziel E-2 Verstehen lernen, wie ein Rechner auf der Mikroarchitektur-Ebene

Mehr

TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D.

TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D. TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D. Blatt Nr. 07 Übung zur Vorlesung Einsatz und Realisierung von Datenbanksystemen im SoSe16 Moritz Kaufmann

Mehr

3. Rechnerarchitektur

3. Rechnerarchitektur ISS: EDV-Grundlagen 1. Einleitung und Geschichte der EDV 2. Daten und Codierung 3. Rechnerarchitektur 4. Programmierung und Softwareentwicklung 5. Betriebssyteme 6. Internet und Internet-Dienste 3. Rechnerarchitektur

Mehr

Technische Informatik I, SS 2001

Technische Informatik I, SS 2001 Technische Informatik I SS 2001 PD Dr. A. Strey Abteilung Neuroinformatik Universität Ulm Inhalt Einführung: Überblick über die historische Entwicklung der Rechnerhardware Teil 1: Digitale Logik kurzer

Mehr

Inhaltsangabe. 2.1 DieCPU Der Speicher Die Busse Klassifikation der von-neumann-rechner... 37

Inhaltsangabe. 2.1 DieCPU Der Speicher Die Busse Klassifikation der von-neumann-rechner... 37 2 Rechnerarchitektur - Grundlegende Rechnerarchitektur - Bestandteile eines Rechners - Klassifikation von Rechnern Inhaltsangabe 2.1 DieCPU... 33 2.2 Der Speicher...... 35 2.3 Die Busse........ 37 2.4

Mehr

Kap.2 Befehlsschnittstelle. Prozessoren, externe Sicht

Kap.2 Befehlsschnittstelle. Prozessoren, externe Sicht Kap.2 Befehlsschnittstelle Prozessoren, externe Sicht 2 Befehlsschnittstelle 2.1 elementare Datentypen, Operationen 2.2 logische Speicherorganisation 2.3 Maschinenbefehlssatz 2.4 Klassifikation von Befehlssätzen

Mehr

Beispiel Parallelisierung 2D Laplace. Lagrange Formulierung/Hyperelastisches Material. Finite Differenzen Diskretisierung

Beispiel Parallelisierung 2D Laplace. Lagrange Formulierung/Hyperelastisches Material. Finite Differenzen Diskretisierung Simulation von physikalischen Feldern im menschlichen Körper Implementierung Gliederung Gliederung Wiederholung: Biomechanik III Statische elastomechanische Probleme Finite Elemente Diskretisierung Finite

Mehr

5 Weiterführende Rechnerarchitekturen

5 Weiterführende Rechnerarchitekturen 5 Weiterführende Rechnerarchitekturen 5.1 Globale Rechnerklassifikation 5.2 Lokale Prozessor-Klassifikation Befehlssatz Architekturen Stack-Architektur Akkumulator- Architektur Allgemeinzweck-Register-Architekturen

Mehr

IT-Infrastruktur, WS 2014/15, Hans-Georg Eßer

IT-Infrastruktur, WS 2014/15, Hans-Georg Eßer ITIS-D'' IT-Infrastruktur WS 2014/15 Hans-Georg Eßer Dipl.-Math., Dipl.-Inform. Foliensatz D'': Rechnerstrukturen, Teil 3 v1.0, 2014/11/27 Folie D''-1 Dieser Foliensatz Vorlesungsübersicht Seminar Wiss.

Mehr

Praktische Übungen zu Computertechnik 2. Versuchsprotokoll

Praktische Übungen zu Computertechnik 2. Versuchsprotokoll Praktische Übungen zu Computertechnik 2 Versuchsprotokoll Versuch: C2 Parallelrechner Versuchsdatum und -zeit: Donnerstag, 03. Juni 2010, 10-13 Uhr Betreuer: Adrian Knoth Name, Studiengang, Mat.-Nr.: Ralf

Mehr

Die Mikroprogrammebene eines Rechners

Die Mikroprogrammebene eines Rechners Die Mikroprogrammebene eines Rechners Das Abarbeiten eines Arbeitszyklus eines einzelnen Befehls besteht selbst wieder aus verschiedenen Schritten, z.b. Befehl holen Befehl dekodieren Operanden holen etc.

Mehr

Abschlussklausur Informatik, SS 2012

Abschlussklausur Informatik, SS 2012 Abschlussklausur Informatik, SS 202 09.07.202 Name, Vorname: Matr.-Nr.: Unterschrift: Zugelassene Hilfsmittel: außer Stift und Papier keine Hinweis: Geben Sie bei allen Berechnungen den vollständigen Rechenweg

Mehr

Systeme I: Betriebssysteme Kapitel 4 Prozesse. Maren Bennewitz

Systeme I: Betriebssysteme Kapitel 4 Prozesse. Maren Bennewitz Systeme I: Betriebssysteme Kapitel 4 Prozesse Maren Bennewitz Version 13.11.2013 1 Inhalt Vorlesung Aufbau einfacher Rechner Überblick: Aufgabe, Historische Entwicklung, unterschiedliche Arten von Betriebssystemen

Mehr

Grundlagen der Programmierung 2. Parallele Verarbeitung

Grundlagen der Programmierung 2. Parallele Verarbeitung Grundlagen der Programmierung 2 Parallele Verarbeitung Prof. Dr. Manfred Schmidt-Schauÿ Künstliche Intelligenz und Softwaretechnologie 27. Mai 2009 Parallele Algorithmen und Ressourcenbedarf Themen: Nebenläufigkeit,

Mehr

Spielst du noch oder rechnest du schon?

Spielst du noch oder rechnest du schon? Spielst du noch oder rechnest du schon? Mit Spielkonsole und Co. zum Supercomputer der Zukunft Fachbereich Elektrotechnik und Informationstechnik Fachhochschule Bielefeld University of Applied Sciences

Mehr

Multiprozessor System on Chip

Multiprozessor System on Chip Multiprozessor System on Chip INF-M1 AW1-Vortrag 25. November 2009 Übersicht 1. Einleitung und Motivation 2. Multiprozessor System on Chip (MPSoC) 3. Multiprozessoren mit Xilinx EDK 4. FAUST SoC Fahrzeug

Mehr

11.0 Rechnerarchitekturen

11.0 Rechnerarchitekturen 11.0 Rechnerarchitekturen Die Ziele dieses Kapitels sind: Kennen lernen der Rechnerklassifikation nach Flynn Betrachtung von Prozessorarchitekturen auf verschiedenen Abstraktionsebenen - Befehlsarchitektur

Mehr

OpenMP - Threading- Spracherweiterung für C/C++ Matthias Klein, Michael Pötz Systemprogrammierung 15. Juni 2009

OpenMP - Threading- Spracherweiterung für C/C++ Matthias Klein, Michael Pötz Systemprogrammierung 15. Juni 2009 - Threading- Spracherweiterung für C/C++ Matthias Klein, Michael Pötz Systemprogrammierung 15. Juni 2009 Grundlagen der Parallelen Programmierung Hardware Threads vs. Prozesse Kritische Abschnitte Lange

Mehr

Wichtige Rechnerarchitekturen

Wichtige Rechnerarchitekturen Wichtige Rechnerarchitekturen Teil 5 INMOS Transputer, CSP/Occam 1 INMOS Transputer 1983 vorgestellt von der Firma INMOS (Bristol) (Entwicklung seit 1978) Der Name Transputer entstand als Kunstwort aus

Mehr

Inhalt. Prozessoren. Curriculum Manfred Wilfling. 28. November HTBLA Kaindorf. M. Wilfling (HTBLA Kaindorf) CPUs 28. November / 9

Inhalt. Prozessoren. Curriculum Manfred Wilfling. 28. November HTBLA Kaindorf. M. Wilfling (HTBLA Kaindorf) CPUs 28. November / 9 Inhalt Curriculum 1.4.2 Manfred Wilfling HTBLA Kaindorf 28. November 2011 M. Wilfling (HTBLA Kaindorf) CPUs 28. November 2011 1 / 9 Begriffe CPU Zentraleinheit (Central Processing Unit) bestehend aus Rechenwerk,

Mehr

TECHNISCHE HOCHSCHULE NÜRNBERG GEORG SIMON OHM Die Mikroprogrammebene eines Rechners Das Abarbeiten eines Arbeitszyklus eines einzelnen Befehls besteht selbst wieder aus verschiedenen Schritten, z.b. Befehl

Mehr

2.7. REALE PARALLELRECHNER UND DIE TOP500-LISTE

2.7. REALE PARALLELRECHNER UND DIE TOP500-LISTE Vorlesung 9 2.7. EALE PAALLELECHNE UND DIE TOP500-LISTE c 2010 BY SEGEI GOLATCH UNI MÜNSTE PAALLELE SYSTEME VOLESUNG 9 1 Vorlesung 9 2.7. EALE PAALLELECHNE UND DIE TOP500-LISTE Flynn sche Klassifikation

Mehr

COMPUTERKLASSEN MULTICOMPUTER und SPEZIALANWENDUNGSSYSTEME

COMPUTERKLASSEN MULTICOMPUTER und SPEZIALANWENDUNGSSYSTEME D - CA - XIX - CC,M&SPC - 1 HUMBOLDT-UNIVERSITÄT ZU BERLIN INSTITUT FÜR INFORMATIK Vorlesung 19 COMPUTERKLASSEN MULTICOMPUTER und SPEZIALANWENDUNGSSYSTEME Sommersemester 2003 Leitung: Prof. Dr. Miroslaw

Mehr

Systeme I: Betriebssysteme Kapitel 4 Prozesse. Maren Bennewitz

Systeme I: Betriebssysteme Kapitel 4 Prozesse. Maren Bennewitz Systeme I: Betriebssysteme Kapitel 4 Prozesse Maren Bennewitz Version 21.11.2012 1 Begrüßung Heute ist Tag der offenen Tür Willkommen allen Schülerinnen und Schülern! 2 Testat nach Weihnachten Mittwoch

Mehr

Universität Karlsruhe (TH)

Universität Karlsruhe (TH) Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Programmtransformationen: Vom PRAM Algorithmus zum MPI Programm Prof. Dr. Walter F. Tichy Dr. Victor Pankratius Ali Jannesari Modell und

Mehr

OpenMP. Viktor Styrbul

OpenMP. Viktor Styrbul OpenMP Viktor Styrbul Inhaltsverzeichnis Was ist OpenMP Warum Parallelisierung Geschichte Merkmale von OpenMP OpenMP-fähige Compiler OpenMP Ausführungsmodell Kernelemente von OpenMP Zusammenfassung Was

Mehr

CUDA. Moritz Wild, Jan-Hugo Lupp. Seminar Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg

CUDA. Moritz Wild, Jan-Hugo Lupp. Seminar Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg CUDA Seminar Multi-Core Architectures and Programming 1 Übersicht Einleitung Architektur Programmierung 2 Einleitung Computations on GPU 2003 Probleme Hohe Kenntnisse der Grafikprogrammierung nötig Unterschiedliche

Mehr

Gliederung. Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo

Gliederung. Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo Gliederung Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo Was ist CUDA? Nvidia CUDA ist eine von NvidiaGPGPU-Technologie, die es Programmierern erlaubt, Programmteile

Mehr

nutzt heute Diese Prinzipien werden wir im Kapitel 3 behandelt Lehrstuhl für Informatik 3 - D. Fey Vorlesung GRa - SS

nutzt heute Diese Prinzipien werden wir im Kapitel 3 behandelt Lehrstuhl für Informatik 3 - D. Fey Vorlesung GRa - SS 3.1 Einführung (1) Nahezu jeder Prozessor in einem Desktop-Rechner (der auf oder unter dem Tisch steht) und in einem Server- Rechner (auf dem man sich von der Ferne einloggt und dort rechnet) nutzt heute

Mehr

Prozessor- und Rechnerarchitekturen (Master)

Prozessor- und Rechnerarchitekturen (Master) Prozessor- und Rechnerarchitekturen (Master) Themen am 28.06.17: Semesterrückblick, Terminplanung Ihrer Vorträge ProRecArc17_V10 Ulrich Schaarschmidt HS Düsseldorf, SS 2017 V1 (5.4.): Termine + mögliche

Mehr

Parallele und verteilte Anwendungen in Java

Parallele und verteilte Anwendungen in Java Rainer Oechsle Parallele und verteilte Anwendungen in Java ISBN-10: 3-446-40714-6 ISBN-13: 978-3-446-40714-5 Leseprobe Weitere Informationen oder Bestellungen unter http://www.hanser.de/978-3-446-40714-5

Mehr

RST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck

RST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck RST-Labor WS06/07 GPGPU General Purpose Computation On Graphics Processing Units (Grafikkarten-Programmierung) Von: Marc Blunck Ablauf Einführung GPGPU Die GPU GPU Architektur Die Programmierung Programme

Mehr

VS2 Slide 1. Verteilte Systeme. Vorlesung 2 vom Dr. Sebastian Iwanowski FH Wedel

VS2 Slide 1. Verteilte Systeme. Vorlesung 2 vom Dr. Sebastian Iwanowski FH Wedel VS2 Slide 1 Verteilte Systeme Vorlesung 2 vom 15.04.2004 Dr. Sebastian Iwanowski FH Wedel VS2 Slide 2 Inhaltlicher Umfang dieser Vorlesung Inhaltliche Voraussetzungen: Programmieren, Grundkenntnisse Java

Mehr

Teil VIII Von Neumann Rechner 1

Teil VIII Von Neumann Rechner 1 Teil VIII Von Neumann Rechner 1 Grundlegende Architektur Zentraleinheit: Central Processing Unit (CPU) Ausführen von Befehlen und Ablaufsteuerung Speicher: Memory Ablage von Daten und Programmen Read Only

Mehr

2.5. VERBINDUNGSNETZWERKE GESTALTUNGSKRITERIEN DER NETZWERKE TOPOLOGIE ALS GRAPH. Vorlesung 5 TOPOLOGIE: DEFINITIONEN : Sei G = (V, E) ein Graph mit:

2.5. VERBINDUNGSNETZWERKE GESTALTUNGSKRITERIEN DER NETZWERKE TOPOLOGIE ALS GRAPH. Vorlesung 5 TOPOLOGIE: DEFINITIONEN : Sei G = (V, E) ein Graph mit: Vorlesung 5.5. VERBINDUNGSNETZWERKE Kommunikation zwischen den einzelnen Komponenten eines arallelrechners wird i.d.r. über ein Netzwerk organisiert. Dabei unterscheidet man zwei Klassen der Rechner: TOOLOGIE:

Mehr

Teil Rechnerarchitekturen. Repetitorium. Corinna Schmitt

Teil Rechnerarchitekturen. Repetitorium. Corinna Schmitt Teil Rechnerarchitekturen Repetitorium Corinna Schmitt corinna.schmitt@unibas.ch Vorlesungsinhalt Rechnerarchitekturen M01: Architektur, ALU, Flip-Flop M02: Einführung in die Sprache C M03: 2er-Komplement,

Mehr

Konzepte und Methoden der Systemsoftware. Aufgabe 1: Polling vs Interrupts. SoSe bis P

Konzepte und Methoden der Systemsoftware. Aufgabe 1: Polling vs Interrupts. SoSe bis P SoSe 2014 Konzepte und Methoden der Systemsoftware Universität Paderborn Fachgebiet Rechnernetze Präsenzübung 3(Musterlösung) 2014-05-05 bis 2014-05-09 Aufgabe 1: Polling vs Interrupts (a) Erläutern Sie

Mehr

Rechner Architektur. Martin Gülck

Rechner Architektur. Martin Gülck Rechner Architektur Martin Gülck Grundlage Jeder Rechner wird aus einzelnen Komponenten zusammengesetzt Sie werden auf dem Mainboard zusammengefügt (dt.: Hauptplatine) Mainboard wird auch als Motherboard

Mehr

Masterpraktikum Scientific Computing

Masterpraktikum Scientific Computing Masterpraktikum Scientific Computing High-Performance Computing Thomas Auckenthaler Alexander Heinecke Technische Universität München, Germany Outline Gastvortrag + Begin 14:30 Logins Ebenen der Parallelität

Mehr

Grundlagen der Rechnerarchitektur

Grundlagen der Rechnerarchitektur Grundlagen der Rechnerarchitektur Speicher Übersicht Speicherhierarchie Cache Grundlagen Verbessern der Cache Performance Virtueller Speicher SS 2012 Grundlagen der Rechnerarchitektur Speicher 2 Speicherhierarchie

Mehr

Mikroprozessoren. Aufbau und Funktionsweise. Christian Richter. Ausgewählte Themen der Multimediakommunikation SS 2005

Mikroprozessoren. Aufbau und Funktionsweise. Christian Richter. Ausgewählte Themen der Multimediakommunikation SS 2005 Mikroprozessoren Aufbau und Funktionsweise Christian Richter Ausgewählte Themen der Multimediakommunikation SS 2005 Christian Richter (TU-Berlin) Mikroprozessoren AT MMK 2005 1 / 22 Gliederung Was ist

Mehr

Tutorium Rechnerorganisation

Tutorium Rechnerorganisation Woche 3 Tutorien 3 und 4 zur Vorlesung Rechnerorganisation 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu

Mehr

High Performance Embedded Processors

High Performance Embedded Processors High Performance Embedded Processors Matthias Schwarz Hardware-Software-Co-Design Universität Erlangen-Nürnberg martin.rustler@e-technik.stud.uni-erlangen.de matthias.schwarz@e-technik.stud.uni-erlangen.de

Mehr

Protected User-Level DMA in SCI Shared Memory Umgebungen

Protected User-Level DMA in SCI Shared Memory Umgebungen Protected User-Level DMA in SCI Shared Memory Umgebungen Mario Trams University of Technology Chemnitz, Chair of Computer Architecture 6. Halle Chemnitz Seminar zu Parallelverarbeitung und Programmiersprachen

Mehr

Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern

Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern Institut für Betriebssysteme und Rechnerverbund TU Braunschweig 25.10., 26.10.

Mehr

z/architektur von IBM

z/architektur von IBM von IBM Grundzüge einer modernen Architektur Von Matthias Fäth Gliederung Geschichtlicher Überblick Neuestes Flaggschiff Namensgebung Überblick Warum 64-Bit große Register Kompatibilität zu älteren Systemen

Mehr

é Er ist software-transparent, d.h. der Benutzer braucht nichts von seiner Existenz zu wissen. Adreßbus Cache- Control Datenbus

é Er ist software-transparent, d.h. der Benutzer braucht nichts von seiner Existenz zu wissen. Adreßbus Cache- Control Datenbus 4.2 Caches é Cache kommt aus dem Französischen: cacher (verstecken). é Er kann durch ein Anwendungsprogramm nicht explizit adressiert werden. é Er ist software-transparent, d.h. der Benutzer braucht nichts

Mehr

Bsys2 Zusammenfassung. Definition Die CPU ist das Gehirn des Computers. Sie holt Befehle aus dem Speicher und führt sie aus.

Bsys2 Zusammenfassung. Definition Die CPU ist das Gehirn des Computers. Sie holt Befehle aus dem Speicher und führt sie aus. Prozessoren Definition Die CPU ist das Gehirn des Computers. Sie holt Befehle aus dem Speicher und führt sie aus. Register Alle Prozessoren besitzen interne Register, um den Zugriff auf Daten zu beschleunigen.

Mehr

Opteron und I/O. Toni Schmidbauer. 11. Mai Zusammenfassung. Eine kurze Beschreibung der AMD Opteron Architektur.

Opteron und I/O. Toni Schmidbauer. 11. Mai Zusammenfassung. Eine kurze Beschreibung der AMD Opteron Architektur. Opteron und I/O Toni Schmidbauer 11. Mai 2005 Zusammenfassung Eine kurze Beschreibung der AMD Opteron Architektur Inhaltsverzeichnis 1 Allgemeines 2 2 Was ist ein Interconnect? 2 3 Traditionelles PC Chipset

Mehr

Wichtige Rechnerarchitekturen

Wichtige Rechnerarchitekturen Wichtige Rechnerarchitekturen Teil 1 Überblick 1 Rechnergeschichte: Mechanische Rechenmaschinen Mechanische Rechenmaschinen (17.Jahrhundert) Rechenuhr von Schickard (1623) Pascaline von Blaise Pascal (1642)

Mehr