Multicore Architektur vs. Amdahl`s Gesetz
|
|
|
- Kristin Engel
- vor 9 Jahren
- Abrufe
Transkript
1 Fakultätsname Informatik, Professur Technische Informatik Multicore Architektur vs. Amdahl`s Gesetz Dresden, 21.Juli.2010
2 Motivation Veröffentlichung von IEEE Computer 2008 von Mark D. Hill (University of Wisconsin Madison) und Michael R. Marty (Google) Vol. 41 Nr. 7 Seiten: Titel: Amdahl s Law in the Multicore Era Inhalt: Diskussion über das Gesetz von Amdahl und daraus folgenden Schlüssen für das Design von zukünftigen multiplen Prozessor Kernen. Zur Erreichung einer optimalen Leistung muss auf den Gebieten geforscht werden, wie sequentielle Kerne schneller gemacht werden können und wie mehr Parallelisierung extrahiert werden kann. Internet: TU Dresden, Amdahl s Gesetz Folie 2
3 Inhalt - Einleitung - Amdahls Gesetz - Ansatz von Gustafson - Ergebnisse von Hill und Marty - Symmetrischer Multikern - Asymmetrischer Multikern - Dynamischer Multikern - Schlussfolgerungen TU Dresden, Amdahl s Gesetz Folie 3
4 Designentscheidungen für Multicore Prozessoren - Heutige Mehrprozessor Designer müssen unter anderem folgende Punkte beim Entwurf beachten: - Anzahl der Kerne - Art der Pipeline: eine Pipeline oder Mehrzweck Pipelines - Architektur der Kerne: gleiche oder unterschiedlich - Powermanagement aus statischen oder dynamischen Quellen und Chipfläche TU Dresden, Amdahl s Gesetz Folie 4
5 Was sagt das Gesetz von Amdahl (1967): - Modell über die Beschleunigung von Programmen bei paralleler Ausführung - Ausgehend von einer festen Problemgröße, wird versucht das Problem durch Parallelverarbeitung in kürzerer Zeit zu lösen - Bestmögliches Ergebnis ist eine lineare Verbesserung der benötigten Zeit (1/(1-p)) - Doppelte Anzahl an Prozessoren halbe Zeit - Nach Amdahl wird der Geschwindigkeits Zuwachs bei Parallelverarbeitung durch den sequentiellen Anteil der Programme beschränkt TU Dresden, Folie 5
6 Formel Beschleunigung S = Zeit für serielle Abarbeitung / Zeit für parallele Abarbeitung Amdahls Gesetz: Beschleunigung ist durch den Teil definiert der nicht parallelisiert werden kann wenn kein Kode parallelisiert werden kann ist P=0 => Beschleunigung =1 wenn der gesamte Kode parallelisiert werden kann ist P=1 => Beschleunigung = undefiniert Formel: S - Beschleunigung s = (1 1 P) + P N P Parallelteil N Anzahl der Kerne TU Dresden, Amdahl s Gesetz Folie 6
7 Beschleunigung und Prozessorenanzahl Zusammenhang der Beschleunigung in Abhängigkeit von der Anzahl der Prozessoren und parallelen Anteil in Programmen ,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0, TU Dresden, Amdahl s Gesetz Folie 7
8 Kritikpunkte - Bei diesem Ansatz werden die Programme in zwei Welten geteilt, den Teil der parallelisiert werden kann und den der sequentiell ablaufen muss - Für kleine parallele Anteile haben Optimierungen wenig Effekt - Nach Amdahl ist die bestmögliche Beschleunigung linear s 1 1 p TU Dresden, Amdahl`s Gesetz Folie 8
9 Ansatz von Gustafson (1988) - Es geht davon aus, dass ein genügend großes Problem effizient parallelisiert werden kann - Ausgehend von einer festen Problemgröße wird versucht es mit mehr Prozessoren in kürzerer Zeit zu erledigen - Die Beschleunigung ist (E. Barsis) : S(N) = (1-P)+N*P - Kritikpunkte: - Es gibt Aufgaben die sich nicht beliebig vergrößern lassen - Nichtlineare Algorithmen können nicht vollständig von der beschriebenen Parallelisierung profitieren TU Dresden, Amdahl s Gesetz Folie 9
10 Vergleich der Ansätze von Amdahl und Gustafson Ansatz von Gustafson: Ansatz von Amdahl: serieller Anteil paralleler Anteil TU Dresden, Amdahl s Gesetz Folie 10
11 Vorschlag von Hill und Marty (2008) Hill und Marty schlagen andere Modelle zur Berechnung der Beschleunigung vor: der serielle Anteil kann durch komplexere Kerne beschleunigt werden, die mit dem Faktor R beschleunigt werden die Beschleunigung für den seriellen Anteil kann mit: perf(r) = R angenähert werden (siehe Shekar Borkar) Mit R Anzahl der Kerne (BCE) die für die serielle Beschleunigung zusammengeschaltet werden TU Dresden, Amdahl s Gesetz Folie 11
12 Symmetrischer Prozessor - einfache BCE - Zum Beispiel RISC Prozessoren - Grafik Prozessoren TU Dresden, Amdahl s Gesetz Folie 12
13 Nvidia Tesla T 10 TU Dresden, Amdahl s Gesetz Folie 13
14 Nvidia Tesla Blockschaltbild TU Dresden, Amdahl s Gesetz Folie 14
15 Symmetrischer Multicore - Vier vierfach BCE - Zum Beispiel AMD und Intel Prozessoren TU Dresden, Amdahl s Gesetz Folie 15
16 AMD Athlon Layout TU Dresden, Amdahl s Gesetz Folie 16
17 Berechnung Marty und Hill benutzen folgende Formel zur Berechnung der symmetrischen Beschleunigung: - mit f- parallelisierbarer Anteil, n Anzahl der Kerne, r Flächenanteil an Kernen (BCE) für serielle Beschleunigung s = 1 f perf ( r) 1 f * r + perf ( r)* n TU Dresden, Amdahl s Gesetz Folie 17
18 Vergleich Symmetrischer Multicore mit 16 und 254 Kernen 256 Kerne: S = 80 für f=0,99 16 Kerne: S = 13,9 für f=0,99 Symmetric Speedup F=0.999 F=0.99 F=0.975 F=0.9 F= Symmetric Speedup 16 F= F= F= F= F= R BCEs R BCEs TU Dresden, Amdahl s Gesetz Folie 18
19 Schlussfolgerungen für symmetrisches Design 1 Resultat und Schlussfolgerung: - Amdahl s Gesetz ist für symmetrische Multikerne gültig, weil zum Erreichen der besten Beschleunigung ein Parallelanteil nahe 1 benötigt wird - Entwickler sollten die Erhöhung des parallelen Anteils durch die Architektur, Compiler Techniken und Verbesserungen im Programmodell anstreben TU Dresden, Amdahl`s Gesetz Folie 19
20 Schlussfolgerungen für symmetrisches Design 2 Resultat und Schlussfolgerung: - bei Systemen die mehr Kerne nutzen, kann es optimal sein nur einen Kern für die sequentielle Abarbeitung zu nutzen - Entwickler sollten nach Methoden suchen, die die Kernleistung erhöht, auch bei höheren Kosten TU Dresden, Amdahl`s Gesetz Folie 20
21 Schlussfolgerungen für symmetrisches Design 3 Resultat und Schlussfolgerung: - wenn man zu dichteren Chips übergeht, erhöht sich die Wahrscheinlichkeit, dass diese nicht minimal sind - Moors Gesetz führt zu größeren Multikern Chips, Entwickler sollten nach Wegen suchen leistungsfähigere Kerne zu entwickeln TU Dresden, Amdahl`s Gesetz Folie 21
22 Asymmetrischer Multicore Asymmetrischer Multicore: - oder heterogener Multicore - ein oder mehrere leistungsfähige Kerne mit mehreren einfachen Kernen - hier: - mehrere einfache BCE - eine vierfach BCE - Zum Beispiel Cell - Prozessor TU Dresden, Amdahl s Gesetz Folie 22
23 Beispiel asymmetrischer Kern: Cell Prozessor Bezeichnungen: PPE - power processing element SPE synergistic processor element (eine ALU und SIMD) EIB element interconnect bus MIC memory interface controller TU Dresden, Amdahl s Gesetz Folie 23
24 Formel für die asymmetrische Beschleunigung Marty und Hill benutzen folgende Formel zur Berechnung der asymmetrischen Beschleunigung: mit f- parallelisierbarer Anteil, n Anzahl der Kerne, r Anzahl der Kerne für serielle Beschleunigung s = 1 perf f ( r) + 1 perf f ( r) + n r TU Dresden, Amdahl s Gesetz Folie 24
25 Ergebnisse Asymmetrischer Kern Asymmetrisches Design - Der Designer kann die Chipfläche entweder mit vielen einfachen Kernen oder mit komplexeren Kernen gestalten - Beschleunigung für F=99% S = Bei 64 Kernen für serielle Beschleunigung und 193 Kernen für parallel Verarbeitung 256 Kerne Asymmetric Speedup 250 F= F= F= F=0.9 0 F= R BCEs TU Dresden, Amdahl s Gesetz Folie 25
26 Schlussfolgerungen für asymmetrisches Design 4 Resultat und Schlussfolgerung: - asymmetrisches Design kann eine größere Beschleunigung liefern als symmetrische Kerne - diese Beschleunigung ist nie schlechter als beim symmetrischen Design - Entwickler sollten weiter asymmetrisches Design untersuchen - das beinhaltet das Auseinandersetzen mit Scheduling und Overhead Herausforderungen TU Dresden, Amdahl`s Gesetz Folie 26
27 Schlussfolgerungen für asymmetrisches Design 5 Resultat und Schlussfolgerung: - dichtere Multikern Chips verbessern die Beschleunigung und die optimale Leistung eines einzelnen leistungsstarken Kerns - Entwickler sollten nach Wegen suchen den sequentiellen Anteil in Programmen zu beschleunigen, auch wenn es im Einzelfall ineffizient erscheint, kann es in der Gesamtheit effizient sein TU Dresden, Amdahl`s Gesetz Folie 27
28 Vergleich Symmetrischer mit asymmetrischer CPU Asymmetric Speedup F=0.999 F=0.99 F=0.975 F=0.9 F= Symmetric Speedup F=0.999 F=0.99 F=0.975 F=0.9 F= R BCEs R BCEs TU Dresden, Amdahl`s Gesetz Folie 28
29 Dynamischer Multikern - Ein dynamischer Multikern kann seine Ressourcen anpassen - Durch dynamische Umschaltung zwischen parallelen und seriellen Modus je nach Bedarf parallel mode sequential mode TU Dresden, Amdahl s Gesetz Folie 29
30 Beschleunigung für dynamische Multikerne Formel: 250 F=0.999 s = 1 1 f perf ( r) + f n Dynamic Speedup F=0.99 F=0.975 F=0.9 0 F= R BCEs TU Dresden, Amdahl s Gesetz Folie 30
31 Schlussfolgerungen für dynamisches Design 6 Resultat und Schlussfolgerungen: - dynamische Multikerne können höhere Beschleunigungen liefern als asymmetrische Systeme - mit der Einteilung in sequentiell und parallel kann eine höhere Beschleunigung nur durch dynamische Techniken erreicht werden - es müssten dazu mehr Kerne zur Bearbeitung des sequentiellen Anteils zusammengefügt werden als momentan möglich ist - Entwickler sollten daher Methoden untersuchen die dynamische Multikerne annähern TU Dresden, Amdahl`s Gesetz Folie 31
32 Schlussfolgerungen an das Prozessordesign 1 Schlußfolgerungen der Autoren Hill und Marty: Simple as possible, but not simpler - Beim Chipdesign sollte der Focus mehr auf der Gesamtleistung liegen als auf der Leistung der einzelnen Kerne - Wenn die Leistungsverbesserung von N Kernen größer ist als N sollten die Ressourcen erhöht werden - Wenn die Leistungssteigerung kleiner ist, müssen geeignete Kompromisse gefunden werden - Chipfläche ist wichtiger als Leistungsverbrauch TU Dresden, Amdahl s Gesetz Folie 32
33 Schlussfolgerungen an das Prozessordesign 2 Schlußfolgerungen der Autoren Hill und Marty: - Die Ergebnisse sollten mit Vorsicht betrachtet werden, weil die Realität komplexer ist, wie zum Beispiel: - Momentan ist es nicht möglich Systeme zu bauen, die eine höhere Leistung erzielen indem mehr Ressourcen genutzt werden - Es ist momentan auch nicht möglich Kerne dynamisch zu verschalten, ohne Leistungseinbußen - Software ist nicht einfach nur sequentiell oder parallel - Der Mehraufwand für dynamische und parallele Softwareentwicklung ist nicht eingerechnet TU Dresden, Amdahl s Gesetz Folie 33
34 Abkürzungen BCE Base Core Equivalentes S speed up, Beschleunigung R, r Anteil zur seriellen Beschleunigung N, n Anzahl der Kerne F,f, P parallelisierbarer Anteil von Programmen SIMD simple instruction multiple data TU Dresden, Amdahl s Gesetz Folie 34
35 Literatur Artikel: Veröffentlichung von IEEE Computer 2008 von Mark D. Hill (University of Wisconsin Madison) und Michael R. Marty (Google) Vol. 41 Nr. 7 Seiten: Amdahl s Law in the Multicore Era ACE/IEEE 44th design automation conf. S. Borkar, Thousand core chips a technology perspective ACM press 2007 pp Präsentation: Univ. of Wisconsin Madison February 19, HPCA, At HPCA 07, IBM s Dr. Thomas Puzak: Everyone knows Amdahl s Law, But quickly forgets it!, Hill/ Marty - Großer Beleg: Tobias Berndt, Implementierung und Evaluierung eines Multicore Systems auf Basis der Java- Plattform SHAP Internet: u.a. TU Dresden, Amdahl`s Gesetz Folie 35
36 TU Dresden, Folie 36
2 Rechnerarchitekturen
2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf
Allgemeine Speed-Up Formel. Gesetz von Gustafson-Barsis
5 Leistungsanalyse Parallelrechner Allgemeine Speed-Up Formel Amdahlsche Gesetz Gesetz von Gustafson-Barsis Karp-Flatt Maß 1 5.1 Allgemeine Speed-Up Formel Allgemeine Speed-Up Formel Speedup = Sequentielle
Multicore-Architekturen
Universität Erlangen- Nürnberg Technische Universität München Universität Stuttgart Multicore-Architekturen Vortrag im Rahmen der Ferienakademie 2009 Kurs 1: Programmierkonzepte für Multi-Core Rechner
Synthese Eingebetteter Systeme. 14 Abbildung von Anwendungen auf Multicore-Systeme
12 Synthese Eingebetteter Systeme Wintersemester 2012/13 14 Abbildung von Anwendungen auf Multicore-Systeme Michael Engel Informatik 12 TU Dortmund 2012/12/19 Abbildung von Anwendungen auf Multicores Multicore-Architekturen
Parallele Rechnerarchitekturen
Bachelor Parallele en Informatik 3 ( ) Prof. Dietmar Fey Ziel des s Paralleles Rechnen Keine akademische Nische mehr Vielmehr Allgemeingut für den Beruf des Informatikers Bedingt durch Multikern- (und
Parallel Computing. Einsatzmöglichkeiten und Grenzen. Prof. Dr. Nikolaus Wulff
Parallel Computing Einsatzmöglichkeiten und Grenzen Prof. Dr. Nikolaus Wulff Vorüberlegungen Wann ist paralleles Rechnen sinnvoll? Wenn die Performance/Geschwindigkeit steigt. Wenn sich größere Probleme
RST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck
RST-Labor WS06/07 GPGPU General Purpose Computation On Graphics Processing Units (Grafikkarten-Programmierung) Von: Marc Blunck Ablauf Einführung GPGPU Die GPU GPU Architektur Die Programmierung Programme
Games with Cellular Automata auf Parallelen Rechnerarchitekturen
Bachelor Games with Cellular Automata auf Parallelen en ( ) Dipl.-Inf. Marc Reichenbach Prof. Dietmar Fey Ziel des s Paralleles Rechnen Keine akademische Nische mehr Vielmehr Allgemeingut für den Beruf
Die Sandy-Bridge Architektur
Fakultät Informatik - Institut für Technische Informatik - Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Die Sandy-Bridge Architektur René Arnold Dresden, 12. Juli 2011 0. Gliederung 1.
Technische Grundlagen der Informatik 2 SS Einleitung. R. Hoffmann FG Rechnerarchitektur Technische Universität Darmstadt E-1
E-1 Technische Grundlagen der Informatik 2 SS 2009 Einleitung R. Hoffmann FG Rechnerarchitektur Technische Universität Darmstadt Lernziel E-2 Verstehen lernen, wie ein Rechner auf der Mikroarchitektur-Ebene
Multi-Port-Speichermanager für die Java-Plattform SHAP
Fakultät Informatik Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Multi-Port-Speichermanager für die Java-Plattform SHAP DASS 2008 Martin Zabel, Peter
PRIP-Preis. Effizientes Object Tracking durch Programmierung von Mehrkernprozessoren und Grafikkarten
Masterarbeit @ PRIP-Preis Effizientes Object Tracking durch Programmierung von Mehrkernprozessoren und Grafikkarten Michael Rauter Pattern Recognition and Image Processing Group Institute of Computer Aided
ASIC-SYNTHESE DER SHAP-MIKROARCHITEKTUR
Fakultät Informatik Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur ASIC-SYNTHESE DER SHAP-MIKROARCHITEKTUR Vortrag zum großen Beleg Andrej Olunczek [email protected]
Cell Broadband Engine & CellSs: ein Programmiermodel für den Cell Prozessor
Cell Broadband Engine & CellSs: ein Programmiermodel für den Cell Prozessor Hardware-Software-Co-Design Universität Erlangen-Nürnberg [email protected] [email protected] [email protected]
Christoph Niederseer, Michaela Mayr, Alexander Aichinger, Fabian Küppers. Wissenschaftl. Arbeitstechniken und Präsentation
Christoph Niederseer, Michaela Mayr, Alexander Aichinger, Fabian Küppers 1. Was ist paralleles Programmieren 2. Bitoner Sortieralgorithmus 3. Quicksort a) sequenzielles Quicksort b) paralleles Quicksort
Entwicklung von Partitionierungsstrategien im Entwurf dynamisch rekonfigurierbarer Systeme
Entwicklung von Partitionierungsstrategien im Entwurf dynamisch rekonfigurierbarer Systeme R. Merker, Technische Universität Dresden, Fakultät ET und IT J. Kelber, Fachhochschule Schmalkalden, ET Gliederung
Untersuchung und Vorstellung moderner Grafikchiparchitekturen
Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Untersuchung und Vorstellung moderner Grafikchiparchitekturen Hauptseminar Technische
OpenCL. Programmiersprachen im Multicore-Zeitalter. Tim Wiersdörfer
OpenCL Programmiersprachen im Multicore-Zeitalter Tim Wiersdörfer Inhaltsverzeichnis 1. Was ist OpenCL 2. Entwicklung von OpenCL 3. OpenCL Modelle 1. Plattform-Modell 2. Ausführungs-Modell 3. Speicher-Modell
Seminarvortrag Amdahlsches und Gustafsonsches Gesetz
Seminarvortrag Amdahlsches und Gustafsonsches Gesetz Volker Grabsch Yves Radunz 26. Mai 2008 Veröffentlicht unter http://www.profv.de/uni/ Lizenziert unter Creative Commons BY-SA 3.0 Inhaltsverzeichnis
Grundlagen der Parallelisierung
Grundlagen der Parallelisierung Philipp Kegel, Sergei Gorlatch AG Parallele und Verteilte Systeme Institut für Informatik Westfälische Wilhelms-Universität Münster 3. Juli 2009 Inhaltsverzeichnis 1 Einführung
Beispiele von Branch Delay Slot Schedules
Beispiele von Branch Delay Slot Schedules Bildquelle: David A. Patterson und John L. Hennessy, Computer Organization and Design, Fourth Edition, 2012 Grundlagen der Rechnerarchitektur Prozessor 97 Weniger
Kick-Off Paralleles Programmieren
Fakultät Informatik Institut für Software- und Multimediatechnik, Lehrstuhl für Softwaretechnologie Kick-Off Paralleles Programmieren Thomas Kühn Motivation Moore's Law The complexity for minimum component
Seminar SS 09 Amdahl`s Law and Cloud-Computing
Seminar SS 09 Amdahl`s Law and Cloud-Computing Prof. G. Bengel Fakultät für Informatik SEMB 7IBW 8IB Raum HO609 Mo 9:45-11:15 1. Teil: Amdahl sches Gesetz 1. Vortrag Das Gesetz von Amdahl und Gustafson
Untersuchungen zur effizienten Implementierung eines mathematischen Algorithmus in einem FPGA am Beispiel eines Sudoku-Lösers
Fakultät Informatik - Institut für Technische Informatik - Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Vortrag zum Diplom Untersuchungen zur effizienten Implementierung eines mathematischen
LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610
LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610 Dominik Weinrich [email protected] Dresden, 30.11.2017 Gliederung Motivation Aufbau und Hardware
Rechnerarchitektur SS 2012
Rechnerarchitektur SS 2012 Parallele Rechnersysteme TU Dortmund, Fakultät für Informatik XII Literatur: Hennessy/Patterson: Computer Architecture, 3. Auflage, 2003, Kapitel 6, S. 527ff. Huang: Advanced
Multi- und Many-Core
Multi- und Many-Core Benjamin Warnke Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg 2016-12-15 Benjamin
Grafikkarten-Architektur
> Grafikkarten-Architektur Parallele Strukturen in der GPU Name: Sebastian Albers E-Mail: [email protected] 2 > Inhalt > CPU und GPU im Vergleich > Rendering-Pipeline > Shader > GPGPU > Nvidia Tesla-Architektur
Kapitel 6: Dynamic Shortest Path
Kapitel 6: Dynamic Shortest Path 6.4 Experimentelle Analyse VO Algorithm Engineering Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 18. VO 12. Juni 2007 Literatur für diese VO C.
Architektur und Organisation von Rechnersystemen
Architektur und Organisation von Thema heute: More need for more Speed, Weitere Architekturmerkmale, Zahlendarstellungen, Makroassembler BKH-ArcOrg16-V3 am 01.12.2016 Ulrich Schaarschmidt BK-H/HS Düsseldorf,
Universität Karlsruhe (TH)
Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Software Engineering für moderne, parallele Plattformen Überblick Dr. Victor Pankratius Dr. Victor Pankratius, Prof. Walter F. Tichy, Dipl.-Inform.
High Performance Embedded Processors
High Performance Embedded Processors Matthias Schwarz Hardware-Software-Co-Design Universität Erlangen-Nürnberg [email protected] [email protected]
Limitations and Potentials of modern BPM Systems for High-Performance Shadow Processing in Business Processes of Digital Companies
Limitations and Potentials of modern BPM Systems for High-Performance Shadow Processing in Business Processes of Digital Companies Martin Schmollinger, Jürgen Krauß Hochschule Reutlingen, Alteburgstraße
Parallele Programmiermodelle
Parallele Programmiermodelle ProSeminar: Parallele Programmierung Semester: WS 2012/2013 Dozentin: Margarita Esponda Einleitung - Kurzer Rückblick Flynn'sche Klassifikationsschemata Unterteilung nach Speicherorganissation
Spielst du noch oder rechnest du schon?
Spielst du noch oder rechnest du schon? Mit Spielkonsole und Co. zum Supercomputer der Zukunft Fachbereich Elektrotechnik und Informationstechnik Fachhochschule Bielefeld University of Applied Sciences
p max = 4 T = 8 Work = 28 3 I = Work / T = 3,5 2 Cost = p max * T = 32 U = I / p max = 87,5% 1
Massivparallele Modelle und Architekturen Wintersemester 2010/2011 Lösungsvorschlag 1. Übung 1. Aufgabe: Leistungsbewertung paralleler Systeme Betrachtet werden soll der Odd-Even-Sort-Algorithmus mit n
Seminar Parallele Rechnerarchitekturen SS04 \ SIMD Implementierung aktueller Prozessoren 2 (Dominik Tamm) \ Inhalt. Seite 1
\ Inhalt Seite 1 \ Inhalt SIMD Kurze Rekapitulation 3Dnow! (AMD) AltiVec (PowerPC) Quellen Seite 2 \ Wir erinnern uns: Nach Flynn s Taxonomie kann man jeden Computer In eine von vier Kategorien einteilen:
Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik Universität Rostock.
Seite 1 Optimierung der Verbindungsstrukturen in Digitalen Neuronalen Netzwerken Workshop on Biologically Inspired Methods on Modelling and Design of Circuits and Systems 5.10.2001 in Ilmenau, Germany
Prozessor- und Rechnerarchitekturen (Master)
Prozessor- und Rechnerarchitekturen (Master) Themen am 28.06.17: Semesterrückblick, Terminplanung Ihrer Vorträge ProRecArc17_V10 Ulrich Schaarschmidt HS Düsseldorf, SS 2017 V1 (5.4.): Termine + mögliche
Entwurf eines FPGA-Cores zur Simulationsbeschleunigung zeitkontinuierlicher Modelle im HiL Kontext
Entwurf eines FPGA-Cores zur Simulationsbeschleunigung zeitkontinuierlicher Modelle im HiL Kontext Till Fischer 03.11.2011 FZI Forschungszentrum Informatik Embedded Systems & Sensors Engineering (ESS)
Technische Informatik - Eine Einführung
Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Rechnerarchitektur Aufgabe
Kapitel Grundlagen zur Parallelverarbeitung
Kapitel 4.2 - Grundlagen zur Parallelverarbeitung SWT I Sommersemester 2010 Walter F. Tichy, Andreas Höfer, Korbinian Molitorisz IPD Tichy, Fakultät für Informatik KIT die Kooperation von Forschungszentrum
moderne Prozessoren Jan Krüger [email protected]
moderne Prozessoren Jan Krüger [email protected] Übersicht FachChinesisch SPARC - UltraSparc III/IV PowerPC - PowerPC 970(G5) X86 - Pentium4(Xeon), Itanium, (Pentium M) X86 - AthlonXP/MP,
Paralleles Rechnen. (Architektur verteilter Systeme) von Thomas Offermann Philipp Tommek Dominik Pich
Paralleles Rechnen (Architektur verteilter Systeme) von Thomas Offermann Philipp Tommek Dominik Pich Gliederung Motivation Anwendungsgebiete Warum paralleles Rechnen Flynn's Klassifikation Theorie: Parallel
CUDA. Moritz Wild, Jan-Hugo Lupp. Seminar Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg
CUDA Seminar Multi-Core Architectures and Programming 1 Übersicht Einleitung Architektur Programmierung 2 Einleitung Computations on GPU 2003 Probleme Hohe Kenntnisse der Grafikprogrammierung nötig Unterschiedliche
Ein Überblick über MIMO- Systeme und deren Einsatzgebiete.
Fakultät Informatik - Institut für Technische Informatik - Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Vortrag zum Hauptseminar Ein Überblick über MIMO- Systeme und deren Einsatzgebiete.
Praktische Übungen zu Computertechnik 2. Versuchsprotokoll
Praktische Übungen zu Computertechnik 2 Versuchsprotokoll Versuch: C2 Parallelrechner Versuchsdatum und -zeit: Donnerstag, 03. Juni 2010, 10-13 Uhr Betreuer: Adrian Knoth Name, Studiengang, Mat.-Nr.: Ralf
Inhalt. Prozessoren. Curriculum Manfred Wilfling. 28. November HTBLA Kaindorf. M. Wilfling (HTBLA Kaindorf) CPUs 28. November / 9
Inhalt Curriculum 1.4.2 Manfred Wilfling HTBLA Kaindorf 28. November 2011 M. Wilfling (HTBLA Kaindorf) CPUs 28. November 2011 1 / 9 Begriffe CPU Zentraleinheit (Central Processing Unit) bestehend aus Rechenwerk,
VIRTUALISIERUNG IN MIKROKERN BASIERTEN SYSTEMEN
Fakultät Informatik Institut für Systemarchitektur, Professur Betriebssysteme VIRTUALISIERUNG IN MIKROKERN BASIERTEN SYSTEMEN Henning Schild Dresden, 5.2.2009 Definition Einführung von Abstraktionsschichten
Standardsoftware für die Industrielle Bildverarbeitung
Standardsoftware für die Industrielle Bildverarbeitung Der elegante Weg zur Performanzsteigerung Dr. Olaf Munkelt MVTec Software GmbH MVTec Software GmbH Firma konzentriert sich auf Building Vision for
Multicore Herausforderungen an das Software-Engineering. Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010
Multicore Herausforderungen an das Software-Engineering Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010 Inhalt _ Motivation _ Herausforderung 1: Hardware _ Herausforderung 2: Software-Partitionierung
Parallelrechner (1) Anwendungen: Simulation von komplexen physikalischen oder biochemischen Vorgängen Entwurfsunterstützung virtuelle Realität
Parallelrechner (1) Motivation: Bedarf für immer leistungsfähigere Rechner Leistungssteigerung eines einzelnen Rechners hat physikalische Grenzen: Geschwindigkeit von Materie Wärmeableitung Transistorgröße
Motivation (GP)GPU CUDA Zusammenfassung. CUDA und Python. Christian Wilms. Integriertes Seminar Projekt Bildverarbeitung
CUDA und Python Christian Wilms Integriertes Seminar Projekt Bildverarbeitung Universität Hamburg WiSe 2013/14 12. Dezember 2013 Christian CUDA und Python 1 Gliederung 1 Motivation 2 (GP)GPU 3 CUDA 4 Zusammenfassung
Seminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit OpenMP 4.5 und OpenACC 2.5 im Vergleich
Seminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit Direktivenbasierte Programmierung von Beschleunigern mit Agenda Einführung / Motivation Überblick zu OpenMP und OpenACC Asynchronität
Compute Unified Device Architecture CUDA
Compute Unified Device Architecture 06. Februar 2012 1 / 13 Gliederung 2 / 13 : Compute Unified Device Architecture entwickelt von Nvidia Corporation spezifiziert Software- und Hardwareeigenschaften Ziel:
Synthese Eingebetteter Systeme. 1 Einführung: Entwurf und Synthese
12 Synthese Eingebetteter Systeme Sommersemester 2011 1 Einführung: Entwurf und Synthese 2011/04/06 Michael Engel Informatik 12 TU Dortmund Überblick Komplexität aktueller eingebetteter Systeme Electronic
Rechner Architektur. Martin Gülck
Rechner Architektur Martin Gülck Grundlage Jeder Rechner wird aus einzelnen Komponenten zusammengesetzt Sie werden auf dem Mainboard zusammengefügt (dt.: Hauptplatine) Mainboard wird auch als Motherboard
Seminar Multicore-Programmierung
Multicore- und GPGPU-Architekturen Fakultät für Informatik und Mathematik Universität Passau 04. November 2010 APUs / 1 / 39 Inhaltsverzeichnis I APUs / APUs / 2 / 39 Inhaltsverzeichnis II APUs / 3 / 39
MSDN Webcast: Parallelprogrammierung mit der Task Parallel Library für.net (Teil 1) Presenter: Bernd Marquardt
MSDN Webcast: Parallelprogrammierung mit der Task Parallel Library für.net (Teil 1) Presenter: Bernd Marquardt [email protected] www.go-sky.de Die Serie: 5 Teile Teil 1: Einführung, Amdahl s Gesetz, Data
Architektur paralleler Plattformen
Architektur paralleler Plattformen Freie Universität Berlin Fachbereich Informatik Wintersemester 2012/2013 Proseminar Parallele Programmierung Mirco Semper, Marco Gester Datum: 31.10.12 Inhalt I. Überblick
General Purpose Computation on GPUs
General Purpose Computation on GPUs Matthias Schneider, Robert Grimm Universität Erlangen-Nürnberg {matthias.schneider, robert.grimm}@informatik.stud.uni-erlangen.de M. Schneider, R. Grimm 1 Übersicht
Die IBM Netezza Architektur für fortgeschrittene Analysen
Michael Sebald IT Architect Netezza Die IBM Netezza Architektur für fortgeschrittene Analysen 2011 IBM Corporation Was ist das Problem aller Data Warehouse Lösungen? I / O Transaktionaler und analytischer
Systeme 1: Architektur
slide 1 Vorlesung Systeme 1: Architektur Prof. Dr. Ulrich Ultes-Nitsche Forschungsgruppe Departement für Informatik Universität Freiburg slide 2 Prüfung 18. Februar 2004 8h00-11h40 13h00-18h20 20 Minuten
IT für Führungskräfte. Zentraleinheiten. 11.04.2002 Gruppe 2 - CPU 1
IT für Führungskräfte Zentraleinheiten 11.04.2002 Gruppe 2 - CPU 1 CPU DAS TEAM CPU heißt Central Processing Unit! Björn Heppner (Folien 1-4, 15-20, Rollenspielpräsentation 1-4) Harald Grabner (Folien
Technische Informatik 1 Übung 8 Instruktionsparallelität (Rechenübung) Andreas Tretter 8./9. Dezember Bitte immer eine Reihe freilassen
Technische Informatik 1 Übung 8 Instruktionsparallelität (Rechenübung) Andreas Tretter 8./9. Dezember 2016 Bitte immer eine Reihe freilassen Ziele der Übung Verschiedene Arten von Instruktionsparallelität
Multiprozessor System on Chip
Multiprozessor System on Chip INF-M1 AW1-Vortrag 25. November 2009 Übersicht 1. Einleitung und Motivation 2. Multiprozessor System on Chip (MPSoC) 3. Multiprozessoren mit Xilinx EDK 4. FAUST SoC Fahrzeug
Rechnerarchitektur. Lösungsvorschlag 6. Übung. Sommersemester Aufgabe: Zyklische Verschiebung
Rechnerarchitektur Lösungsvorschlag 6. Übung Sommersemester 2010 Fachgebiet Rechnerarchitektur Prof. R. Hoffmann Patrick Ediger 1. Aufgabe: Zyklische Verschiebung Gegeben sei eine Folge von n Variablen
Kapitel 1 Parallele Modelle Wie rechnet man parallel?
PRAM- PRAM- DAG- R UND R Coles und Kapitel 1 Wie rechnet man parallel? Vorlesung Theorie Paralleler und Verteilter Systeme vom 11. April 2008 der Das DAG- Das PRAM- Das werkmodell Institut für Theoretische
Name: Vorname: Matr.-Nr.: 4. a) RISC-Architekturen müssen zur Decodierung von Maschinenbefehlen stets ein mikroprogrammierbares Steuerwerk verwenden.
Name: Vorname: Matr.-Nr.: 4 Aufgabe 1 (8 Punkte) Entscheiden Sie, welche der folgenden Aussagen zum Thema CISC/RISC-Prinzipien korrekt sind. a) RISC-Architekturen müssen zur Decodierung von Maschinenbefehlen
CPU-Caches. Christian Duße. Seminar Effiziente Programmierung in C
CPU-Caches Christian Duße Seminar Effiziente Programmierung in C Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität
Einleitung Performance Netzwerk Leistungsaufnahme Skalierbarkeit Sicherheit Zuverlässigkeit Kompatibilität. Ziele und Maße. Dr.-Ing.
Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2005/2006 Übersicht 1 Einleitung 2 Performance 3 Netzwerk 4 Leistungsaufnahme 5 Skalierbarkeit 6 Sicherheit
Aktuelle RTOS-Entwicklungen aus der Forschung
Aktuelle RTOS-Entwicklungen aus der Forschung Lennart Downar Seminar Fehlertoleranz und Echtzeit 16. Februar 2016 Aktuelle RTOS-Entwicklungen aus der Forschung Lennart Downar 1/28 Übersicht 1 Einführung
Motivation. Eingebettetes System: Aufgabe:
Motivation n Aufgabe: n Eingebettetes System: Computersystem, das in einen technischen Kontext eingebettet ist - also ein Computer, der ein technisches System steuert oder regelt. Das sind z.b. das Antiblockiersystem,
Cloud Computing mit mathematischen Anwendungen
Cloud Computing mit mathematischen Anwendungen Vorlesung SoSe 2009 Dr. Marcel Kunze Karlsruhe Institute of Technology (KIT) Steinbuch Centre for Computing (SCC) KIT the cooperation of Forschungszentrum
Vertiefungsrichtung Rechnerarchitektur
srichtung () ( für ) Prof. Dietmar Fey Ziele der srichtung RA Vertiefen des Verständnis vom Aufbau, Funktionsweise von Rechnern und Prozessoren Modellierung und Entwurf von Rechnern und Prozessoren ()
