Paralleles Höchstleistungsrechnen Einführung
|
|
- Ute Zimmermann
- vor 5 Jahren
- Abrufe
Transkript
1 1/40 Paralleles Höchstleistungsrechnen Einführung Peter Bastian Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Universität Heidelberg Im Neuenheimer Feld 368 D Heidelberg 2. Oktober 2008
2 2/40 Inhalt Organisatorisches Motivation Einige Beispielanwendungen Superrechner Inhalt der Vorlesung
3 3/40 Vorlesung Dozent Peter Bastian zu finden in: INF 368, Raum Vorlesung Di 9-11 in 368/532, Do 9-11 in 350/U014 Skript, Folien (falls verfügbar), Übungsaufgaben:
4 4/40 Übung Leiter: Christian Engwer findet statt im CIP-Pool des IWR, Otto-Meierhof-Zentrum Zeit: Noch zu vereinbaren! Anmeldung zur Übung Schein auf Übungsaufgaben Bachelor/Master: mündliche Prüfung (bzw. Klausur bei großem Andrang) Voraussetzung für die Teilnahme an der mündlichen Prüfung/Klausur: 50% der Übungsaufgaben C/C++ Kentnisse erforderlich
5 5/40 Inhalt Organisatorisches Motivation Einige Beispielanwendungen Superrechner Inhalt der Vorlesung
6 6/40 Warum parallel Rechnen? Nebenläufigkeit Abarbeitung mehrerer Prozesse auf einem Prozessor Multi-Tasking Betriebssysteme seit den 60er Jahren Bedienung mehrerer Geräte und Benutzer Ziel: Steigerung der Auslastung Hyperthreading : Nutze Wartezeiten des Prozessors Mehrere Dinge gleichzeitig : Web-Browser, Desktop Koordinationsproblematik tritt bereits hier auf Verteilte Anwendungen Datenbasis ist inhärent verteilt: betriebswirtschaftliche Software, Warenfluß in großen Unternehmen Hier wichtig: plattformübergreifende Kommunikation, Client-Server Architekturen Auch wichtig: Sicherheit, VPN, etc. (behandeln wir nicht)
7 7/40 High Performance Computing Treibt Rechnerentwicklung seit Anfang 1940er Anwendungen: mathematische Modellierung und numerische Simulation ungestillter Hunger nach Rechenzeit: Modellfehler detailliertere Physik Approximationsfehler mehr Freiheitsgrade Grand Challenges: Kosmologie, z. B. Galaxiendynamik Proteinfaltung Erdbebenvorhersage Klimaentwicklung ASCI Program (Advanced Simulation and Computing) Programm amerikanischer Parallelrechner seit 1992, Funding 2004: 200 Mio US-$ DoE, 87 Mio US-$ NSF
8 8/40 Earth Simulator (Japan) Juni 2002 bis Juni 2004 der leistungsfähigste Computer der Welt Kosten: 350 bis 500 Mio US-$ Folie (und die folgenden) von J. Dongarra
9 Earth Simulator Architecture 9/40
10 Earth Simulator Gebäude 10/40
11 Earth Simulator Gebäude 11/40
12 ... die Kabel 12/40
13 ... die Kabel 13/40
14 ... und ein Kraftwerk 14/40
15 15/40 Terascale Simulation Facility Lawrence Livermore National Laboratory BlueGene/L Prozessoren, 478 TFLOPS seit 2007
16 Couplex Benchmark far field 3000 m near field 6 m 0.9 m 5 m 15 m seal container gallery 50 m repository Couplex1, Couplex2 16/40
17 17/40 Inhalt Organisatorisches Motivation Einige Beispielanwendungen Superrechner Inhalt der Vorlesung
18 Couplex Transport Model Flow equation: u = f in Ω, u = K H Transport equations i = silica, 135 Cs, 238 Pu, 242 Pu, 234 U, 238 U: ( ) Ci Rω t + λc i + j i = q(c 1,...,C n ) in Ω, Processes: j i = uc i D(u) C i Convection-dispersion (Scheidegger) Radioactive decay 238 Pu 234 U, 242 Pu 238 U Precipitation: 238 Pu, 242 Pu, 234 U, 238 U as disolved components and (immobile) solid phase 18/40
19 19/40 Couplex 2 [Micromole/yr] 4e e-10 3e e-10 2e e-10 1e-10 5e-11 0 U234 Host to Outside -5e e+06 2e+06 3e+06 4e+06 5e+06 6e+06 Time [yr] 1622 vertices vertices vertices vertices P Unbekannte Par. Rechenzeit [h] Seq. Rechenzeit [h] (Gemeinsame Arbeit mit Stefan Lang)
20 Dichteströmung brine, 1200 kg/m3 perturbation water, 1000 kg/m3 periodic boundary conditions Salzstock, Ozean, Atmosphäre, Sterninneres, Erdmantel, Kaffeetasse 20/40
21 21/40 Density driven flow in Porous Media Flow equation (Bussinesq approximation): u = f, u = K ( p (C)g), (C) = C b+(1 C) 0 in µ Ω Transport equation: (ΦC) t + j + q = 0, j = Cu D C Elliptic flow equation coupled to parabolic/hyperbolic transport equation Cell centered finite volume discretization, second order Godunov scheme for convective terms Cell centered multigrid method Decoupled solution scheme
22 22/40 Simulation Results Comparison of two-dimensional and three-dimensional simulation 2d 3d
23 23/40 Simulation Data Grid size: , about 9000 time steps Solves linear system with unknowns per time step (requires 30 seconds on 384 processors) Data produced per time step: 3.2 GByte in binary float Data produced by whole simulation: 29 TByte Visualization requires intelligent ways of data reduction and/or parallelized visualization tools In addition I/O capabilities of HELICS should be improved in the future
24 24/40 Virtuelles Labor Verändere physikalische Parameter (links wenig Diffusion, rechts viel Diffusion) Visualisierung großer Datenmengen ist ein Problem Alle Komponenten einer Simulation müssen parallel bearbeitet werden
25 25/40 In-Situ Reinigungsverfahren 100 m Pumpbrunnen 400 m Schadstoff Boden mit variabler Durchlässigkeit Förderbrunnen
26 3D Transport in Heterogenem Medium Zellenzentrierte Finite-Volumen Verfahren (CCMG, HOG) Zellen, time steps 26/40
27 27/40 Numerische Strömungsberechnung p, C Pro Zelle: Phys. Größen wie Druck, Temperatur, Konzentration Je mehr Zellen desto genauer das Ergebnis
28 28/40 Datenparallelität Datenzerlegung/Datenaufteilung Datenaustausch (muss minimiert werden)
29 Beschleunigung ideal festes Problem wachsendes Problem Beschleunigung Prozessoren Gegebenes Problem immer schneller rechnen Mit mehr Prozessoren immer größere Probleme rechnen 29/40
30 30/40 Inhalt Organisatorisches Motivation Einige Beispielanwendungen Superrechner Inhalt der Vorlesung
31 31/40 Was ist ein Superrechner? Gerät Jahr $ Takt [MHz] MBytes MFLOPS CDC M $ Cray 1A M $ Cray X-MP/ M $ C ASCI Red Pentium Core 2 XE QX > X-MP/48: P=4, C90: P=16, ASCI Red: P=9152 PC von heute = Superrechner von gestern
32 Entwicklung Einzelprozessoren in den 90ern 1 1 Culler/Singh, Parallel Computer Architecture. 32/40
33 Entwicklung Multiprozessoren 2 2 Culler/Singh, Parallel Computer Architecture. 33/40
34 HELICS Entwicklung seit den 90er Jahren: Cluster Computer Aufbau aus Standardbauteilen 34/40
35 35/40 Aktuelle Entwicklung Multicore Prozessoren Coprozessoren Cell, Clearspeed General Puropse GPU-Computing Petaflop Computer: Gleitkommaoperationen pro Sekunde erreicht im Juni 2008 der IBM Roadrunner Cores, Opteron mit Cell Coprozessoren
36 General Purpose GPU-Computing Quelle: NVIDIA 36/40
37 37/40 Effiziente Algorithmen Schnelle Rechner sind nicht alles! Rechenzeiten zur (approximativen) Lösung spezieller linearer Gleichungssysteme: N Gauß ( 2 3 N3 ) Mehrgitter (100N) s 10 4 s s 10 3 s Tage 10 2 s Jahre 0.1 s Jahre 1 s (für einen Rechner mit 1 GFLOP/s) Parallelisierung kann einem ineffizienten Verfahren nicht helfen! Schnelle Rechner und schnelle Algorithmen
38 38/40 Inhalt Organisatorisches Motivation Einige Beispielanwendungen Superrechner Inhalt der Vorlesung
39 Inhalt der Vorlesung I Hardware Prozessorentwicklung, Pipelining, SIMD, MIMD, Caches, Cachekonsistenz, Multicore Verbindungsnetzwerke Grafikprozessoren II Programmierung gemeinsamer Speicher: Locks, Semaphore PThreads, OpenMP verteilter Speicher: MPI-I, MPI-II RPC, Corba CUDA III Algorithmen Bewertung von Algorithmen, prinzipielles Vorgehen, Lastverteilung dichtbesetzte Matrizen dünnbesetzte Gleichungssysteme Sortieren, N-Körper-Problem 39/40
40 40/40 Links Vorlesung ASCI Program Seymour Cray craytalk/ TOP 500 Supercomputer Sites
Wissenschaftliches Rechen
Wissenschaftliches Rechen Paralleles Höchstleistungsrechnen Christian Engwer Uni Münster April 5, 2011 Christian Engwer (Uni Münster) Wissenschaftliches Rechen April 5, 2011 1 / 20 Organisatorisches Vorlesung
Parallele Lösung großer Gleichungssysteme
Parallele Lösung großer Gleichungssysteme Peter Bastian Universität Heidelberg Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Im Neuenheimer Feld 368, D-69120 Heidelberg email: Peter.Bastian@iwr.uni-stuttgart.de
Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1
Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer
Spielst du noch oder rechnest du schon?
Spielst du noch oder rechnest du schon? Mit Spielkonsole und Co. zum Supercomputer der Zukunft Fachbereich Elektrotechnik und Informationstechnik Fachhochschule Bielefeld University of Applied Sciences
Vertiefungsrichtung Rechnerarchitektur
srichtung () ( für ) Prof. Dietmar Fey Ziele der srichtung RA Vertiefen des Verständnis vom Aufbau, Funktionsweise von Rechnern und Prozessoren Modellierung und Entwurf von Rechnern und Prozessoren ()
Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien
Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Scientific Computing 07. Oktober 2009 Siegfried Benkner Wilfried Gansterer Fakultät für Informatik Universität Wien www.cs.univie.ac.at
Vertiefungsrichtung Rechnerarchitektur
srichtung () ( für ) Prof. Dietmar Fey 1 Ziele der srichtung RA Vertiefen des Verständnis vom Aufbau, Funktionsweise von Rechnern und Prozessoren () Modellierung und Entwurf von Rechnern und Prozessoren
Sommer Verzeichnis der Lehrveranstaltungen. Institut für Technische Informatik (ZITI) (Stand: )
UNIVERSITÄT HEIDELBERG Verzeichnis der Lehrveranstaltungen () Die ausführliche Darstellung der Veranstaltungen findet sich unter http://lsf.uni-heidelberg.de Abkürzungsschlüssel AM = Institut für Angewandte
Einführung in die Numerik
Einführung in die Numerik Sommersemester 2017 Dr. Andreas Potschka Ruprecht Karls-Universität Heidelberg Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Im Neuenheimer Feld 205, 69120 Heidelberg
Systeme 1: Architektur
slide 1 Vorlesung Systeme 1: Architektur Prof. Dr. Ulrich Ultes-Nitsche Forschungsgruppe Departement für Informatik Universität Freiburg slide 2 Prüfung 18. Februar 2004 8h00-11h40 13h00-18h20 20 Minuten
RST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck
RST-Labor WS06/07 GPGPU General Purpose Computation On Graphics Processing Units (Grafikkarten-Programmierung) Von: Marc Blunck Ablauf Einführung GPGPU Die GPU GPU Architektur Die Programmierung Programme
Games with Cellular Automata auf Parallelen Rechnerarchitekturen
Bachelor Games with Cellular Automata auf Parallelen en ( ) Dipl.-Inf. Marc Reichenbach Prof. Dietmar Fey Ziel des s Paralleles Rechnen Keine akademische Nische mehr Vielmehr Allgemeingut für den Beruf
Parallele und verteilte Programmierung
Thomas Rauber Gudula Rünger Parallele und verteilte Programmierung Mit 165 Abbildungen und 17 Tabellen Jp Springer Inhaltsverzeichnis 1. Einleitung 1 Teil I. Architektur 2. Architektur von Parallelrechnern
Optimierungen der Lattice Boltzmann Methode auf x86-64 basierten Architekturen
Optimierungen der Lattice Boltzmann Methode auf x86-64 basierten Architekturen J. Treibig, S. Hausmann, U. Ruede 15.09.05 / ASIM 2005 - Erlangen Gliederung 1 Einleitung Motivation Grundlagen 2 Optimierungen
Universität Karlsruhe (TH)
Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Parallelism in curricula An international survey November 7, 2008 Stuttgart, Germany David Meder Dr. Victor Pankratius For comments: multicore-systems@ipd.uni-karlsruhe.de
(Software) Architektur der Dinge. Roland Graf / Simon Kranzer IKT-Forum 2016 I(o)T for Industry - Von IT zu IoT
(Software) Architektur der Dinge Roland Graf / Simon Kranzer IKT-Forum 2016 I(o)T for Industry - Von IT zu IoT Hardware Mainframe Speichersysteme Rechner Kopplung Zentralisierung Anwendungsprogramme Software
Parallel Computing. Einsatzmöglichkeiten und Grenzen. Prof. Dr. Nikolaus Wulff
Parallel Computing Einsatzmöglichkeiten und Grenzen Prof. Dr. Nikolaus Wulff Parallel Architekturen Flynn'sche Klassifizierung: SISD: single Instruction, single Data Klassisches von-neumann sequentielles
Einleitung. Dr.-Ing. Volkmar Sieh WS 2005/2006. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg
Technologische Trends Historischer Rückblick Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2005/2006 Technologische Trends Historischer Rückblick Übersicht
Parallele Rechnerarchitekturen
Bachelor Parallele en Informatik 3 ( ) Prof. Dietmar Fey Ziel des s Paralleles Rechnen Keine akademische Nische mehr Vielmehr Allgemeingut für den Beruf des Informatikers Bedingt durch Multikern- (und
Air-Sea Gas Transfer: Schmidt Number Dependency and Intermittency
Air-Sea Gas Transfer: Schmidt Number Dependency and Intermittency Bernd Jähne, Reinhard Nielsen, Christopher Pop, Uwe Schimpf, and Christoph Garbe Interdisziplinäres Zentrum für Wissenschaftliches Rechnen
Kapitel 5. Parallelverarbeitung. Formen der Parallelität
Kapitel 5 Parallelverarbeitung é Formen der Parallelität é Klassifikation von parallelen Rechnerarchitekturen é Exkurs über Verbindungsstrukturen Bernd Becker Technische Informatik I Formen der Parallelität
Refactoring the UrQMD Model for Many- Core Architectures
Refactoring the UrQMD Model for Many- Core Architectures Mathias Radtke Semiar: Softwaretechnologie (WS 2013/2014 Goethe-Universität Frankfurt Agenda: 1. UrQMD 2. CPU Vs. GPU 3. Von FORTRAN zu C++/OpenCL
Fluid-Particle Multiphase Flow Simulations for the Study of Sand Infiltration into Immobile Gravel-Beds
3rd JUQUEEN Porting and Tuning Workshop Jülich, 2-4 February 2015 Fluid-Particle Multiphase Flow Simulations for the Study of Sand Infiltration into Immobile Gravel-Beds Tobias Schruff, Roy M. Frings,
PG 471: Beyond Graphics. Strömungssimulation in der GPU
Strömungssimulation in der GPU Betreuer: Claus-Peter Alberts, LS VII Dominik Göddeke, LS III (Mathematik) Normale Nutzung von Grafikkarten Normale Nutzung von Grafikkarten STATTDESSEN: GPGPU! Anwendungsfall:
Technische Grundlagen der Informatik 2 SS Einleitung. R. Hoffmann FG Rechnerarchitektur Technische Universität Darmstadt E-1
E-1 Technische Grundlagen der Informatik 2 SS 2009 Einleitung R. Hoffmann FG Rechnerarchitektur Technische Universität Darmstadt Lernziel E-2 Verstehen lernen, wie ein Rechner auf der Mikroarchitektur-Ebene
Einführung in die Praktische Informatik WS 09/10
Einführung in die Praktische Informatik WS 09/10 Prof. Dr. Christian Sengstock Institut für Informatik Neuenheimer Feld 348 69120 Heidelberg http://dbs.ifi.uni-heidelberg.de sengstock@informatik.uni-heidelberg.de
Programmierung. Rückblick. VWA - Programmierung Winter Algorithmus. Programmiersprache. Variable. Zuweisung. Bedingung.
Programmierung 1 Rückblick Algorithmus Programmiersprache Variable Zuweisung Bedingung Schleife (c) Peter Sturm, University of Trier 1 3 Aufgabe: Viele, viele bunte Smarties Rechengeschwindigkeit CPU 5
CUDA. Moritz Wild, Jan-Hugo Lupp. Seminar Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg
CUDA Seminar Multi-Core Architectures and Programming 1 Übersicht Einleitung Architektur Programmierung 2 Einleitung Computations on GPU 2003 Probleme Hohe Kenntnisse der Grafikprogrammierung nötig Unterschiedliche
Vorlesung Wissenschaftliches Rechen
Vorlesung Wissenschaftliches Rechen Christian Engwer Uni Münster 9. Oktober 2017 Vorlesung Mo, Do: 10-12 Uhr (M3) Christian Engwer Einsteinstrasse 62, Zimmer 120.220 email: christian.engwer@uni-muenster.de
High Performance Computing
High Performance Computing SS 2002 PD Dr. A. Strey Abteilung Neuroinformatik, Universität Ulm Email: strey@informatik.uni-ulm.de Inhalt Einführung hohe Leistung durch Parallelität! kurze Historie des High
Mehrprozessorarchitekturen
Mehrprozessorarchitekturen (SMP, UMA/NUMA, Cluster) Arian Bär 12.07.2004 12.07.2004 Arian Bär 1 Gliederung 1. Einleitung 2. Symmetrische Multiprozessoren (SMP) Allgemeines Architektur 3. Speicherarchitekturen
Übersicht. Einleitung. Übersicht. Architektur. Dr.-Ing. Volkmar Sieh WS 2008/2009
Übersicht Einleitung 1 Einleitung Dr.-Ing. Volkmar Sieh 2 Technologische Trends Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 3 Historischer
Einleitung. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2006/2007
Einleitung Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2006/2007 Einleitung 1/50 2006/10/09 Übersicht 1 Einleitung 2 Technologische
Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern
Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern Institut für Betriebssysteme und Rechnerverbund TU Braunschweig 25.10., 26.10.
Entwurf eines FPGA-Cores zur Simulationsbeschleunigung zeitkontinuierlicher Modelle im HiL Kontext
Entwurf eines FPGA-Cores zur Simulationsbeschleunigung zeitkontinuierlicher Modelle im HiL Kontext Till Fischer 03.11.2011 FZI Forschungszentrum Informatik Embedded Systems & Sensors Engineering (ESS)
Multicore-Architekturen
Universität Erlangen- Nürnberg Technische Universität München Universität Stuttgart Multicore-Architekturen Vortrag im Rahmen der Ferienakademie 2009 Kurs 1: Programmierkonzepte für Multi-Core Rechner
Prof. Dr. Th. Letschert CS5001. Verteilte Systeme. Master of Science (Informatik) - Einleitung - Th Letschert FH Gießen-Friedberg
Prof. Dr. Th. Letschert CS5001 Master of Science (Informatik) - - Th Letschert FH Gießen-Friedberg Modulnr.: CS5001 Verwendbar : Master of Science (Informatik) Master of Science (Wirtschaftsinformatik)
Einfuehrung. October 20, 2017
Einfuehrung October 20, 2017 1 Einführung 1.1 Organisatorisches Es wird jede Woche eine Übungsaufgabe in Form eines Jupyter-Notebooks ausgegeben. Diese kann von der Vorlesungsweibseite https://aam.uni-freiburg.de/agkr/lehre/ws17/pde0/
Prof. Dr. Vincent Heuveline
Supercomputer und Hochleistungsrechner Perspektiven und Herausforderungen aus heutiger Sicht Prof. Dr. Vincent Heuveline Hochleistungsrechner, Supercomputer: Quid? Hochleistungsrechner, Supercomputer:
Engineering the Factory of the Future Now.Next.Beyond. Heiko Schwindt VP Automation & Electrification Solutions, Bosch Rexroth
Engineering the Factory of the Future Now.Next.Beyond. Heiko Schwindt VP Automation & Electrification Solutions, Bosch Rexroth Connect on LinkedIn www.linkedin.com/in/heiko-schwindt-625039140/ 1 "The challenge
Grundlagen der Numerischen Mathematik Sommersemester Kapitel 0. Jun.-Prof. Dr. Thorsten Raasch (JGU Mainz) 23. April 2014
Grundlagen der Numerischen Mathematik Sommersemester 2014 Kapitel 0 Jun.-Prof. Dr. Thorsten Raasch Johannes Gutenberg-Universität Mainz Institut für Mathematik 23. April 2014 Numerik Was ist das? Was ist
Hochleistungsrechnen auf dem PC
Hochleistungsrechnen auf dem PC Steffen Börm Christian-Albrechts-Universität zu Kiel Ringvorlesung Informatik, 26. Juni 2014 S. Börm (CAU Kiel) Hochleistungsrechnen auf dem PC 26. Juni 2014 1 / 33 Übersicht
Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner. Dr. Andreas Wolf. Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum
Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Überblick Randbedingungen der HPC Beschaffung an der
Näherungsformeln für Spill Plumes in Atrien variabler Größe
Dieser Text ist entnommen aus dem Fachbuch: Hendrik C. Belaschk Hrsg.: Nabil A. Fouad; Leibniz Universität Hannover, Institut für Bauphysik Näherungsformeln für Spill Plumes in Atrien variabler Größe CFD-Studien
Motivation (GP)GPU CUDA Zusammenfassung. CUDA und Python. Christian Wilms. Integriertes Seminar Projekt Bildverarbeitung
CUDA und Python Christian Wilms Integriertes Seminar Projekt Bildverarbeitung Universität Hamburg WiSe 2013/14 12. Dezember 2013 Christian CUDA und Python 1 Gliederung 1 Motivation 2 (GP)GPU 3 CUDA 4 Zusammenfassung
Evaluation. Einleitung. Implementierung Integration. Zusammenfassung Ausblick
Christopher Schleiden Bachelor Kolloquium 15.09.2009 Einleitung Evaluation Implementierung Integration Zusammenfassung Ausblick Einleitung laperf Lineare Algebra Bibliothek für C++ Möglichkeit zur Integration
Field-Circuit Coupling for Mechatronic Systems: Some Trends and Techniques
Field-Circuit Coupling for Mechatronic Systems: Some Trends and Techniques Stefan Kurz Robert Bosch GmbH, Stuttgart Now with the University of the German Federal Armed Forces, Hamburg stefan.kurz@unibw-hamburg.de
LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610
LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610 Dominik Weinrich dominik.weinrich@tu-dresden.de Dresden, 30.11.2017 Gliederung Motivation Aufbau und Hardware
Exascale Computing. = Exascale braucht Manycore-Hardware...und was für Software??? 46/58
Exascale Computing Die FLOP/s-Tabelle: Name Faktor erreicht heute Giga 10 9 1976 CPU-Kern Tera 10 12 1997 Graphikkarte (GPU) Peta 10 15 2009 Supercomputer Exa 10 18 2020(?) Der gegenwärtig schnellste Rechner
Leibniz-Rechenzentrum
Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften Technical Report Perspectives of High End Computing A Joint Workshop of the RRZE, KONWIHR and LRZ Erlangen, March 17, 200 März 2006 LRZ-Bericht
Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation
Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation Dr. Jan Eitzinger Regionales Rechenzentrum (RRZE) der Universität Erlangen-Nürnberg
OpenCL. Programmiersprachen im Multicore-Zeitalter. Tim Wiersdörfer
OpenCL Programmiersprachen im Multicore-Zeitalter Tim Wiersdörfer Inhaltsverzeichnis 1. Was ist OpenCL 2. Entwicklung von OpenCL 3. OpenCL Modelle 1. Plattform-Modell 2. Ausführungs-Modell 3. Speicher-Modell
Technischen Informatik 1. Jörg Kaiser IVS EOS
Vorlesung Technischen Informatik 1 WS 2014/2015 Jörg Kaiser IVS EOS Otto-von-Guericke-Universität Magdeburg Allgemeine Information Dozent: Prof. Dr. Jörg Kaiser Institut für Verteilte Systeme (IVS) Arbeitsgruppe
Architektur paralleler Plattformen
Architektur paralleler Plattformen Freie Universität Berlin Fachbereich Informatik Wintersemester 2012/2013 Proseminar Parallele Programmierung Mirco Semper, Marco Gester Datum: 31.10.12 Inhalt I. Überblick
DicomStar. DicomStar. Dateien. True IT Solutions For You
DicomStar DicomStar Ein Google für DICOM-Dateien Dateien Motivation... Sie brauchen bestimmte DICOM-Bilder und DICOM-Dateien...... Das Finden der Bilder in Archiven dauert lange...... Sie müssen spezielle
Computergrundlagen Moderne Rechnerarchitekturen
Computergrundlagen Moderne Rechnerarchitekturen Axel Arnold Institut für Computerphysik Universität Stuttgart Wintersemester 2010/11 Aufbau eines modernen Computers DDR3- Speicher Prozessor Prozessor PEG
Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Prof. Dr.-Ing. J. Teich
Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Friedrich-Alexander-Universität Erlangen-Nürnberg Prof. Dr.-Ing. J. Teich Rückblick - Großrechner 2 Keine Computer im Haushalt? Ken Olsen, US-amerikanischer
Compute Unified Device Architecture CUDA
Compute Unified Device Architecture 06. Februar 2012 1 / 13 Gliederung 2 / 13 : Compute Unified Device Architecture entwickelt von Nvidia Corporation spezifiziert Software- und Hardwareeigenschaften Ziel:
PGI Accelerator Model
PGI Accelerator Model Philip Höhlein, Nils Werner Supervision: R. Membarth, P. Kutzer, F. Hannig Hardware-Software-Co-Design Universität Erlangen-Nürnberg Philip Höhlein, Nils Werner 1 Übersicht Motivation
Paralleles Rechnen in der Physik
Paralleles Rechnen in der Physik Georg Hager Regionales Rechenzentrum Erlangen HPC Services Universität Erlangen-Nürnberg 07.05. 2002 Überblick Motivation Parallelität verstehen Paralleles Rechnen in Beispielen
2. Der ParaNut-Prozessor "Parallel and more than just another CPU core"
2. Der ParaNut-Prozessor "Parallel and more than just another CPU core" Neuer, konfigurierbarer Prozessor Parallelität auf Daten- (SIMD) und Thread-Ebene Hohe Skalierbarkeit mit einer Architektur neues
CLAIX Vorstellung und Technik Christian Terboven
CLAIX Vorstellung und Technik Christian Terboven Inhalte CLAIX Phase I Zwei Rack-Reihen + 2 Schränke Testbetrieb mit Projekten seit November 2016 Trier-2 HPC-System Abnahme im Januar 2017 TOP500 im November
Das HLRN-System. Peter Endebrock, RRZN Hannover
Das HLRN-System Peter Endebrock, RRZN Hannover vorweg (1) Heute Vorträge im Dreierpack: Peter Endebrock: Das HLRN-System Gerd Brand: MPI Simone Knief: OpenMP Peter Endebrock, RRZN Hannover, Kolloquium,
Numerik gewöhnlicher Differentialgleichungen Wintersemester 2014/15. Kapitel 0
Numerik gewöhnlicher Differentialgleichungen Wintersemester 2014/15 Kapitel 0 Jun.-Prof. Dr. Thorsten Raasch Johannes Gutenberg-Universität Mainz Institut für Mathematik 29. Oktober 2015 Numerik was ist
Cell and Larrabee Microarchitecture
Cell and Larrabee Microarchitecture Benjamin Grund Dominik Wolfert Universität Erlangen-Nürnberg 1 Übersicht Einleitung Herkömmliche Prozessorarchitekturen Motivation für Entwicklung neuer Architekturen
Gliederung. Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo
Gliederung Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo Was ist CUDA? Nvidia CUDA ist eine von NvidiaGPGPU-Technologie, die es Programmierern erlaubt, Programmteile
AMTLICHE BEKANNTMACHUNG
AMTLICHE BEKANNTMACHUNG NUMMER 2017/094 SEITEN 1-6 DATUM 07.04.2017 REDAKTION Sylvia Glaser 3. Ordnung zur Änderung der studiengangspezifischen Prüfungsordnung für den Bachelorstudiengang Informatik der
Architektur von Parallelrechnern 50
Architektur von Parallelrechnern 50 Rechenintensive parallele Anwendungen können nicht sinnvoll ohne Kenntnis der zugrundeliegenden Architektur erstellt werden. Deswegen ist die Wahl einer geeigneten Architektur
ModProg 15-16, Vorl. 13
ModProg 15-16, Vorl. 13 Richard Grzibovski Jan. 27, 2016 1 / 35 Übersicht Übersicht 1 Supercomputing FLOPS, Peak FLOPS Parallelismus Praktische Aspekte 2 Klausur von 2009 2 / 35 Supercomputing: HPC Modellierung
Parallel Computing in der industriellen Bildverarbeitung
SOLUTIONS FOR MACHINE VISION Parallel Computing in der industriellen Bildverarbeitung Dipl.-Inform. Alexander Piaseczki Research and Development Sirius Advanced Cybernetics GmbH Tools & Solutions für die
Computergrundlagen Moderne Rechnerarchitekturen
Aufbau eines modernen Computers Computergrundlagen Moderne Rechnerarchitekturen Axel Arnold Institut für Computerphysik Universität Stuttgart DDR3- Speicher Prozessor Prozessor PEG Graphikkarte(n) weitere
Projektseminar Parallele Programmierung
HTW Dresden WS 2014/2015 Organisatorisches Praktikum, 4 SWS Do. 15:00-18:20 Uhr, Z136c, 2 Doppelstunden o.g. Termin ist als Treffpunkt zu verstehen Labore Z 136c / Z 355 sind Montag und Donnerstag 15:00-18:20
Supercomputer Blue Gene/L
FH Giessen Friedberg Supercomputer Blue Gene/L Sven Wagner Übersicht Einführung Supercomputer Begriffe Geschichte TOP500 Anwendung 2 Übersicht Blue Gene/L Historie Architektur & Packaging ASIC Netzwerk
examen.press ist eine Reihe, die Theorie und Praxis aus allen Bereichen der Informatik für die Hochschulausbildung vermittelt.
examen.press examen.press ist eine Reihe, die Theorie und Praxis aus allen Bereichen der Informatik für die Hochschulausbildung vermittelt. Thomas Rauber Gudula Rünger Parallele Programmierung 3. Auflage
Erste Ergebnisse mit MPI auf der NEC SX-4
PARALLELES RECHNEN Erste Ergebnisse mit MPI auf der NEC SX-4 Verwendung von MPI MPI/SX MPICH Kommunikationsleistung Leistung einer CFD-Applikation Literatur Message Passing-Anwendungen auf einer shared-memory
Institut für Künstliche Intelligenz
Institut für Künstliche Intelligenz Prof. Sebstaian Rudolph --- Computational Logic Prof. Steffen Hölldobler --- Wissensverarbeitung Prof. Ivo F. Sbalzarini --- Wissenschaftliches Rechnen für Systembiologie
The world we live in and Supercomputing in general
The world we live in and Supercomputing in general Achim Streit aktuelle Prozessoren Desktop Intel Pentium 4 mit 3.2 GHz AMD Athlon XP 3200+ mit 2.2 GHz IBM PowerPC G5 mit 2.0 GHz (64-bit) Server & Workstation
Sun HPC Agenda
Sun HPC 2005 - Agenda 10:00 Willkommen und Einleitung Klaus Brühl, RZ, 10:15 Neues vom Aachener Sun Fire SMP Cluster Dieter an Mey, RZ, 10:30 UltraSPARC - Today and Tomorrow Ruud van der Pas, Scalable
Staff. Tim Conrad. Zeitplan. Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2013. Tim Conrad
Blockseminar: Verteiltes Rechnen und Parallelprogrammierung Sommer Semester 2013 Tim Conrad Staff Tim Conrad AG Computational Proteomics email: conrad@math.fu-berlin.de Telefon: 838-51445 Büro: Raum 138,
Seminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit OpenMP 4.5 und OpenACC 2.5 im Vergleich
Seminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit Direktivenbasierte Programmierung von Beschleunigern mit Agenda Einführung / Motivation Überblick zu OpenMP und OpenACC Asynchronität
Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation
1 Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation Dr. G. Wellein, Regionales Rechenzentrum Erlangen Supercomputer
General Purpose Computation on GPUs
General Purpose Computation on GPUs Matthias Schneider, Robert Grimm Universität Erlangen-Nürnberg {matthias.schneider, robert.grimm}@informatik.stud.uni-erlangen.de M. Schneider, R. Grimm 1 Übersicht
Parallelrechner: Klassifikation. Parallelrechner: Motivation. Parallelrechner: Literatur. Parallelrechner: PC-Technologie SMP-Multiprozessorsysteme 69
Parallelrechner: Motivation immer höhere Performance gefordert => schnellere Einzelprozessoren aber Takte oberhalb von 10 GHz unrealistisch => mehrere Prozessoren diverse Architekturkonzepte shared-memory
Numerical Modelling of CO 2 Storage in Geological Formations with MUFTE-UG
Numerical Modelling of CO 2 Storage in Geological Formations with MUFTE-UG Anozie Ebigbo, Andreas Kopp, Holger Class, Rainer Helmig Wednesday, 14th March 2007 Outline Motivation Physical/mathematical and
Towards Modular Supercomputing with Slurm
Towards Modular Supercomputing with Slurm 2017-09-25 Dorian Krause et al., Jülich Supercomputing Centre, Forschungszentrum Jülich Dual-Architecture Supercomputing Facility IBM Power 4+ JUMP, 9 TFlop/s
Introduction Workshop 11th 12th November 2013
Introduction Workshop 11th 12th November 2013 Lecture I: Hardware and Applications Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Overview Current and next System Hardware Sections
Vorstellung der Fachgebiete
Fakultät Informatik, Institut für Technische Informatik, Professur Rechnerarchitektur Vorstellung der Fachgebiete Institut für Technische Informatik Zellescher Weg 12 Nöthnitzer Straße 46 Willers-Bau A
Yilmaz, Tolga MatNr: Mesaud, Elias MatNr:
Yilmaz, Tolga MatNr: 157317 Mesaud, Elias MatNr: 151386 1. Aufbau und Funktionsweise einer Grafikkarte 2. CPU vs. GPU 3. Software 4. Beispielprogramme Kompilierung und Vorführung 5. Wo wird Cuda heutzutage
GPGPU-Architekturen CUDA Programmiermodell Beispielprogramm. Einführung CUDA. Ralf Seidler. Friedrich-Alexander-Universität Erlangen-Nürnberg
Einführung CUDA Friedrich-Alexander-Universität Erlangen-Nürnberg PrakParRA, 18.11.2010 Outline 1 GPGPU-Architekturen 2 CUDA Programmiermodell 3 Beispielprogramm Outlook 1 GPGPU-Architekturen 2 CUDA Programmiermodell
Kompaktes Hardware-Wissen rund um die Micro-Prozessor-Technik
Auszug aus unserem Bestseller Kapitel: Micro-Prozessor-Technik Autor: Rainer Egewardt Copyright by PCT-Solutions 1. Auflage 600 Seiten 2. Auflage 1200 Seiten Kompaktes Hardware-Wissen rund um die Micro-Prozessor-Technik
Verteilte Betriebssysteme
Verteiltes System Eine Sammlung unabhängiger Rechner, die dem Benutzer den Eindruck vermitteln, es handle sich um ein einziges System. Verteiltes Betriebssystem Betriebssystem für verteilte Systeme Verwaltet
Fachbereich Informatik
Informationssysteme Künstliche Intelligenz I 11101, Vorlesung, SWS: 2 Di, wöchentl., 15:00-16:30, 3703-023 Multimedia-Hörsaal Übungen zu Künstliche Intelligenz I 11103, Theoretische Übung, SWS: 1 Di, wöchentl.,
Algorithmische Mathematik und Programmieren
Algorithmische Mathematik und Programmieren Martin Lanser Universität zu Köln WS 2016/2017 Organisatorisches M. Lanser (UzK) Alg. Math. und Programmieren WS 2016/2017 1 Ablauf der Vorlesung und der Übungen
2 Rechnerarchitekturen
2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf
Effektive Nutzung der Simulationsumgebung Anregungen für die Praxis
1 2017 ANSYS, 14. Inc. Juni 2017 in June Winterthur 20, 2017 22. SCHWEIZER CADFEM ANSYS SIMULATION CONFERENCE Effektive Nutzung der Simulationsumgebung Anregungen für die Praxis Martin Mann Sales & Acount
Das MORFEUS GRID. Aufbau und Anwendungen. Thomas Bauer Institut für Festkörpertheorie Universität Münster
Das MORFEUS GRID Aufbau und Anwendungen Thomas Bauer Institut für Festkörpertheorie Universität Münster 16.12.2005 tombauer@uni-muenster.de I. Aufbau des MORFEUS GRIDs Die IVV Naturwissenschaften der Universität
GPU-Programmierung: OpenCL
Seminar: Multicore Programmierung Sommerstemester 2009 04.06.2009 Inhaltsverzeichnis 1 GPU-Programmierung von Grafikkarten von GPU-Computing 2 Architektur Spracheigenschaften Vergleich mit CUDA Beispiel
Aktuelle Trends und Herausforderungen in der Finite-Elemente-Simulation
Aktuelle Trends und Herausforderungen in der Finite-Elemente-Simulation Kai Diethelm GNS Gesellschaft für numerische Simulation mbh Braunschweig engineering software development Folie 1 Überblick Vorstellung
Einführung in die Informatik für Nebenfach. Einleitung
Einführung in die Informatik für Nebenfach Einleitung Organisatorisches, Motivation, Herangehensweise Wolfram Burgard 1 Vorlesung Zeit und Ort: Di+Do 11.00 13.00 Uhr, Gebäude 086, Raum 00-006 Dozent: Prof.
Finite Difference Method (FDM)
Finite Difference Method (FDM) home/lehre/vl-mhs-1-e/folien/vorlesung/2a_fdm/cover_sheet.tex page 1 of 15. p.1/15 Table of contents 1. Problem 2. Governing Equation 3. Finite Difference-Approximation 4.