Paralleles Höchstleistungsrechnen Einführung

Größe: px
Ab Seite anzeigen:

Download "Paralleles Höchstleistungsrechnen Einführung"

Transkript

1 1/40 Paralleles Höchstleistungsrechnen Einführung Peter Bastian Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Universität Heidelberg Im Neuenheimer Feld 368 D Heidelberg 2. Oktober 2008

2 2/40 Inhalt Organisatorisches Motivation Einige Beispielanwendungen Superrechner Inhalt der Vorlesung

3 3/40 Vorlesung Dozent Peter Bastian zu finden in: INF 368, Raum Vorlesung Di 9-11 in 368/532, Do 9-11 in 350/U014 Skript, Folien (falls verfügbar), Übungsaufgaben:

4 4/40 Übung Leiter: Christian Engwer findet statt im CIP-Pool des IWR, Otto-Meierhof-Zentrum Zeit: Noch zu vereinbaren! Anmeldung zur Übung Schein auf Übungsaufgaben Bachelor/Master: mündliche Prüfung (bzw. Klausur bei großem Andrang) Voraussetzung für die Teilnahme an der mündlichen Prüfung/Klausur: 50% der Übungsaufgaben C/C++ Kentnisse erforderlich

5 5/40 Inhalt Organisatorisches Motivation Einige Beispielanwendungen Superrechner Inhalt der Vorlesung

6 6/40 Warum parallel Rechnen? Nebenläufigkeit Abarbeitung mehrerer Prozesse auf einem Prozessor Multi-Tasking Betriebssysteme seit den 60er Jahren Bedienung mehrerer Geräte und Benutzer Ziel: Steigerung der Auslastung Hyperthreading : Nutze Wartezeiten des Prozessors Mehrere Dinge gleichzeitig : Web-Browser, Desktop Koordinationsproblematik tritt bereits hier auf Verteilte Anwendungen Datenbasis ist inhärent verteilt: betriebswirtschaftliche Software, Warenfluß in großen Unternehmen Hier wichtig: plattformübergreifende Kommunikation, Client-Server Architekturen Auch wichtig: Sicherheit, VPN, etc. (behandeln wir nicht)

7 7/40 High Performance Computing Treibt Rechnerentwicklung seit Anfang 1940er Anwendungen: mathematische Modellierung und numerische Simulation ungestillter Hunger nach Rechenzeit: Modellfehler detailliertere Physik Approximationsfehler mehr Freiheitsgrade Grand Challenges: Kosmologie, z. B. Galaxiendynamik Proteinfaltung Erdbebenvorhersage Klimaentwicklung ASCI Program (Advanced Simulation and Computing) Programm amerikanischer Parallelrechner seit 1992, Funding 2004: 200 Mio US-$ DoE, 87 Mio US-$ NSF

8 8/40 Earth Simulator (Japan) Juni 2002 bis Juni 2004 der leistungsfähigste Computer der Welt Kosten: 350 bis 500 Mio US-$ Folie (und die folgenden) von J. Dongarra

9 Earth Simulator Architecture 9/40

10 Earth Simulator Gebäude 10/40

11 Earth Simulator Gebäude 11/40

12 ... die Kabel 12/40

13 ... die Kabel 13/40

14 ... und ein Kraftwerk 14/40

15 15/40 Terascale Simulation Facility Lawrence Livermore National Laboratory BlueGene/L Prozessoren, 478 TFLOPS seit 2007

16 Couplex Benchmark far field 3000 m near field 6 m 0.9 m 5 m 15 m seal container gallery 50 m repository Couplex1, Couplex2 16/40

17 17/40 Inhalt Organisatorisches Motivation Einige Beispielanwendungen Superrechner Inhalt der Vorlesung

18 Couplex Transport Model Flow equation: u = f in Ω, u = K H Transport equations i = silica, 135 Cs, 238 Pu, 242 Pu, 234 U, 238 U: ( ) Ci Rω t + λc i + j i = q(c 1,...,C n ) in Ω, Processes: j i = uc i D(u) C i Convection-dispersion (Scheidegger) Radioactive decay 238 Pu 234 U, 242 Pu 238 U Precipitation: 238 Pu, 242 Pu, 234 U, 238 U as disolved components and (immobile) solid phase 18/40

19 19/40 Couplex 2 [Micromole/yr] 4e e-10 3e e-10 2e e-10 1e-10 5e-11 0 U234 Host to Outside -5e e+06 2e+06 3e+06 4e+06 5e+06 6e+06 Time [yr] 1622 vertices vertices vertices vertices P Unbekannte Par. Rechenzeit [h] Seq. Rechenzeit [h] (Gemeinsame Arbeit mit Stefan Lang)

20 Dichteströmung brine, 1200 kg/m3 perturbation water, 1000 kg/m3 periodic boundary conditions Salzstock, Ozean, Atmosphäre, Sterninneres, Erdmantel, Kaffeetasse 20/40

21 21/40 Density driven flow in Porous Media Flow equation (Bussinesq approximation): u = f, u = K ( p (C)g), (C) = C b+(1 C) 0 in µ Ω Transport equation: (ΦC) t + j + q = 0, j = Cu D C Elliptic flow equation coupled to parabolic/hyperbolic transport equation Cell centered finite volume discretization, second order Godunov scheme for convective terms Cell centered multigrid method Decoupled solution scheme

22 22/40 Simulation Results Comparison of two-dimensional and three-dimensional simulation 2d 3d

23 23/40 Simulation Data Grid size: , about 9000 time steps Solves linear system with unknowns per time step (requires 30 seconds on 384 processors) Data produced per time step: 3.2 GByte in binary float Data produced by whole simulation: 29 TByte Visualization requires intelligent ways of data reduction and/or parallelized visualization tools In addition I/O capabilities of HELICS should be improved in the future

24 24/40 Virtuelles Labor Verändere physikalische Parameter (links wenig Diffusion, rechts viel Diffusion) Visualisierung großer Datenmengen ist ein Problem Alle Komponenten einer Simulation müssen parallel bearbeitet werden

25 25/40 In-Situ Reinigungsverfahren 100 m Pumpbrunnen 400 m Schadstoff Boden mit variabler Durchlässigkeit Förderbrunnen

26 3D Transport in Heterogenem Medium Zellenzentrierte Finite-Volumen Verfahren (CCMG, HOG) Zellen, time steps 26/40

27 27/40 Numerische Strömungsberechnung p, C Pro Zelle: Phys. Größen wie Druck, Temperatur, Konzentration Je mehr Zellen desto genauer das Ergebnis

28 28/40 Datenparallelität Datenzerlegung/Datenaufteilung Datenaustausch (muss minimiert werden)

29 Beschleunigung ideal festes Problem wachsendes Problem Beschleunigung Prozessoren Gegebenes Problem immer schneller rechnen Mit mehr Prozessoren immer größere Probleme rechnen 29/40

30 30/40 Inhalt Organisatorisches Motivation Einige Beispielanwendungen Superrechner Inhalt der Vorlesung

31 31/40 Was ist ein Superrechner? Gerät Jahr $ Takt [MHz] MBytes MFLOPS CDC M $ Cray 1A M $ Cray X-MP/ M $ C ASCI Red Pentium Core 2 XE QX > X-MP/48: P=4, C90: P=16, ASCI Red: P=9152 PC von heute = Superrechner von gestern

32 Entwicklung Einzelprozessoren in den 90ern 1 1 Culler/Singh, Parallel Computer Architecture. 32/40

33 Entwicklung Multiprozessoren 2 2 Culler/Singh, Parallel Computer Architecture. 33/40

34 HELICS Entwicklung seit den 90er Jahren: Cluster Computer Aufbau aus Standardbauteilen 34/40

35 35/40 Aktuelle Entwicklung Multicore Prozessoren Coprozessoren Cell, Clearspeed General Puropse GPU-Computing Petaflop Computer: Gleitkommaoperationen pro Sekunde erreicht im Juni 2008 der IBM Roadrunner Cores, Opteron mit Cell Coprozessoren

36 General Purpose GPU-Computing Quelle: NVIDIA 36/40

37 37/40 Effiziente Algorithmen Schnelle Rechner sind nicht alles! Rechenzeiten zur (approximativen) Lösung spezieller linearer Gleichungssysteme: N Gauß ( 2 3 N3 ) Mehrgitter (100N) s 10 4 s s 10 3 s Tage 10 2 s Jahre 0.1 s Jahre 1 s (für einen Rechner mit 1 GFLOP/s) Parallelisierung kann einem ineffizienten Verfahren nicht helfen! Schnelle Rechner und schnelle Algorithmen

38 38/40 Inhalt Organisatorisches Motivation Einige Beispielanwendungen Superrechner Inhalt der Vorlesung

39 Inhalt der Vorlesung I Hardware Prozessorentwicklung, Pipelining, SIMD, MIMD, Caches, Cachekonsistenz, Multicore Verbindungsnetzwerke Grafikprozessoren II Programmierung gemeinsamer Speicher: Locks, Semaphore PThreads, OpenMP verteilter Speicher: MPI-I, MPI-II RPC, Corba CUDA III Algorithmen Bewertung von Algorithmen, prinzipielles Vorgehen, Lastverteilung dichtbesetzte Matrizen dünnbesetzte Gleichungssysteme Sortieren, N-Körper-Problem 39/40

40 40/40 Links Vorlesung ASCI Program Seymour Cray craytalk/ TOP 500 Supercomputer Sites

Wissenschaftliches Rechen

Wissenschaftliches Rechen Wissenschaftliches Rechen Paralleles Höchstleistungsrechnen Christian Engwer Uni Münster April 5, 2011 Christian Engwer (Uni Münster) Wissenschaftliches Rechen April 5, 2011 1 / 20 Organisatorisches Vorlesung

Mehr

Parallele Lösung großer Gleichungssysteme

Parallele Lösung großer Gleichungssysteme Parallele Lösung großer Gleichungssysteme Peter Bastian Universität Heidelberg Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Im Neuenheimer Feld 368, D-69120 Heidelberg email: Peter.Bastian@iwr.uni-stuttgart.de

Mehr

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1 Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer

Mehr

Spielst du noch oder rechnest du schon?

Spielst du noch oder rechnest du schon? Spielst du noch oder rechnest du schon? Mit Spielkonsole und Co. zum Supercomputer der Zukunft Fachbereich Elektrotechnik und Informationstechnik Fachhochschule Bielefeld University of Applied Sciences

Mehr

Vertiefungsrichtung Rechnerarchitektur

Vertiefungsrichtung Rechnerarchitektur srichtung () ( für ) Prof. Dietmar Fey Ziele der srichtung RA Vertiefen des Verständnis vom Aufbau, Funktionsweise von Rechnern und Prozessoren Modellierung und Entwurf von Rechnern und Prozessoren ()

Mehr

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Scientific Computing 07. Oktober 2009 Siegfried Benkner Wilfried Gansterer Fakultät für Informatik Universität Wien www.cs.univie.ac.at

Mehr

Vertiefungsrichtung Rechnerarchitektur

Vertiefungsrichtung Rechnerarchitektur srichtung () ( für ) Prof. Dietmar Fey 1 Ziele der srichtung RA Vertiefen des Verständnis vom Aufbau, Funktionsweise von Rechnern und Prozessoren () Modellierung und Entwurf von Rechnern und Prozessoren

Mehr

Sommer Verzeichnis der Lehrveranstaltungen. Institut für Technische Informatik (ZITI) (Stand: )

Sommer Verzeichnis der Lehrveranstaltungen. Institut für Technische Informatik (ZITI) (Stand: ) UNIVERSITÄT HEIDELBERG Verzeichnis der Lehrveranstaltungen () Die ausführliche Darstellung der Veranstaltungen findet sich unter http://lsf.uni-heidelberg.de Abkürzungsschlüssel AM = Institut für Angewandte

Mehr

Einführung in die Numerik

Einführung in die Numerik Einführung in die Numerik Sommersemester 2017 Dr. Andreas Potschka Ruprecht Karls-Universität Heidelberg Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Im Neuenheimer Feld 205, 69120 Heidelberg

Mehr

Systeme 1: Architektur

Systeme 1: Architektur slide 1 Vorlesung Systeme 1: Architektur Prof. Dr. Ulrich Ultes-Nitsche Forschungsgruppe Departement für Informatik Universität Freiburg slide 2 Prüfung 18. Februar 2004 8h00-11h40 13h00-18h20 20 Minuten

Mehr

RST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck

RST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck RST-Labor WS06/07 GPGPU General Purpose Computation On Graphics Processing Units (Grafikkarten-Programmierung) Von: Marc Blunck Ablauf Einführung GPGPU Die GPU GPU Architektur Die Programmierung Programme

Mehr

Games with Cellular Automata auf Parallelen Rechnerarchitekturen

Games with Cellular Automata auf Parallelen Rechnerarchitekturen Bachelor Games with Cellular Automata auf Parallelen en ( ) Dipl.-Inf. Marc Reichenbach Prof. Dietmar Fey Ziel des s Paralleles Rechnen Keine akademische Nische mehr Vielmehr Allgemeingut für den Beruf

Mehr

Parallele und verteilte Programmierung

Parallele und verteilte Programmierung Thomas Rauber Gudula Rünger Parallele und verteilte Programmierung Mit 165 Abbildungen und 17 Tabellen Jp Springer Inhaltsverzeichnis 1. Einleitung 1 Teil I. Architektur 2. Architektur von Parallelrechnern

Mehr

Optimierungen der Lattice Boltzmann Methode auf x86-64 basierten Architekturen

Optimierungen der Lattice Boltzmann Methode auf x86-64 basierten Architekturen Optimierungen der Lattice Boltzmann Methode auf x86-64 basierten Architekturen J. Treibig, S. Hausmann, U. Ruede 15.09.05 / ASIM 2005 - Erlangen Gliederung 1 Einleitung Motivation Grundlagen 2 Optimierungen

Mehr

Universität Karlsruhe (TH)

Universität Karlsruhe (TH) Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Parallelism in curricula An international survey November 7, 2008 Stuttgart, Germany David Meder Dr. Victor Pankratius For comments: multicore-systems@ipd.uni-karlsruhe.de

Mehr

(Software) Architektur der Dinge. Roland Graf / Simon Kranzer IKT-Forum 2016 I(o)T for Industry - Von IT zu IoT

(Software) Architektur der Dinge. Roland Graf / Simon Kranzer IKT-Forum 2016 I(o)T for Industry - Von IT zu IoT (Software) Architektur der Dinge Roland Graf / Simon Kranzer IKT-Forum 2016 I(o)T for Industry - Von IT zu IoT Hardware Mainframe Speichersysteme Rechner Kopplung Zentralisierung Anwendungsprogramme Software

Mehr

Parallel Computing. Einsatzmöglichkeiten und Grenzen. Prof. Dr. Nikolaus Wulff

Parallel Computing. Einsatzmöglichkeiten und Grenzen. Prof. Dr. Nikolaus Wulff Parallel Computing Einsatzmöglichkeiten und Grenzen Prof. Dr. Nikolaus Wulff Parallel Architekturen Flynn'sche Klassifizierung: SISD: single Instruction, single Data Klassisches von-neumann sequentielles

Mehr

Einleitung. Dr.-Ing. Volkmar Sieh WS 2005/2006. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg

Einleitung. Dr.-Ing. Volkmar Sieh WS 2005/2006. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg Technologische Trends Historischer Rückblick Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2005/2006 Technologische Trends Historischer Rückblick Übersicht

Mehr

Parallele Rechnerarchitekturen

Parallele Rechnerarchitekturen Bachelor Parallele en Informatik 3 ( ) Prof. Dietmar Fey Ziel des s Paralleles Rechnen Keine akademische Nische mehr Vielmehr Allgemeingut für den Beruf des Informatikers Bedingt durch Multikern- (und

Mehr

Air-Sea Gas Transfer: Schmidt Number Dependency and Intermittency

Air-Sea Gas Transfer: Schmidt Number Dependency and Intermittency Air-Sea Gas Transfer: Schmidt Number Dependency and Intermittency Bernd Jähne, Reinhard Nielsen, Christopher Pop, Uwe Schimpf, and Christoph Garbe Interdisziplinäres Zentrum für Wissenschaftliches Rechnen

Mehr

Kapitel 5. Parallelverarbeitung. Formen der Parallelität

Kapitel 5. Parallelverarbeitung. Formen der Parallelität Kapitel 5 Parallelverarbeitung é Formen der Parallelität é Klassifikation von parallelen Rechnerarchitekturen é Exkurs über Verbindungsstrukturen Bernd Becker Technische Informatik I Formen der Parallelität

Mehr

Refactoring the UrQMD Model for Many- Core Architectures

Refactoring the UrQMD Model for Many- Core Architectures Refactoring the UrQMD Model for Many- Core Architectures Mathias Radtke Semiar: Softwaretechnologie (WS 2013/2014 Goethe-Universität Frankfurt Agenda: 1. UrQMD 2. CPU Vs. GPU 3. Von FORTRAN zu C++/OpenCL

Mehr

Fluid-Particle Multiphase Flow Simulations for the Study of Sand Infiltration into Immobile Gravel-Beds

Fluid-Particle Multiphase Flow Simulations for the Study of Sand Infiltration into Immobile Gravel-Beds 3rd JUQUEEN Porting and Tuning Workshop Jülich, 2-4 February 2015 Fluid-Particle Multiphase Flow Simulations for the Study of Sand Infiltration into Immobile Gravel-Beds Tobias Schruff, Roy M. Frings,

Mehr

PG 471: Beyond Graphics. Strömungssimulation in der GPU

PG 471: Beyond Graphics. Strömungssimulation in der GPU Strömungssimulation in der GPU Betreuer: Claus-Peter Alberts, LS VII Dominik Göddeke, LS III (Mathematik) Normale Nutzung von Grafikkarten Normale Nutzung von Grafikkarten STATTDESSEN: GPGPU! Anwendungsfall:

Mehr

Technische Grundlagen der Informatik 2 SS Einleitung. R. Hoffmann FG Rechnerarchitektur Technische Universität Darmstadt E-1

Technische Grundlagen der Informatik 2 SS Einleitung. R. Hoffmann FG Rechnerarchitektur Technische Universität Darmstadt E-1 E-1 Technische Grundlagen der Informatik 2 SS 2009 Einleitung R. Hoffmann FG Rechnerarchitektur Technische Universität Darmstadt Lernziel E-2 Verstehen lernen, wie ein Rechner auf der Mikroarchitektur-Ebene

Mehr

Einführung in die Praktische Informatik WS 09/10

Einführung in die Praktische Informatik WS 09/10 Einführung in die Praktische Informatik WS 09/10 Prof. Dr. Christian Sengstock Institut für Informatik Neuenheimer Feld 348 69120 Heidelberg http://dbs.ifi.uni-heidelberg.de sengstock@informatik.uni-heidelberg.de

Mehr

Programmierung. Rückblick. VWA - Programmierung Winter Algorithmus. Programmiersprache. Variable. Zuweisung. Bedingung.

Programmierung. Rückblick. VWA - Programmierung Winter Algorithmus. Programmiersprache. Variable. Zuweisung. Bedingung. Programmierung 1 Rückblick Algorithmus Programmiersprache Variable Zuweisung Bedingung Schleife (c) Peter Sturm, University of Trier 1 3 Aufgabe: Viele, viele bunte Smarties Rechengeschwindigkeit CPU 5

Mehr

CUDA. Moritz Wild, Jan-Hugo Lupp. Seminar Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg

CUDA. Moritz Wild, Jan-Hugo Lupp. Seminar Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg CUDA Seminar Multi-Core Architectures and Programming 1 Übersicht Einleitung Architektur Programmierung 2 Einleitung Computations on GPU 2003 Probleme Hohe Kenntnisse der Grafikprogrammierung nötig Unterschiedliche

Mehr

Vorlesung Wissenschaftliches Rechen

Vorlesung Wissenschaftliches Rechen Vorlesung Wissenschaftliches Rechen Christian Engwer Uni Münster 9. Oktober 2017 Vorlesung Mo, Do: 10-12 Uhr (M3) Christian Engwer Einsteinstrasse 62, Zimmer 120.220 email: christian.engwer@uni-muenster.de

Mehr

High Performance Computing

High Performance Computing High Performance Computing SS 2002 PD Dr. A. Strey Abteilung Neuroinformatik, Universität Ulm Email: strey@informatik.uni-ulm.de Inhalt Einführung hohe Leistung durch Parallelität! kurze Historie des High

Mehr

Mehrprozessorarchitekturen

Mehrprozessorarchitekturen Mehrprozessorarchitekturen (SMP, UMA/NUMA, Cluster) Arian Bär 12.07.2004 12.07.2004 Arian Bär 1 Gliederung 1. Einleitung 2. Symmetrische Multiprozessoren (SMP) Allgemeines Architektur 3. Speicherarchitekturen

Mehr

Übersicht. Einleitung. Übersicht. Architektur. Dr.-Ing. Volkmar Sieh WS 2008/2009

Übersicht. Einleitung. Übersicht. Architektur. Dr.-Ing. Volkmar Sieh WS 2008/2009 Übersicht Einleitung 1 Einleitung Dr.-Ing. Volkmar Sieh 2 Technologische Trends Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 3 Historischer

Mehr

Einleitung. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2006/2007

Einleitung. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2006/2007 Einleitung Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2006/2007 Einleitung 1/50 2006/10/09 Übersicht 1 Einleitung 2 Technologische

Mehr

Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern

Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern Institut für Betriebssysteme und Rechnerverbund TU Braunschweig 25.10., 26.10.

Mehr

Entwurf eines FPGA-Cores zur Simulationsbeschleunigung zeitkontinuierlicher Modelle im HiL Kontext

Entwurf eines FPGA-Cores zur Simulationsbeschleunigung zeitkontinuierlicher Modelle im HiL Kontext Entwurf eines FPGA-Cores zur Simulationsbeschleunigung zeitkontinuierlicher Modelle im HiL Kontext Till Fischer 03.11.2011 FZI Forschungszentrum Informatik Embedded Systems & Sensors Engineering (ESS)

Mehr

Multicore-Architekturen

Multicore-Architekturen Universität Erlangen- Nürnberg Technische Universität München Universität Stuttgart Multicore-Architekturen Vortrag im Rahmen der Ferienakademie 2009 Kurs 1: Programmierkonzepte für Multi-Core Rechner

Mehr

Prof. Dr. Th. Letschert CS5001. Verteilte Systeme. Master of Science (Informatik) - Einleitung - Th Letschert FH Gießen-Friedberg

Prof. Dr. Th. Letschert CS5001. Verteilte Systeme. Master of Science (Informatik) - Einleitung - Th Letschert FH Gießen-Friedberg Prof. Dr. Th. Letschert CS5001 Master of Science (Informatik) - - Th Letschert FH Gießen-Friedberg Modulnr.: CS5001 Verwendbar : Master of Science (Informatik) Master of Science (Wirtschaftsinformatik)

Mehr

Einfuehrung. October 20, 2017

Einfuehrung. October 20, 2017 Einfuehrung October 20, 2017 1 Einführung 1.1 Organisatorisches Es wird jede Woche eine Übungsaufgabe in Form eines Jupyter-Notebooks ausgegeben. Diese kann von der Vorlesungsweibseite https://aam.uni-freiburg.de/agkr/lehre/ws17/pde0/

Mehr

Prof. Dr. Vincent Heuveline

Prof. Dr. Vincent Heuveline Supercomputer und Hochleistungsrechner Perspektiven und Herausforderungen aus heutiger Sicht Prof. Dr. Vincent Heuveline Hochleistungsrechner, Supercomputer: Quid? Hochleistungsrechner, Supercomputer:

Mehr

Engineering the Factory of the Future Now.Next.Beyond. Heiko Schwindt VP Automation & Electrification Solutions, Bosch Rexroth

Engineering the Factory of the Future Now.Next.Beyond. Heiko Schwindt VP Automation & Electrification Solutions, Bosch Rexroth Engineering the Factory of the Future Now.Next.Beyond. Heiko Schwindt VP Automation & Electrification Solutions, Bosch Rexroth Connect on LinkedIn www.linkedin.com/in/heiko-schwindt-625039140/ 1 "The challenge

Mehr

Grundlagen der Numerischen Mathematik Sommersemester Kapitel 0. Jun.-Prof. Dr. Thorsten Raasch (JGU Mainz) 23. April 2014

Grundlagen der Numerischen Mathematik Sommersemester Kapitel 0. Jun.-Prof. Dr. Thorsten Raasch (JGU Mainz) 23. April 2014 Grundlagen der Numerischen Mathematik Sommersemester 2014 Kapitel 0 Jun.-Prof. Dr. Thorsten Raasch Johannes Gutenberg-Universität Mainz Institut für Mathematik 23. April 2014 Numerik Was ist das? Was ist

Mehr

Hochleistungsrechnen auf dem PC

Hochleistungsrechnen auf dem PC Hochleistungsrechnen auf dem PC Steffen Börm Christian-Albrechts-Universität zu Kiel Ringvorlesung Informatik, 26. Juni 2014 S. Börm (CAU Kiel) Hochleistungsrechnen auf dem PC 26. Juni 2014 1 / 33 Übersicht

Mehr

Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner. Dr. Andreas Wolf. Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum

Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner. Dr. Andreas Wolf. Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Überblick Randbedingungen der HPC Beschaffung an der

Mehr

Näherungsformeln für Spill Plumes in Atrien variabler Größe

Näherungsformeln für Spill Plumes in Atrien variabler Größe Dieser Text ist entnommen aus dem Fachbuch: Hendrik C. Belaschk Hrsg.: Nabil A. Fouad; Leibniz Universität Hannover, Institut für Bauphysik Näherungsformeln für Spill Plumes in Atrien variabler Größe CFD-Studien

Mehr

Motivation (GP)GPU CUDA Zusammenfassung. CUDA und Python. Christian Wilms. Integriertes Seminar Projekt Bildverarbeitung

Motivation (GP)GPU CUDA Zusammenfassung. CUDA und Python. Christian Wilms. Integriertes Seminar Projekt Bildverarbeitung CUDA und Python Christian Wilms Integriertes Seminar Projekt Bildverarbeitung Universität Hamburg WiSe 2013/14 12. Dezember 2013 Christian CUDA und Python 1 Gliederung 1 Motivation 2 (GP)GPU 3 CUDA 4 Zusammenfassung

Mehr

Evaluation. Einleitung. Implementierung Integration. Zusammenfassung Ausblick

Evaluation. Einleitung. Implementierung Integration. Zusammenfassung Ausblick Christopher Schleiden Bachelor Kolloquium 15.09.2009 Einleitung Evaluation Implementierung Integration Zusammenfassung Ausblick Einleitung laperf Lineare Algebra Bibliothek für C++ Möglichkeit zur Integration

Mehr

Field-Circuit Coupling for Mechatronic Systems: Some Trends and Techniques

Field-Circuit Coupling for Mechatronic Systems: Some Trends and Techniques Field-Circuit Coupling for Mechatronic Systems: Some Trends and Techniques Stefan Kurz Robert Bosch GmbH, Stuttgart Now with the University of the German Federal Armed Forces, Hamburg stefan.kurz@unibw-hamburg.de

Mehr

LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610

LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610 LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610 Dominik Weinrich dominik.weinrich@tu-dresden.de Dresden, 30.11.2017 Gliederung Motivation Aufbau und Hardware

Mehr

Exascale Computing. = Exascale braucht Manycore-Hardware...und was für Software??? 46/58

Exascale Computing. = Exascale braucht Manycore-Hardware...und was für Software??? 46/58 Exascale Computing Die FLOP/s-Tabelle: Name Faktor erreicht heute Giga 10 9 1976 CPU-Kern Tera 10 12 1997 Graphikkarte (GPU) Peta 10 15 2009 Supercomputer Exa 10 18 2020(?) Der gegenwärtig schnellste Rechner

Mehr

Leibniz-Rechenzentrum

Leibniz-Rechenzentrum Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften Technical Report Perspectives of High End Computing A Joint Workshop of the RRZE, KONWIHR and LRZ Erlangen, March 17, 200 März 2006 LRZ-Bericht

Mehr

Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation

Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation Dr. Jan Eitzinger Regionales Rechenzentrum (RRZE) der Universität Erlangen-Nürnberg

Mehr

OpenCL. Programmiersprachen im Multicore-Zeitalter. Tim Wiersdörfer

OpenCL. Programmiersprachen im Multicore-Zeitalter. Tim Wiersdörfer OpenCL Programmiersprachen im Multicore-Zeitalter Tim Wiersdörfer Inhaltsverzeichnis 1. Was ist OpenCL 2. Entwicklung von OpenCL 3. OpenCL Modelle 1. Plattform-Modell 2. Ausführungs-Modell 3. Speicher-Modell

Mehr

Technischen Informatik 1. Jörg Kaiser IVS EOS

Technischen Informatik 1. Jörg Kaiser IVS EOS Vorlesung Technischen Informatik 1 WS 2014/2015 Jörg Kaiser IVS EOS Otto-von-Guericke-Universität Magdeburg Allgemeine Information Dozent: Prof. Dr. Jörg Kaiser Institut für Verteilte Systeme (IVS) Arbeitsgruppe

Mehr

Architektur paralleler Plattformen

Architektur paralleler Plattformen Architektur paralleler Plattformen Freie Universität Berlin Fachbereich Informatik Wintersemester 2012/2013 Proseminar Parallele Programmierung Mirco Semper, Marco Gester Datum: 31.10.12 Inhalt I. Überblick

Mehr

DicomStar. DicomStar. Dateien. True IT Solutions For You

DicomStar. DicomStar. Dateien. True IT Solutions For You DicomStar DicomStar Ein Google für DICOM-Dateien Dateien Motivation... Sie brauchen bestimmte DICOM-Bilder und DICOM-Dateien...... Das Finden der Bilder in Archiven dauert lange...... Sie müssen spezielle

Mehr

Computergrundlagen Moderne Rechnerarchitekturen

Computergrundlagen Moderne Rechnerarchitekturen Computergrundlagen Moderne Rechnerarchitekturen Axel Arnold Institut für Computerphysik Universität Stuttgart Wintersemester 2010/11 Aufbau eines modernen Computers DDR3- Speicher Prozessor Prozessor PEG

Mehr

Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Prof. Dr.-Ing. J. Teich

Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Prof. Dr.-Ing. J. Teich Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Friedrich-Alexander-Universität Erlangen-Nürnberg Prof. Dr.-Ing. J. Teich Rückblick - Großrechner 2 Keine Computer im Haushalt? Ken Olsen, US-amerikanischer

Mehr

Compute Unified Device Architecture CUDA

Compute Unified Device Architecture CUDA Compute Unified Device Architecture 06. Februar 2012 1 / 13 Gliederung 2 / 13 : Compute Unified Device Architecture entwickelt von Nvidia Corporation spezifiziert Software- und Hardwareeigenschaften Ziel:

Mehr

PGI Accelerator Model

PGI Accelerator Model PGI Accelerator Model Philip Höhlein, Nils Werner Supervision: R. Membarth, P. Kutzer, F. Hannig Hardware-Software-Co-Design Universität Erlangen-Nürnberg Philip Höhlein, Nils Werner 1 Übersicht Motivation

Mehr

Paralleles Rechnen in der Physik

Paralleles Rechnen in der Physik Paralleles Rechnen in der Physik Georg Hager Regionales Rechenzentrum Erlangen HPC Services Universität Erlangen-Nürnberg 07.05. 2002 Überblick Motivation Parallelität verstehen Paralleles Rechnen in Beispielen

Mehr

2. Der ParaNut-Prozessor "Parallel and more than just another CPU core"

2. Der ParaNut-Prozessor Parallel and more than just another CPU core 2. Der ParaNut-Prozessor "Parallel and more than just another CPU core" Neuer, konfigurierbarer Prozessor Parallelität auf Daten- (SIMD) und Thread-Ebene Hohe Skalierbarkeit mit einer Architektur neues

Mehr

CLAIX Vorstellung und Technik Christian Terboven

CLAIX Vorstellung und Technik Christian Terboven CLAIX Vorstellung und Technik Christian Terboven Inhalte CLAIX Phase I Zwei Rack-Reihen + 2 Schränke Testbetrieb mit Projekten seit November 2016 Trier-2 HPC-System Abnahme im Januar 2017 TOP500 im November

Mehr

Das HLRN-System. Peter Endebrock, RRZN Hannover

Das HLRN-System. Peter Endebrock, RRZN Hannover Das HLRN-System Peter Endebrock, RRZN Hannover vorweg (1) Heute Vorträge im Dreierpack: Peter Endebrock: Das HLRN-System Gerd Brand: MPI Simone Knief: OpenMP Peter Endebrock, RRZN Hannover, Kolloquium,

Mehr

Numerik gewöhnlicher Differentialgleichungen Wintersemester 2014/15. Kapitel 0

Numerik gewöhnlicher Differentialgleichungen Wintersemester 2014/15. Kapitel 0 Numerik gewöhnlicher Differentialgleichungen Wintersemester 2014/15 Kapitel 0 Jun.-Prof. Dr. Thorsten Raasch Johannes Gutenberg-Universität Mainz Institut für Mathematik 29. Oktober 2015 Numerik was ist

Mehr

Cell and Larrabee Microarchitecture

Cell and Larrabee Microarchitecture Cell and Larrabee Microarchitecture Benjamin Grund Dominik Wolfert Universität Erlangen-Nürnberg 1 Übersicht Einleitung Herkömmliche Prozessorarchitekturen Motivation für Entwicklung neuer Architekturen

Mehr

Gliederung. Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo

Gliederung. Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo Gliederung Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo Was ist CUDA? Nvidia CUDA ist eine von NvidiaGPGPU-Technologie, die es Programmierern erlaubt, Programmteile

Mehr

AMTLICHE BEKANNTMACHUNG

AMTLICHE BEKANNTMACHUNG AMTLICHE BEKANNTMACHUNG NUMMER 2017/094 SEITEN 1-6 DATUM 07.04.2017 REDAKTION Sylvia Glaser 3. Ordnung zur Änderung der studiengangspezifischen Prüfungsordnung für den Bachelorstudiengang Informatik der

Mehr

Architektur von Parallelrechnern 50

Architektur von Parallelrechnern 50 Architektur von Parallelrechnern 50 Rechenintensive parallele Anwendungen können nicht sinnvoll ohne Kenntnis der zugrundeliegenden Architektur erstellt werden. Deswegen ist die Wahl einer geeigneten Architektur

Mehr

ModProg 15-16, Vorl. 13

ModProg 15-16, Vorl. 13 ModProg 15-16, Vorl. 13 Richard Grzibovski Jan. 27, 2016 1 / 35 Übersicht Übersicht 1 Supercomputing FLOPS, Peak FLOPS Parallelismus Praktische Aspekte 2 Klausur von 2009 2 / 35 Supercomputing: HPC Modellierung

Mehr

Parallel Computing in der industriellen Bildverarbeitung

Parallel Computing in der industriellen Bildverarbeitung SOLUTIONS FOR MACHINE VISION Parallel Computing in der industriellen Bildverarbeitung Dipl.-Inform. Alexander Piaseczki Research and Development Sirius Advanced Cybernetics GmbH Tools & Solutions für die

Mehr

Computergrundlagen Moderne Rechnerarchitekturen

Computergrundlagen Moderne Rechnerarchitekturen Aufbau eines modernen Computers Computergrundlagen Moderne Rechnerarchitekturen Axel Arnold Institut für Computerphysik Universität Stuttgart DDR3- Speicher Prozessor Prozessor PEG Graphikkarte(n) weitere

Mehr

Projektseminar Parallele Programmierung

Projektseminar Parallele Programmierung HTW Dresden WS 2014/2015 Organisatorisches Praktikum, 4 SWS Do. 15:00-18:20 Uhr, Z136c, 2 Doppelstunden o.g. Termin ist als Treffpunkt zu verstehen Labore Z 136c / Z 355 sind Montag und Donnerstag 15:00-18:20

Mehr

Supercomputer Blue Gene/L

Supercomputer Blue Gene/L FH Giessen Friedberg Supercomputer Blue Gene/L Sven Wagner Übersicht Einführung Supercomputer Begriffe Geschichte TOP500 Anwendung 2 Übersicht Blue Gene/L Historie Architektur & Packaging ASIC Netzwerk

Mehr

examen.press ist eine Reihe, die Theorie und Praxis aus allen Bereichen der Informatik für die Hochschulausbildung vermittelt.

examen.press ist eine Reihe, die Theorie und Praxis aus allen Bereichen der Informatik für die Hochschulausbildung vermittelt. examen.press examen.press ist eine Reihe, die Theorie und Praxis aus allen Bereichen der Informatik für die Hochschulausbildung vermittelt. Thomas Rauber Gudula Rünger Parallele Programmierung 3. Auflage

Mehr

Erste Ergebnisse mit MPI auf der NEC SX-4

Erste Ergebnisse mit MPI auf der NEC SX-4 PARALLELES RECHNEN Erste Ergebnisse mit MPI auf der NEC SX-4 Verwendung von MPI MPI/SX MPICH Kommunikationsleistung Leistung einer CFD-Applikation Literatur Message Passing-Anwendungen auf einer shared-memory

Mehr

Institut für Künstliche Intelligenz

Institut für Künstliche Intelligenz Institut für Künstliche Intelligenz Prof. Sebstaian Rudolph --- Computational Logic Prof. Steffen Hölldobler --- Wissensverarbeitung Prof. Ivo F. Sbalzarini --- Wissenschaftliches Rechnen für Systembiologie

Mehr

The world we live in and Supercomputing in general

The world we live in and Supercomputing in general The world we live in and Supercomputing in general Achim Streit aktuelle Prozessoren Desktop Intel Pentium 4 mit 3.2 GHz AMD Athlon XP 3200+ mit 2.2 GHz IBM PowerPC G5 mit 2.0 GHz (64-bit) Server & Workstation

Mehr

Sun HPC Agenda

Sun HPC Agenda Sun HPC 2005 - Agenda 10:00 Willkommen und Einleitung Klaus Brühl, RZ, 10:15 Neues vom Aachener Sun Fire SMP Cluster Dieter an Mey, RZ, 10:30 UltraSPARC - Today and Tomorrow Ruud van der Pas, Scalable

Mehr

Staff. Tim Conrad. Zeitplan. Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2013. Tim Conrad

Staff. Tim Conrad. Zeitplan. Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2013. Tim Conrad Blockseminar: Verteiltes Rechnen und Parallelprogrammierung Sommer Semester 2013 Tim Conrad Staff Tim Conrad AG Computational Proteomics email: conrad@math.fu-berlin.de Telefon: 838-51445 Büro: Raum 138,

Mehr

Seminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit OpenMP 4.5 und OpenACC 2.5 im Vergleich

Seminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit OpenMP 4.5 und OpenACC 2.5 im Vergleich Seminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit Direktivenbasierte Programmierung von Beschleunigern mit Agenda Einführung / Motivation Überblick zu OpenMP und OpenACC Asynchronität

Mehr

Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation

Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation 1 Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation Dr. G. Wellein, Regionales Rechenzentrum Erlangen Supercomputer

Mehr

General Purpose Computation on GPUs

General Purpose Computation on GPUs General Purpose Computation on GPUs Matthias Schneider, Robert Grimm Universität Erlangen-Nürnberg {matthias.schneider, robert.grimm}@informatik.stud.uni-erlangen.de M. Schneider, R. Grimm 1 Übersicht

Mehr

Parallelrechner: Klassifikation. Parallelrechner: Motivation. Parallelrechner: Literatur. Parallelrechner: PC-Technologie SMP-Multiprozessorsysteme 69

Parallelrechner: Klassifikation. Parallelrechner: Motivation. Parallelrechner: Literatur. Parallelrechner: PC-Technologie SMP-Multiprozessorsysteme 69 Parallelrechner: Motivation immer höhere Performance gefordert => schnellere Einzelprozessoren aber Takte oberhalb von 10 GHz unrealistisch => mehrere Prozessoren diverse Architekturkonzepte shared-memory

Mehr

Numerical Modelling of CO 2 Storage in Geological Formations with MUFTE-UG

Numerical Modelling of CO 2 Storage in Geological Formations with MUFTE-UG Numerical Modelling of CO 2 Storage in Geological Formations with MUFTE-UG Anozie Ebigbo, Andreas Kopp, Holger Class, Rainer Helmig Wednesday, 14th March 2007 Outline Motivation Physical/mathematical and

Mehr

Towards Modular Supercomputing with Slurm

Towards Modular Supercomputing with Slurm Towards Modular Supercomputing with Slurm 2017-09-25 Dorian Krause et al., Jülich Supercomputing Centre, Forschungszentrum Jülich Dual-Architecture Supercomputing Facility IBM Power 4+ JUMP, 9 TFlop/s

Mehr

Introduction Workshop 11th 12th November 2013

Introduction Workshop 11th 12th November 2013 Introduction Workshop 11th 12th November 2013 Lecture I: Hardware and Applications Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Overview Current and next System Hardware Sections

Mehr

Vorstellung der Fachgebiete

Vorstellung der Fachgebiete Fakultät Informatik, Institut für Technische Informatik, Professur Rechnerarchitektur Vorstellung der Fachgebiete Institut für Technische Informatik Zellescher Weg 12 Nöthnitzer Straße 46 Willers-Bau A

Mehr

Yilmaz, Tolga MatNr: Mesaud, Elias MatNr:

Yilmaz, Tolga MatNr: Mesaud, Elias MatNr: Yilmaz, Tolga MatNr: 157317 Mesaud, Elias MatNr: 151386 1. Aufbau und Funktionsweise einer Grafikkarte 2. CPU vs. GPU 3. Software 4. Beispielprogramme Kompilierung und Vorführung 5. Wo wird Cuda heutzutage

Mehr

GPGPU-Architekturen CUDA Programmiermodell Beispielprogramm. Einführung CUDA. Ralf Seidler. Friedrich-Alexander-Universität Erlangen-Nürnberg

GPGPU-Architekturen CUDA Programmiermodell Beispielprogramm. Einführung CUDA. Ralf Seidler. Friedrich-Alexander-Universität Erlangen-Nürnberg Einführung CUDA Friedrich-Alexander-Universität Erlangen-Nürnberg PrakParRA, 18.11.2010 Outline 1 GPGPU-Architekturen 2 CUDA Programmiermodell 3 Beispielprogramm Outlook 1 GPGPU-Architekturen 2 CUDA Programmiermodell

Mehr

Kompaktes Hardware-Wissen rund um die Micro-Prozessor-Technik

Kompaktes Hardware-Wissen rund um die Micro-Prozessor-Technik Auszug aus unserem Bestseller Kapitel: Micro-Prozessor-Technik Autor: Rainer Egewardt Copyright by PCT-Solutions 1. Auflage 600 Seiten 2. Auflage 1200 Seiten Kompaktes Hardware-Wissen rund um die Micro-Prozessor-Technik

Mehr

Verteilte Betriebssysteme

Verteilte Betriebssysteme Verteiltes System Eine Sammlung unabhängiger Rechner, die dem Benutzer den Eindruck vermitteln, es handle sich um ein einziges System. Verteiltes Betriebssystem Betriebssystem für verteilte Systeme Verwaltet

Mehr

Fachbereich Informatik

Fachbereich Informatik Informationssysteme Künstliche Intelligenz I 11101, Vorlesung, SWS: 2 Di, wöchentl., 15:00-16:30, 3703-023 Multimedia-Hörsaal Übungen zu Künstliche Intelligenz I 11103, Theoretische Übung, SWS: 1 Di, wöchentl.,

Mehr

Algorithmische Mathematik und Programmieren

Algorithmische Mathematik und Programmieren Algorithmische Mathematik und Programmieren Martin Lanser Universität zu Köln WS 2016/2017 Organisatorisches M. Lanser (UzK) Alg. Math. und Programmieren WS 2016/2017 1 Ablauf der Vorlesung und der Übungen

Mehr

2 Rechnerarchitekturen

2 Rechnerarchitekturen 2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf

Mehr

Effektive Nutzung der Simulationsumgebung Anregungen für die Praxis

Effektive Nutzung der Simulationsumgebung Anregungen für die Praxis 1 2017 ANSYS, 14. Inc. Juni 2017 in June Winterthur 20, 2017 22. SCHWEIZER CADFEM ANSYS SIMULATION CONFERENCE Effektive Nutzung der Simulationsumgebung Anregungen für die Praxis Martin Mann Sales & Acount

Mehr

Das MORFEUS GRID. Aufbau und Anwendungen. Thomas Bauer Institut für Festkörpertheorie Universität Münster

Das MORFEUS GRID. Aufbau und Anwendungen. Thomas Bauer Institut für Festkörpertheorie Universität Münster Das MORFEUS GRID Aufbau und Anwendungen Thomas Bauer Institut für Festkörpertheorie Universität Münster 16.12.2005 tombauer@uni-muenster.de I. Aufbau des MORFEUS GRIDs Die IVV Naturwissenschaften der Universität

Mehr

GPU-Programmierung: OpenCL

GPU-Programmierung: OpenCL Seminar: Multicore Programmierung Sommerstemester 2009 04.06.2009 Inhaltsverzeichnis 1 GPU-Programmierung von Grafikkarten von GPU-Computing 2 Architektur Spracheigenschaften Vergleich mit CUDA Beispiel

Mehr

Aktuelle Trends und Herausforderungen in der Finite-Elemente-Simulation

Aktuelle Trends und Herausforderungen in der Finite-Elemente-Simulation Aktuelle Trends und Herausforderungen in der Finite-Elemente-Simulation Kai Diethelm GNS Gesellschaft für numerische Simulation mbh Braunschweig engineering software development Folie 1 Überblick Vorstellung

Mehr

Einführung in die Informatik für Nebenfach. Einleitung

Einführung in die Informatik für Nebenfach. Einleitung Einführung in die Informatik für Nebenfach Einleitung Organisatorisches, Motivation, Herangehensweise Wolfram Burgard 1 Vorlesung Zeit und Ort: Di+Do 11.00 13.00 Uhr, Gebäude 086, Raum 00-006 Dozent: Prof.

Mehr

Finite Difference Method (FDM)

Finite Difference Method (FDM) Finite Difference Method (FDM) home/lehre/vl-mhs-1-e/folien/vorlesung/2a_fdm/cover_sheet.tex page 1 of 15. p.1/15 Table of contents 1. Problem 2. Governing Equation 3. Finite Difference-Approximation 4.

Mehr