GPGPUs am Jülich Supercomputing Centre
|
|
- Babette Bach
- vor 7 Jahren
- Abrufe
Transkript
1 GPGPUs am Jülich Supercomputing Centre 20. April 2012 Jochen Kreutz
2 Jülich Supercomputing Centre (JSC) Teil des Forschungszentrums Jülich und des Institute for Advanced Simulation (IAS) betreibt Supercomputer der höchsten Leistungsklasse in Europa mehr als 100 Mitarbeiter beschäftigen sich mit Aspekten von Supercomputing und Simulationswissenschaften mathematische Modellierung und numerische, insbesondere parallele Algorithmen zahlreiche Kooperationen mit namhaften Firmen und wissenschaftlichen Einrichtungen sieben Abteilungen, eine Helmholtz- Hochschul-Nachwuchsgruppe simulation labs April 2012 GPGPUs am Jülich Supercomputing Centre 2
3 Motivation Simulation ist neben Theorie und Experiment wichtige Grundlage moderner Wissenschaft sehr hoher Bedarf an Rechenleistung programmierbare Hardware in Grafikkarten ermöglicht Nutzung für (nahezu) beliebige Berechnungen auf der Grafikkarte General Purpose Computation on Graphics Processing Unit (GPGPU) gut geeignet für numerische Simulation und gitterbasierte Verfahren GPUs sind sehr effizient (niedriger Energieaufwand pro Fließkommaoperation im Vergleich zu CPUs) 20. April 2012 GPGPUs am Jülich Supercomputing Centre 3
4 Motivation hohe Performance für bestimmte Anwendungsbereiche (SIMD) große Speicherbandbreite Quelle: Nvidia C Programming Guide hybride Rechnersysteme mit Beschleunigern für größere Energieeffizienz interessant für HPC-Bereich 20. April 2012 GPGPUs am Jülich Supercomputing Centre 4
5 GPUGPU Systeme am JSC Jugipsy (Jülich s GPU System) 4 x Tesla C1060 GPU (4 GB DDR3 each) 4 Tflops peak (single precision) 346 Gflops double precision 4 x 102 GB/s memory bandwidth Infiniband interconnect GPU-Testsystem Jugipsy Mini-Judge 4 x Tesla M2070 (6GB DDR5 each, ECC) 4 x 1.03 Tflops peak (single precision) 4 x Tflops peak (double precision) 4 x 148 GB/s memory bandwidth Infiniband interconnect GPU-Testsystem Mini-Judge 20. April 2012 GPGPUs am Jülich Supercomputing Centre 5
6 Judge (Jülich Dedicated GPU Environment) dritte Ausbaustufe (derzeit Installationsphase) mit 206 IBM System x idataplex dx360 m3 Knoten 2 x Intel Xeon X core (2,66 GHz) 96 GB RAM, IB 2 x Nvidia Tesla M2050/M2070, 3/6 GB memory 1,03 Tflops peak (single precision) 0,515 Tflops peak (double precision) maximale Performance pro Knoten: 1,16 Tflops (double precision) Login-Knoten, Management-Knoten, GPFS-Anbindung Judge Cluster maximale Gesamtperformance: (double precision) ~ 239 Tflops 20. April 2012 GPGPUs am Jülich Supercomputing Centre 6
7 Erste Tests und Einarbeitung Beginn: 2008 Installation und Konfiguration (Treiber und Entwicklungsumgebung) Untersuchung der Programmiermodelle (Cuda, später auch OpenCL) GPU Architektur, Memory-Hierarchie Compiler, Debugger, Profiler erste Performancemessungen (Matrixmultiplikation, Black Scholes) Portierung erster Anwendungen QCD Proteinfaltung (SMMP) Stochastic Rotation Dynamics (SRD) Ising Model 20. April 2012 GPGPUs am Jülich Supercomputing Centre 7
8 GPU-Anwendungen Multi-particle Collision Dynamics (MPC) Nutzung von Stochastic Rotation Dynamics Kombination von MD und MPC (MP2C) Untersuchung von Skalierbarkeit für Multi-GPU-Nutzung N-Body für Astrophysik Kooperation mit R. Spurzem, Uni Heidelberg Judge Milky Way Clusterteil (3. Ausbaustufe) 20. April 2012 GPGPUs am Jülich Supercomputing Centre 8
9 Untersuchung von Programmiermodellen, Bibliotheken und Tools Cuda, CuBLAS, CuSPARSE, CULA, Thrust OpenCL, OpenACC, PGI Accelerator Nvidia Visual Profiler, VampirTrace, Cuda-GDB ArrayFire etc. 20. April 2012 GPGPUs am Jülich Supercomputing Centre 9
10 GPU-Vergleich Nvidia, ATI (OpenCL) Bachelor-Arbeit zum Performance-Vergleich von Nvidia- und ATI-Grafikkarten zusätzliches AMD-Testsystem wurde beschafft AMD CPU (FX-6100, 6 Cores) ATI-Grafikkarte: Radeon ,7 Tflops peak single precision ( 683 Gflops double) 176 GB/s bandwidth 1536 Stream-Prozessoren nutze CG-Kernel des NAS Parallel Benchmarks konjugiertes Gradientenverfahren mit verschiedenen dünn besetzten Matrizen vorhandene OpenCL-Implementierung von der Seoul National University 20. April 2012 GPGPUs am Jülich Supercomputing Centre 10
11 Schulungen und Workshops regelmäßige GPU-Programmierkurse (ca. 2 x pro Jahr) interne und externe Teilnehmer bietet Einstieg in Programmierung von GPGPUs Inhalte: Cuda, OpenCL, OpenACC, Libraries etc. Nvidia Porting Workshop (September 2011) Wissenschaftliche Anwendungen ( 4 x Cuda, 1 x OpenCL) Optimierung vorhandener Ansätze Hinweise und Tipps zur Performance- Verbesserung durch Nvidia-Experten 20. April 2012 GPGPUs am Jülich Supercomputing Centre 11
12 PRACE Projekt Mitarbeit beim Virtual Interconnect Protoyp (CSCS) Untersuchung von Datentransfers zwischen GPUs und CPUs Nutzung von MPI Linktest" Paralleler MPI Ping Pong Test Erweiterung für GPU Nutzung (Tests mit MVAPICH2) 20. April 2012 GPGPUs am Jülich Supercomputing Centre 12
13 Installation und Administration eines GPU- Clusters Judge wird in Zusammenarbeit mit der Firma ParTec administriert Nutzung der Clusterware ParaStation besondere Anforderungen bezüglich der Installation: Energiebedarf und Abwärme (Kühlsysteme) sind zu berücksichtigen zusätzliche Treiber und Software benötigt Nvidia Grafiktreiber, Entwicklungsumgebungen (Cuda ) Bibliotheken, Software-Pakete optimiert für Nutzung von GPUs Verwaltung verschiedener Benutzergruppen (nur CPU, GPU oder gemischte Nutzung) zusätzliche Hilfestellung für Umgang mit GPUs 20. April 2012 GPGPUs am Jülich Supercomputing Centre 13
14 Installation und Administration eines GPU- Clusters (2) Zuteilung von GPUs als Resourcen im Batchsystem Batchsystem muss entsprechende Konfigurationsmöglichkeit bereitstellen Monitoring und Accounting RAS: Reliability, Availability, Serviceability Erweiterung von Monitoring-Tool LLView GPUs stellen evtl. zusätzliche Fehlerquelle dar 20. April 2012 GPGPUs am Jülich Supercomputing Centre 14
15 GPGPUs Fazit GPUs besitzen hohes Potenzial energieeffizient und in vielen Anwendungsbereichen sehr performant aktuell zahlreiche Entwicklungen im Bereich der GPGPU-Programmierung (OpenACC ) großes Interesse und positive Resonanz von Benutzern Schulungen zu GPGPU-Programmierung gut besucht hohe Auslastung von Judge hybride Cluster interessant im HPC-Bereich zusätzliche Anforderungen bei der Administration 20. April 2012 GPGPUs am Jülich Supercomputing Centre 15
16 Intel Many Integrated Core (MIC) Architecture Gründung eines Exacluster Laboratory (2010) Ziele: Untersuchung der Intel MIC Architektur, um die Skalierbarkeit und Effizienz von HPC Systemen auf dem Weg zu Exascale zu verbessern Portierung von Anwendungen auf MIC Verbesserung von Software und Tools zur Verwendung in zukünftigen Exascale-Systemen 20. April 2012 GPGPUs am Jülich Supercomputing Centre 16
17 DEEP Projekt (Dynamical Exascale Entry Platform) EU-Projekt mit 16 Partnern aus 8 Ländern Start 1. Dezember 2011 Entwicklung eines Prototypen bestehend aus Cluster- und Booster-Teil Verwendung von Intel Knights Corner Chips als Beschleuniger schnelles Extoll-Netzwerk zwischen Booster-Nodes April 2012 GPGPUs am Jülich Supercomputing Centre 17
General Purpose Computation on GPUs
General Purpose Computation on GPUs Matthias Schneider, Robert Grimm Universität Erlangen-Nürnberg {matthias.schneider, robert.grimm}@informatik.stud.uni-erlangen.de M. Schneider, R. Grimm 1 Übersicht
MehrHochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner. Dr. Andreas Wolf. Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum
Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Überblick Randbedingungen der HPC Beschaffung an der
MehrTowards Modular Supercomputing with Slurm
Towards Modular Supercomputing with Slurm 2017-09-25 Dorian Krause et al., Jülich Supercomputing Centre, Forschungszentrum Jülich Dual-Architecture Supercomputing Facility IBM Power 4+ JUMP, 9 TFlop/s
MehrSeminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit OpenMP 4.5 und OpenACC 2.5 im Vergleich
Seminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit Direktivenbasierte Programmierung von Beschleunigern mit Agenda Einführung / Motivation Überblick zu OpenMP und OpenACC Asynchronität
MehrGPGPU-Architekturen CUDA Programmiermodell Beispielprogramm. Einführung CUDA. Ralf Seidler. Friedrich-Alexander-Universität Erlangen-Nürnberg
Einführung CUDA Friedrich-Alexander-Universität Erlangen-Nürnberg PrakParRA, 18.11.2010 Outline 1 GPGPU-Architekturen 2 CUDA Programmiermodell 3 Beispielprogramm Outlook 1 GPGPU-Architekturen 2 CUDA Programmiermodell
MehrRST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck
RST-Labor WS06/07 GPGPU General Purpose Computation On Graphics Processing Units (Grafikkarten-Programmierung) Von: Marc Blunck Ablauf Einführung GPGPU Die GPU GPU Architektur Die Programmierung Programme
MehrCompute Unified Device Architecture CUDA
Compute Unified Device Architecture 06. Februar 2012 1 / 13 Gliederung 2 / 13 : Compute Unified Device Architecture entwickelt von Nvidia Corporation spezifiziert Software- und Hardwareeigenschaften Ziel:
MehrSeminar Multicore-Programmierung
Multicore- und GPGPU-Architekturen Fakultät für Informatik und Mathematik Universität Passau 04. November 2010 APUs / 1 / 39 Inhaltsverzeichnis I APUs / APUs / 2 / 39 Inhaltsverzeichnis II APUs / 3 / 39
MehrGrafikkarten-Architektur
> Grafikkarten-Architektur Parallele Strukturen in der GPU Name: Sebastian Albers E-Mail: s.albers@wwu.de 2 > Inhalt > CPU und GPU im Vergleich > Rendering-Pipeline > Shader > GPGPU > Nvidia Tesla-Architektur
MehrGemeinsames TUM-LMU Seminar
Gemeinsames TUM-LMU Seminar Hochleistungsrechner: Aktuelle Trends und Entwicklungen Einführungsveranstaltung 20. Oktober 2016 LMU München Amalienstr. 73A, Raum 112 Web: http://www.lrr.in.tum.de/lehre/wintersemester-1617/seminare/hochleistungsrechneraktuelle-trends-und-entwicklungen/
MehrGPGPU-Architekturen CUDA Programmiermodell Beispielprogramm Organiosatorisches. Tutorial CUDA. Ralf Seidler
Friedrich-Alexander-Universität Erlangen-Nürnberg 05.10.2010 Outline 1 GPGPU-Architekturen 2 CUDA Programmiermodell 3 Beispielprogramm 4 Organiosatorisches Outlook 1 GPGPU-Architekturen 2 CUDA Programmiermodell
MehrLinux in allen Lebenslagen. Diskless Cluster und Lustre Erfahrungsbericht zum CHiC. Frank Mietke. Chemnitzer Linux-Tage 2007
Linux in allen Lebenslagen Diskless Cluster und Lustre Erfahrungsbericht zum CHiC Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität Chemnitz Chemnitzer
MehrCLAIX Vorstellung und Technik Christian Terboven
CLAIX Vorstellung und Technik Christian Terboven Inhalte CLAIX Phase I Zwei Rack-Reihen + 2 Schränke Testbetrieb mit Projekten seit November 2016 Trier-2 HPC-System Abnahme im Januar 2017 TOP500 im November
MehrMulticore-Architekturen
Universität Erlangen- Nürnberg Technische Universität München Universität Stuttgart Multicore-Architekturen Vortrag im Rahmen der Ferienakademie 2009 Kurs 1: Programmierkonzepte für Multi-Core Rechner
MehrMULTICORE- UND GPGPU- ARCHITEKTUREN
MULTICORE- UND GPGPU- ARCHITEKTUREN Korbinian Pauli - 17. November 2011 Seminar Multicore Programmierung, WS11, Universität Passau 2 Einleitung Klassisches Problem der Informatik: riesige Datenmenge! Volkszählung
MehrCUDA. Moritz Wild, Jan-Hugo Lupp. Seminar Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg
CUDA Seminar Multi-Core Architectures and Programming 1 Übersicht Einleitung Architektur Programmierung 2 Einleitung Computations on GPU 2003 Probleme Hohe Kenntnisse der Grafikprogrammierung nötig Unterschiedliche
MehrPhysikalische Berechnungen mit General Purpose Graphics Processing Units (GPGPUs)
Fakultätsname XYZ Fachrichtung XYZ Institutsname XYZ, Professur XYZ Physikalische Berechnungen mit General Purpose Graphics Processing Units (GPGPUs) im Rahmen des Proseminars Technische Informatik Juni
MehrRheinisch-Westfälische Technische Hochschule Aachen. Seminararbeit
Rheinisch-Westfälische Technische Hochschule Aachen Seminararbeit Analyse von General Purpose Computation on Graphics Processing Units Bibliotheken in Bezug auf GPU-Hersteller. Gregori Kerber Matrikelnummer
MehrSeminar GPU-Programmierung/Parallelverarbeitung
Seite iv Literaturverzeichnis 1) Bengel, G.; et al.: Masterkurs Parallele und Verteilte Systeme. Vieweg + Teubner, Wiesbaden, 2008. 2) Breshears, C.: The Art of Concurrency - A Thread Monkey's Guide to
MehrRefactoring the UrQMD Model for Many- Core Architectures
Refactoring the UrQMD Model for Many- Core Architectures Mathias Radtke Semiar: Softwaretechnologie (WS 2013/2014 Goethe-Universität Frankfurt Agenda: 1. UrQMD 2. CPU Vs. GPU 3. Von FORTRAN zu C++/OpenCL
MehrMachine Learning Hardware
Machine Learning Hardware Dominik Scherer 06.11.2017 Seminar Neuste Trends in Big Data Analytics Betreuer: Dr. Julian Kunkel Motivation Maschinelles Lernen in vielen Bereichen angewendet, z.b. Spracherkennung
MehrAusblick auf den HLRN III - die neue HPC Ressource für Norddeutschland
Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 14. März 2013
MehrOrientierungsveranstaltungen 2009 Informatikstudien der Universität Wien
Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Scientific Computing 07. Oktober 2009 Siegfried Benkner Wilfried Gansterer Fakultät für Informatik Universität Wien www.cs.univie.ac.at
MehrGemeinsames TUM-LMU Seminar
Gemeinsames TUM-LMU Seminar Einführungsveranstaltung zum Hauptseminar Akzeleratoren und ihr Einsatz im Hochleistungsrechnen (LMU) Akzeleratorarchitekturen (TUM) Prof. Dr. Dieter Kranzlmüller Dr. Karl Fürlinger
MehrHLRN III - HPC Ressource für Norddeutschland
HLRN III - HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 23. September 2014 Inhalt Der HLRN Verbund
MehrGPGPU Basiskonzepte. von Marc Kirchhoff GPGPU Basiskonzepte 1
GPGPU Basiskonzepte von Marc Kirchhoff 29.05.2006 GPGPU Basiskonzepte 1 Inhalt Warum GPGPU Streams, Kernels und Prozessoren Datenstrukturen Algorithmen 29.05.2006 GPGPU Basiskonzepte 2 Warum GPGPU? Performance
MehrErste Erfahrungen mit Installation und Betrieb
Erste Erfahrungen mit Installation und Betrieb von OpenHPC 14.10.2016 Holger Angenent Röntgenstr. 7-13, 48149 Münster 2 > Problemstellung Jeder neue Cluster kam bisher mit neuem Clustermanagement Einarbeitungszeit
MehrOpenCL. OpenCL. Boris Totev, Cornelius Knap
OpenCL OpenCL 1 OpenCL Gliederung Entstehungsgeschichte von OpenCL Was, warum und überhaupt wieso OpenCL CUDA, OpenGL und OpenCL GPUs OpenCL Objekte Work-Units OpenCL Adressbereiche OpenCL API Codebeispiel
MehrT-Systems SfR - HPCN Workshop
HPC System Design und die Auswirkungen auf die Anwendungsperformance Thomas Alrutz HPC & escience Solutions & Innovations - Scientific & Technical ICT T-Systems Solutions for Research GmbH T-Systems SfR
MehrManycores: Hardware und Low-Level Programmierung
Manycores: Hardware und Low-Level Programmierung Florian Sattler Universität Passau 18. Juni 2014 Übersicht Einführung Neue Architekturen Programmierung Supercomputing Fazit 2 / 29 Top 500 3 / 29 Motivation
MehrVerteidigung der Bachelorarbeit, Willi Mentzel
Verteidigung der Bachelorarbeit, Willi Mentzel Motivation U.S. Energy Consumption Breakdown 3x Durchschnittliche Leistungsaufnahme 114 Millionen kw Hohes Optimierungspotential 2 Ziele für Energieoptimierung
MehrNeue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP)
Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP) @wefinet Werner Fischer, Thomas-Krenn.AG Webinar, 17. Oktober 2017 Intel Xeon Scalable Performance _ Das ist NEU: Neue
MehrMasterpraktikum Scientific Computing
Masterpraktikum Scientific Computing High-Performance Computing Thomas Auckenthaler Wolfgang Eckhardt Prof. Dr. Michael Bader Technische Universität München, Germany Outline Organisatorisches Entwicklung
MehrEinführung. GPU-Versuch. Andreas Schäfer Friedrich-Alexander-Universität Erlangen-Nürnberg
GPU-Versuch andreas.schaefer@cs.fau.de Friedrich-Alexander-Universität Erlangen-Nürnberg Praktikum Parallele Rechnerarchitekturen SS2014 Outline 1 Einführung 2 Outlook 1 Einführung 2 Eine kurze Geschichte
MehrGPGPU WITH OPENCL. Praktikum Parallele Rechnerarchitekturen, 2015w Franz Richter-Gottfried
GPGPU WITH OPENCL Praktikum Parallele Rechnerarchitekturen, 2015w Franz Richter-Gottfried INFRASTRUCTURE Enqueue interactive job srun --gres --pty bash Graphics cards available for tesla_k20,
MehrDas Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ
Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ Hinnerk Stüben ZKI-Arbeitskreis Supercomputing Leibniz-Rechenzentrum, Garching 19. Oktober 2015 Themen Neues HPC-Cluster
MehrMasterpraktikum Scientific Computing
Masterpraktikum Scientific Computing High-Performance Computing Thomas Auckenthaler Wolfgang Eckhardt Technische Universität München, Germany Outline Entwicklung General Purpose GPU Programming (GPGPU)
MehrDeep Learning Appliance 4U Die Ready-to-Brain Komplett-Lösung
www.cadnetwork.de/deeplearning Die Ready-to-Brain Komplett-Lösung DIE KOMPLETTLÖSUNG FÜR IHRE AI PROJEKTE Die ist unser 8-GPU Flaggschiff für AI Anwendungen. Sie liefert das Potential für anspruchsvollste
MehrCHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm
CHiC er Hochleistungs-Linux Cluster Stand HPC Cluster CHiC, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität
MehrIntroduction Workshop 11th 12th November 2013
Introduction Workshop 11th 12th November 2013 Lecture I: Hardware and Applications Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Overview Current and next System Hardware Sections
MehrGPU-beschleunigte Mehrphasensimulationen für komplexe maritime Anwendungen
GPU-beschleunigte simulationen für komplexe maritime Anwendungen Thorsten Grahs, Christian Janßen move-csc UG, Inst. Scientific Computing, TU Braunschweig Inst. f. Fluiddynamik u Schiffstheorie, TU Hamburg-Harburg
MehrGerät Preis* CPU, VGA, HD, RAM Ausstattung
1 PC Ultra 559.- CPU: Intel Core Duo ab 3,0 GHz RAM: 8 GB HD: 128 GB SSD + 1 TB HDD VGA: GeForce GTX 750 2GB GDDR5 robuster Verarbeitung. Neben starken verfügt der PC Ultra über eine hochwertige Grafikkarte
MehrParallel Computing in der industriellen Bildverarbeitung
SOLUTIONS FOR MACHINE VISION Parallel Computing in der industriellen Bildverarbeitung Dipl.-Inform. Alexander Piaseczki Research and Development Sirius Advanced Cybernetics GmbH Tools & Solutions für die
MehrGliederung. Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo
Gliederung Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo Was ist CUDA? Nvidia CUDA ist eine von NvidiaGPGPU-Technologie, die es Programmierern erlaubt, Programmteile
MehrCell Broadband Engine
Cell Broadband Engine 21.March 2006 Benjamin Keck Outline Why Cell?!? Application Areas Architectural Overview SPU Programming Model Programming on the PPE C/C++ Intrinsics The Cell Supercomputer on a
MehrVertiefungsrichtung Rechnerarchitektur
srichtung () ( für ) Prof. Dietmar Fey 1 Ziele der srichtung RA Vertiefen des Verständnis vom Aufbau, Funktionsweise von Rechnern und Prozessoren () Modellierung und Entwurf von Rechnern und Prozessoren
MehrHPC an der Uni Mainz
Einwicklung vom ersten Top500 Rechner bis zum AHRP HPC - AHRP - ZKI Markus Tacke, ZDV, Universität Mainz AK Supercomputer Kaiserslautern 19.4.2012 ZDV: CC NUMA 1.1.1995: Convex SPP1000/16 16 PA Risc 7100
MehrSoftware Engineering für moderne parallele Plattformen 9. GPGPUs: Grafikkarten als Parallelrechner
Software Engineering für moderne parallele Plattformen 9. GPGPUs: Grafikkarten als Parallelrechner Dipl.-Inform. Korbinian Molitorisz M. Sc. Luis Manuel Carril Rodriguez KIT Universität des Landes Baden-Württemberg
MehrLEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610
LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610 Dominik Weinrich dominik.weinrich@tu-dresden.de Dresden, 30.11.2017 Gliederung Motivation Aufbau und Hardware
MehrZukunft Hochleistungsrechnen an der TU-Darmstadt
Zukunft Hochleistungsrechnen an der TU-Darmstadt Infoveranstaltung - 15:30-17:00 Uhr Prof. Dr. Christian Bischof FG Scientific Computing im FB Informatik Leiter Hochschulrechenzentrum Dr. Andreas Wolf
MehrUntersuchung und Vorstellung moderner Grafikchiparchitekturen
Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Untersuchung und Vorstellung moderner Grafikchiparchitekturen Hauptseminar Technische
MehrGemeinsames TUM-LMU Seminar
Gemeinsames TUM-LMU Seminar Einführungsveranstaltung zum Hauptseminar Akzeleratorarchitekturen Prof. Dr. Dieter Kranzlmüller Dr. Karl Fürlinger - fuerling@nm.ifi.lmu.de MNM-Team LMU München Prof. Dr. Carsten
Mehr2 Rechnerarchitekturen
2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf
MehrNEC SX-ACE HPC-System
Erste Erfahrungen mit dem neuen System Dr. Simone Knief; ZKI-Arbeitskreis Supercomputing, Kiel 17.03.2015 1 Überblick Rechnerkonfiguration Veränderungen SX-9 zu SX-ACE Benutzergruppen Erste Performanceergebnisse
MehrEin kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1
Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer
MehrGPUs. Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg
GPUs Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg Vorgelegt von: Johannes Coym E-Mail-Adresse: 4coym@informatik.uni-hamburg.de
MehrZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf
ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012 Scientific Computing in Düsseldorf Peter Schreiber schreiber@hhu.de 0211-81-13913 http://www.zim.hhu.de ZKI Arbeitskreis Supercomputing 20.-21.09.2012
MehrVertiefungsrichtung Rechnerarchitektur
srichtung () ( für ) Prof. Dietmar Fey Ziele der srichtung RA Vertiefen des Verständnis vom Aufbau, Funktionsweise von Rechnern und Prozessoren Modellierung und Entwurf von Rechnern und Prozessoren ()
MehrEine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation
Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation Dr. Jan Eitzinger Regionales Rechenzentrum (RRZE) der Universität Erlangen-Nürnberg
MehrHarry Enke Astrophysikalisches Institut Potsdam. AstroGrid-D WissGrid
Numerische Simulationen im AstroGrid Harry Enke Astrophysikalisches Institut Potsdam AstroGrid-D WissGrid 1 Übersicht Geschichte Num. Rel. Simulation mit GTK 2.1 Tests mit kleinem Testbed AstroGrid-D:
MehrModProg 15-16, Vorl. 13
ModProg 15-16, Vorl. 13 Richard Grzibovski Jan. 27, 2016 1 / 35 Übersicht Übersicht 1 Supercomputing FLOPS, Peak FLOPS Parallelismus Praktische Aspekte 2 Klausur von 2009 2 / 35 Supercomputing: HPC Modellierung
MehrCUDA. (Compute Unified Device Architecture) Thomas Trost. May 31 th 2016
CUDA (Compute Unified Device Architecture) Thomas Trost May 31 th 2016 Introduction and Overview platform and API for parallel computing on GPUs by NVIDIA relatively straightforward general purpose use
MehrGliederung. Problemstellung Motivation Multi-Agenten Simulation GPU Programmierung Stand der Technik Abgrenzung
Philipp Kayser Gliederung Problemstellung Motivation Multi-Agenten Simulation GPU Programmierung Stand der Technik Abgrenzung Multi-Agenten Simulation (MAS) simuliert durch eine Vielzahl von Agenten Die
MehrOutline. Cell Broadband Engine. Application Areas. The Cell
Outline 21.March 2006 Benjamin Keck Why Cell?!? Application Areas Architectural Overview Programming Model Programming on the PPE C/C++ Intrinsics 1 2 The Cell Supercomputer on a chip Multi-Core Microprocessor
MehrMulticore Herausforderungen an das Software-Engineering. Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010
Multicore Herausforderungen an das Software-Engineering Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010 Inhalt _ Motivation _ Herausforderung 1: Hardware _ Herausforderung 2: Software-Partitionierung
Mehrtechnische universität dortmund Lehrstuhl für Hochfrequenztechnik Übertragungssysteme
Lehrstuhl für Hochfrequenztechnik GPU-beschleunigte numerische Simulation faseroptischer Übertragungssysteme, Marius Helf, Peter Krummrich Übersicht Motivation Split-Step p Fourier Methode Ansätze für
Mehr> Implementierung paralleler Programmiermuster auf
> Implementierung paralleler Programmiermuster auf modernen many-core Systemen in OpenCL Projektseminar im WiSe 2014 / 2015 Prof. Sergei Gorlatch, Ari Rasch, Michael Haidl AG Parallele und Verteilte Systeme,
MehrGPGPU mit NVIDIA CUDA
01.07.12 GPGPU mit NVIDIA CUDA General-Purpose on Formatvorlagecomputing des Graphics Processing durch Units Untertitelmasters mit KlickenCompute bearbeiten NVIDIA Unified Device Architecture Gliederung
MehrGemeinsames TUM-LMU Seminar
Gemeinsames TUM-LMU Seminar Einführungsveranstaltung zum Hauptseminar Hochleistungsrechner: Aktuelle Trends und Entwicklungen Web: http://www.lrr.in.tum.de/lehre/wintersemester-1516/seminare/hochleistungsrechneraktuelle-trends-und-entwicklungen/
MehrArchitekturen von Multi- und Manycore-Prozessoren
Architekturen von Multi- und Manycore-Prozessoren Johannes Hofmann Einführungsveranstaltung, 12.04.2016 Inhalt Es gibt zwei Varianten zum absolvieren des Seminars: Evaluation eines Benchmarks aus der Mantevo-Suite
MehrParadigmenwechsel: Von der Rechner-zentrierten zur Informationszentrierten DV Skalierbarkeit: Erweiterung von Ressourcen ohne Erhöhung der
Sun: HPC mit Zukunft Wolfgang Kroj Vertriebsleiter Enterprise Business & Storage Sun Microsystems GmbH Tel.: +49-89-46008-589, Fax: +49-89-46008-590 Email: wolfgang.kroj@germany.sun.com Network Computing
MehrVorstellung der Fachgebiete
Fakultät Informatik, Institut für Technische Informatik, Professur Rechnerarchitektur Vorstellung der Fachgebiete Institut für Technische Informatik Zellescher Weg 12 Nöthnitzer Straße 46 Willers-Bau A
MehrEine kurze Geschichte der Grafikkarten
3.1 Einführung Eine kurze Geschichte der Grafikkarten ursprünglich: Graphics Card steuert Monitor an Mitte 80er: Grafikkarten mit 2D-Beschleunigung angelehnt an Arcade- und Home-Computer frühe 90er: erste
MehrPerformant Rendern mit Solidworks Visualize und PNY
Performant Rendern mit Solidworks Visualize und PNY Bechtle- Solidworks Experience Day Neckarsulm, 30.09.2016 Michael Rabinovici, Key Account Manager CE Warum PNY Agenda Grafikkarten und GPU Hardware Software
MehrGPU-Computing. Michael Vetter
GPU-Computing Universität Hamburg Scientific Visualization and Parallel Processing @ Informatik Climate Visualization Laboratory @ Clisap/CEN Übersicht Hintergrund und Entwicklung von GPGPU Programmierumgebungen
MehrCE-Bachelor Studiengang
CE-Bachelor Studiengang Vertiefungsrichtung Informatik M.Sc. Stefan Kurowski 21.02.2012 Vertiefungsrichtung Informatik 1 Studienplan CE (Bachelor) Semester 5-6 5 Fachrichtungen Semester 1-4 Gemeinsame
MehrEffektive Nutzung der Simulationsumgebung Anregungen für die Praxis
1 2017 ANSYS, 14. Inc. Juni 2017 in June Winterthur 20, 2017 22. SCHWEIZER CADFEM ANSYS SIMULATION CONFERENCE Effektive Nutzung der Simulationsumgebung Anregungen für die Praxis Martin Mann Sales & Acount
MehrRaytracing in GA mittels OpenACC. Michael Burger, M.Sc. FG Scientific Computing TU Darmstadt
Raytracing in GA mittels OpenACC Michael Burger, M.Sc. FG Scientific Computing TU Darmstadt michael.burger@sc.tu-darmstadt.de 05.11.12 FB Computer Science Scientific Computing Michael Burger 1 / 33 Agenda
MehrDiskless Cluster und Lustre Erfahrungsbericht zum CHiC
Diskless Cluster und Lustre Erfahrungsbericht zum CHiC, Torsten Hoefler, Torsten Mehlan und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität
MehrAktuelle Trends und Herausforderungen in der Finite-Elemente-Simulation
Aktuelle Trends und Herausforderungen in der Finite-Elemente-Simulation Kai Diethelm GNS Gesellschaft für numerische Simulation mbh Braunschweig engineering software development Folie 1 Überblick Vorstellung
MehrThema: Hardware-Shader
Seminar Grafikprogrammierung Thema: Hardware-Shader Christian Bauer 03.07.08 Überblick Entwicklung Die Shader im Detail Programmierung GPGPU Zusammenfassung & Ausblick 1/19 Entwicklung (1) Früher: Berechnung
MehrHochleistungsrechnen Grafikkartenprogrammierung. Prof. Dr. Thomas Ludwig Universität Hamburg Informatik Wissenschaftliches Rechnen
Hochleistungsrechnen Grafikkartenprogrammierung Prof. Dr. Thomas Ludwig Universität Hamburg Informatik Wissenschaftliches Rechnen Übersicht Hintergrund und Entwicklung von GPGPU Programmierumgebungen &
MehrInfiniband Kopplung Heidelberg Mannheim
Infiniband Kopplung Heidelberg Mannheim Tests aktueller Komponenten und Pläne für den Ausbau S. Richling, S. Friedel (Universität Heidelberg) S. Hau, H. Kredel (Universität Mannheim) Förderträger: www.bwhpc-c5.de
MehrDie deutsche Windows HPC Benutzergruppe
Christian Terboven, Dieter an Mey {terboven, anmey}@rz.rwth aachen.de Rechen und Kommunikationszentrum RWTH Aachen Windows HPC Server Launch 16. Oktober, Frankfurt am Main Agenda o Hochleistungsrechnen
MehrSuperMUC: Energieeffizientes Supercomputing
Torsten Bloth, HPC Systems Architect - IBM Deep Computing SuperMUC: Energieeffizientes Supercomputing ZKI AK Supercomputing, May 2011 DESY, Zeuthen SuperMUC in Germany and Europe The Leibniz Computing
MehrCPU-Update. Von Äpfeln und Birnen. best OpenSystems Day Herbst Dornach. Wolfgang Stief
CPU-Update Von Äpfeln und Birnen best OpenSystems Day Herbst 2008 Dornach Wolfgang Stief stief@best.de Senior Systemingenieur best Systeme GmbH GUUG Board Member Motivation Earlier, we used 10 elements
MehrMulti- und Many-Core
Multi- und Many-Core Benjamin Warnke Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg 2016-12-15 Benjamin
MehrAktuelle und zukünftige Entwicklungen
Aktuelle und zukünftige Entwicklungen David F. Vetsch VAW, ETH Zürich 25.01.2017 1 Inhalt 1. Ziel des Anwendertreffens 2. Anforderungen an die Software 3. Sedimenttransport 4. Effizienzsteigerung 5. BASEMENT
MehrMit Bastelrechnern gegen die Energiekrise
Mit Bastelrechnern gegen die Energiekrise Markus Geveler @ NerdNite 2017 Magdeburg Markus @ TUDo www.mathematik.tu-dortmund.de/lsiii/_markus_geveler markus.geveler@math.tu-dortmund.de Energieeffizientes
MehrPRIP-Preis. Effizientes Object Tracking durch Programmierung von Mehrkernprozessoren und Grafikkarten
Masterarbeit @ PRIP-Preis Effizientes Object Tracking durch Programmierung von Mehrkernprozessoren und Grafikkarten Michael Rauter Pattern Recognition and Image Processing Group Institute of Computer Aided
MehrBeispielvortrag: HPCG auf Intel Haswell-EP
Beispielvortrag: HPCG auf Intel Haswell-EP Johannes Hofmann 1 Seminarvortrag Architekturen von Multi- und Vielkern-Prozessoren Erlangen, 19.4.2016 1 Computer Architecture, University Erlangen-Nuremberg
MehrOptimierungen der Lattice Boltzmann Methode auf x86-64 basierten Architekturen
Optimierungen der Lattice Boltzmann Methode auf x86-64 basierten Architekturen J. Treibig, S. Hausmann, U. Ruede 15.09.05 / ASIM 2005 - Erlangen Gliederung 1 Einleitung Motivation Grundlagen 2 Optimierungen
MehrCPU, GPU und FPGA. CPU, GPU und FPGA Maximilian Bandle, Bianca Forkel 21. November 2017
CPU, GPU und FPGA, Bianca Forkel 21. November 2017 CPU, GPU und FPGA Inhalt CPU: Central Processing Unit GPU: Graphical Processing Unit FPGA: Field Programmable Gate Array 2 CPU Central Processing Unit
MehrOpenCL. Programmiersprachen im Multicore-Zeitalter. Tim Wiersdörfer
OpenCL Programmiersprachen im Multicore-Zeitalter Tim Wiersdörfer Inhaltsverzeichnis 1. Was ist OpenCL 2. Entwicklung von OpenCL 3. OpenCL Modelle 1. Plattform-Modell 2. Ausführungs-Modell 3. Speicher-Modell
MehrEin Unternehmen der Firmengruppe:
Ein Unternehmen der Firmengruppe: IT unter einem Dach Mit diesem Leitgedanken haben sich unsere Unternehmen zusammengeschlossen, um ihren Kunden ganzheitliche IT-Lösungen anbieten zu können. Die Unternehmensgruppe
MehrWissenschaftliches Rechnen an der Christian- Albrechts-Universität zu Kiel
Wissenschaftliches Rechnen an der Christian- Albrechts-Universität zu Kiel ZKI-Tagung, AK Supercomputing, 16.-17.03.2015 Holger Marten Landeshauptstadt Kiel - Bodo Quante 1. Etwas Historie 16.03.2015 Dr.
MehrHigh-Performance Computing mit FEMAG
High-Performance Computing mit FEMAG Untersuchungen und Massnahmen zur Verbesserung der Rechenzeit FEMAG Anwendertreffen 2013 (Zürich) Ronald Tanner SEMAFOR Informatik & Energie AG, Basel 10./11. Oktober
MehrStream Processing und High- Level GPGPU Sprachen
Stream Processing und High- Level GPGPU Sprachen Seminar Programmierung von Grafikkarten Jens Breitbart Problem 5000% 4000% 3000% 2000% Rechenleistung: +71% pro Jahr Bandbreite: +25% pro Jahr Zugriffszeit:
MehrCUDA. Philip Höhlein, Nils Werner Supervision: R. Membarth, P. Kutzer, F. Hannig. Hardware-Software-Co-Design Universität Erlangen-Nürnberg
CUDA Philip Höhlein, Nils Werner Supervision: R. Membarth, P. Kutzer, F. Hannig Hardware-Software-Co-Design Universität Erlangen-Nürnberg Philip Höhlein, Nils Werner 1 Übersicht Entwicklungsumgebung RSA-Faktorisierer
Mehr