GPGPUs am Jülich Supercomputing Centre

Größe: px
Ab Seite anzeigen:

Download "GPGPUs am Jülich Supercomputing Centre"

Transkript

1 GPGPUs am Jülich Supercomputing Centre 20. April 2012 Jochen Kreutz

2 Jülich Supercomputing Centre (JSC) Teil des Forschungszentrums Jülich und des Institute for Advanced Simulation (IAS) betreibt Supercomputer der höchsten Leistungsklasse in Europa mehr als 100 Mitarbeiter beschäftigen sich mit Aspekten von Supercomputing und Simulationswissenschaften mathematische Modellierung und numerische, insbesondere parallele Algorithmen zahlreiche Kooperationen mit namhaften Firmen und wissenschaftlichen Einrichtungen sieben Abteilungen, eine Helmholtz- Hochschul-Nachwuchsgruppe simulation labs April 2012 GPGPUs am Jülich Supercomputing Centre 2

3 Motivation Simulation ist neben Theorie und Experiment wichtige Grundlage moderner Wissenschaft sehr hoher Bedarf an Rechenleistung programmierbare Hardware in Grafikkarten ermöglicht Nutzung für (nahezu) beliebige Berechnungen auf der Grafikkarte General Purpose Computation on Graphics Processing Unit (GPGPU) gut geeignet für numerische Simulation und gitterbasierte Verfahren GPUs sind sehr effizient (niedriger Energieaufwand pro Fließkommaoperation im Vergleich zu CPUs) 20. April 2012 GPGPUs am Jülich Supercomputing Centre 3

4 Motivation hohe Performance für bestimmte Anwendungsbereiche (SIMD) große Speicherbandbreite Quelle: Nvidia C Programming Guide hybride Rechnersysteme mit Beschleunigern für größere Energieeffizienz interessant für HPC-Bereich 20. April 2012 GPGPUs am Jülich Supercomputing Centre 4

5 GPUGPU Systeme am JSC Jugipsy (Jülich s GPU System) 4 x Tesla C1060 GPU (4 GB DDR3 each) 4 Tflops peak (single precision) 346 Gflops double precision 4 x 102 GB/s memory bandwidth Infiniband interconnect GPU-Testsystem Jugipsy Mini-Judge 4 x Tesla M2070 (6GB DDR5 each, ECC) 4 x 1.03 Tflops peak (single precision) 4 x Tflops peak (double precision) 4 x 148 GB/s memory bandwidth Infiniband interconnect GPU-Testsystem Mini-Judge 20. April 2012 GPGPUs am Jülich Supercomputing Centre 5

6 Judge (Jülich Dedicated GPU Environment) dritte Ausbaustufe (derzeit Installationsphase) mit 206 IBM System x idataplex dx360 m3 Knoten 2 x Intel Xeon X core (2,66 GHz) 96 GB RAM, IB 2 x Nvidia Tesla M2050/M2070, 3/6 GB memory 1,03 Tflops peak (single precision) 0,515 Tflops peak (double precision) maximale Performance pro Knoten: 1,16 Tflops (double precision) Login-Knoten, Management-Knoten, GPFS-Anbindung Judge Cluster maximale Gesamtperformance: (double precision) ~ 239 Tflops 20. April 2012 GPGPUs am Jülich Supercomputing Centre 6

7 Erste Tests und Einarbeitung Beginn: 2008 Installation und Konfiguration (Treiber und Entwicklungsumgebung) Untersuchung der Programmiermodelle (Cuda, später auch OpenCL) GPU Architektur, Memory-Hierarchie Compiler, Debugger, Profiler erste Performancemessungen (Matrixmultiplikation, Black Scholes) Portierung erster Anwendungen QCD Proteinfaltung (SMMP) Stochastic Rotation Dynamics (SRD) Ising Model 20. April 2012 GPGPUs am Jülich Supercomputing Centre 7

8 GPU-Anwendungen Multi-particle Collision Dynamics (MPC) Nutzung von Stochastic Rotation Dynamics Kombination von MD und MPC (MP2C) Untersuchung von Skalierbarkeit für Multi-GPU-Nutzung N-Body für Astrophysik Kooperation mit R. Spurzem, Uni Heidelberg Judge Milky Way Clusterteil (3. Ausbaustufe) 20. April 2012 GPGPUs am Jülich Supercomputing Centre 8

9 Untersuchung von Programmiermodellen, Bibliotheken und Tools Cuda, CuBLAS, CuSPARSE, CULA, Thrust OpenCL, OpenACC, PGI Accelerator Nvidia Visual Profiler, VampirTrace, Cuda-GDB ArrayFire etc. 20. April 2012 GPGPUs am Jülich Supercomputing Centre 9

10 GPU-Vergleich Nvidia, ATI (OpenCL) Bachelor-Arbeit zum Performance-Vergleich von Nvidia- und ATI-Grafikkarten zusätzliches AMD-Testsystem wurde beschafft AMD CPU (FX-6100, 6 Cores) ATI-Grafikkarte: Radeon ,7 Tflops peak single precision ( 683 Gflops double) 176 GB/s bandwidth 1536 Stream-Prozessoren nutze CG-Kernel des NAS Parallel Benchmarks konjugiertes Gradientenverfahren mit verschiedenen dünn besetzten Matrizen vorhandene OpenCL-Implementierung von der Seoul National University 20. April 2012 GPGPUs am Jülich Supercomputing Centre 10

11 Schulungen und Workshops regelmäßige GPU-Programmierkurse (ca. 2 x pro Jahr) interne und externe Teilnehmer bietet Einstieg in Programmierung von GPGPUs Inhalte: Cuda, OpenCL, OpenACC, Libraries etc. Nvidia Porting Workshop (September 2011) Wissenschaftliche Anwendungen ( 4 x Cuda, 1 x OpenCL) Optimierung vorhandener Ansätze Hinweise und Tipps zur Performance- Verbesserung durch Nvidia-Experten 20. April 2012 GPGPUs am Jülich Supercomputing Centre 11

12 PRACE Projekt Mitarbeit beim Virtual Interconnect Protoyp (CSCS) Untersuchung von Datentransfers zwischen GPUs und CPUs Nutzung von MPI Linktest" Paralleler MPI Ping Pong Test Erweiterung für GPU Nutzung (Tests mit MVAPICH2) 20. April 2012 GPGPUs am Jülich Supercomputing Centre 12

13 Installation und Administration eines GPU- Clusters Judge wird in Zusammenarbeit mit der Firma ParTec administriert Nutzung der Clusterware ParaStation besondere Anforderungen bezüglich der Installation: Energiebedarf und Abwärme (Kühlsysteme) sind zu berücksichtigen zusätzliche Treiber und Software benötigt Nvidia Grafiktreiber, Entwicklungsumgebungen (Cuda ) Bibliotheken, Software-Pakete optimiert für Nutzung von GPUs Verwaltung verschiedener Benutzergruppen (nur CPU, GPU oder gemischte Nutzung) zusätzliche Hilfestellung für Umgang mit GPUs 20. April 2012 GPGPUs am Jülich Supercomputing Centre 13

14 Installation und Administration eines GPU- Clusters (2) Zuteilung von GPUs als Resourcen im Batchsystem Batchsystem muss entsprechende Konfigurationsmöglichkeit bereitstellen Monitoring und Accounting RAS: Reliability, Availability, Serviceability Erweiterung von Monitoring-Tool LLView GPUs stellen evtl. zusätzliche Fehlerquelle dar 20. April 2012 GPGPUs am Jülich Supercomputing Centre 14

15 GPGPUs Fazit GPUs besitzen hohes Potenzial energieeffizient und in vielen Anwendungsbereichen sehr performant aktuell zahlreiche Entwicklungen im Bereich der GPGPU-Programmierung (OpenACC ) großes Interesse und positive Resonanz von Benutzern Schulungen zu GPGPU-Programmierung gut besucht hohe Auslastung von Judge hybride Cluster interessant im HPC-Bereich zusätzliche Anforderungen bei der Administration 20. April 2012 GPGPUs am Jülich Supercomputing Centre 15

16 Intel Many Integrated Core (MIC) Architecture Gründung eines Exacluster Laboratory (2010) Ziele: Untersuchung der Intel MIC Architektur, um die Skalierbarkeit und Effizienz von HPC Systemen auf dem Weg zu Exascale zu verbessern Portierung von Anwendungen auf MIC Verbesserung von Software und Tools zur Verwendung in zukünftigen Exascale-Systemen 20. April 2012 GPGPUs am Jülich Supercomputing Centre 16

17 DEEP Projekt (Dynamical Exascale Entry Platform) EU-Projekt mit 16 Partnern aus 8 Ländern Start 1. Dezember 2011 Entwicklung eines Prototypen bestehend aus Cluster- und Booster-Teil Verwendung von Intel Knights Corner Chips als Beschleuniger schnelles Extoll-Netzwerk zwischen Booster-Nodes April 2012 GPGPUs am Jülich Supercomputing Centre 17

General Purpose Computation on GPUs

General Purpose Computation on GPUs General Purpose Computation on GPUs Matthias Schneider, Robert Grimm Universität Erlangen-Nürnberg {matthias.schneider, robert.grimm}@informatik.stud.uni-erlangen.de M. Schneider, R. Grimm 1 Übersicht

Mehr

Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner. Dr. Andreas Wolf. Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum

Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner. Dr. Andreas Wolf. Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Überblick Randbedingungen der HPC Beschaffung an der

Mehr

Towards Modular Supercomputing with Slurm

Towards Modular Supercomputing with Slurm Towards Modular Supercomputing with Slurm 2017-09-25 Dorian Krause et al., Jülich Supercomputing Centre, Forschungszentrum Jülich Dual-Architecture Supercomputing Facility IBM Power 4+ JUMP, 9 TFlop/s

Mehr

Seminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit OpenMP 4.5 und OpenACC 2.5 im Vergleich

Seminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit OpenMP 4.5 und OpenACC 2.5 im Vergleich Seminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit Direktivenbasierte Programmierung von Beschleunigern mit Agenda Einführung / Motivation Überblick zu OpenMP und OpenACC Asynchronität

Mehr

GPGPU-Architekturen CUDA Programmiermodell Beispielprogramm. Einführung CUDA. Ralf Seidler. Friedrich-Alexander-Universität Erlangen-Nürnberg

GPGPU-Architekturen CUDA Programmiermodell Beispielprogramm. Einführung CUDA. Ralf Seidler. Friedrich-Alexander-Universität Erlangen-Nürnberg Einführung CUDA Friedrich-Alexander-Universität Erlangen-Nürnberg PrakParRA, 18.11.2010 Outline 1 GPGPU-Architekturen 2 CUDA Programmiermodell 3 Beispielprogramm Outlook 1 GPGPU-Architekturen 2 CUDA Programmiermodell

Mehr

RST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck

RST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck RST-Labor WS06/07 GPGPU General Purpose Computation On Graphics Processing Units (Grafikkarten-Programmierung) Von: Marc Blunck Ablauf Einführung GPGPU Die GPU GPU Architektur Die Programmierung Programme

Mehr

Compute Unified Device Architecture CUDA

Compute Unified Device Architecture CUDA Compute Unified Device Architecture 06. Februar 2012 1 / 13 Gliederung 2 / 13 : Compute Unified Device Architecture entwickelt von Nvidia Corporation spezifiziert Software- und Hardwareeigenschaften Ziel:

Mehr

Seminar Multicore-Programmierung

Seminar Multicore-Programmierung Multicore- und GPGPU-Architekturen Fakultät für Informatik und Mathematik Universität Passau 04. November 2010 APUs / 1 / 39 Inhaltsverzeichnis I APUs / APUs / 2 / 39 Inhaltsverzeichnis II APUs / 3 / 39

Mehr

Grafikkarten-Architektur

Grafikkarten-Architektur > Grafikkarten-Architektur Parallele Strukturen in der GPU Name: Sebastian Albers E-Mail: s.albers@wwu.de 2 > Inhalt > CPU und GPU im Vergleich > Rendering-Pipeline > Shader > GPGPU > Nvidia Tesla-Architektur

Mehr

Gemeinsames TUM-LMU Seminar

Gemeinsames TUM-LMU Seminar Gemeinsames TUM-LMU Seminar Hochleistungsrechner: Aktuelle Trends und Entwicklungen Einführungsveranstaltung 20. Oktober 2016 LMU München Amalienstr. 73A, Raum 112 Web: http://www.lrr.in.tum.de/lehre/wintersemester-1617/seminare/hochleistungsrechneraktuelle-trends-und-entwicklungen/

Mehr

GPGPU-Architekturen CUDA Programmiermodell Beispielprogramm Organiosatorisches. Tutorial CUDA. Ralf Seidler

GPGPU-Architekturen CUDA Programmiermodell Beispielprogramm Organiosatorisches. Tutorial CUDA. Ralf Seidler Friedrich-Alexander-Universität Erlangen-Nürnberg 05.10.2010 Outline 1 GPGPU-Architekturen 2 CUDA Programmiermodell 3 Beispielprogramm 4 Organiosatorisches Outlook 1 GPGPU-Architekturen 2 CUDA Programmiermodell

Mehr

Linux in allen Lebenslagen. Diskless Cluster und Lustre Erfahrungsbericht zum CHiC. Frank Mietke. Chemnitzer Linux-Tage 2007

Linux in allen Lebenslagen. Diskless Cluster und Lustre Erfahrungsbericht zum CHiC. Frank Mietke. Chemnitzer Linux-Tage 2007 Linux in allen Lebenslagen Diskless Cluster und Lustre Erfahrungsbericht zum CHiC Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität Chemnitz Chemnitzer

Mehr

CLAIX Vorstellung und Technik Christian Terboven

CLAIX Vorstellung und Technik Christian Terboven CLAIX Vorstellung und Technik Christian Terboven Inhalte CLAIX Phase I Zwei Rack-Reihen + 2 Schränke Testbetrieb mit Projekten seit November 2016 Trier-2 HPC-System Abnahme im Januar 2017 TOP500 im November

Mehr

Multicore-Architekturen

Multicore-Architekturen Universität Erlangen- Nürnberg Technische Universität München Universität Stuttgart Multicore-Architekturen Vortrag im Rahmen der Ferienakademie 2009 Kurs 1: Programmierkonzepte für Multi-Core Rechner

Mehr

MULTICORE- UND GPGPU- ARCHITEKTUREN

MULTICORE- UND GPGPU- ARCHITEKTUREN MULTICORE- UND GPGPU- ARCHITEKTUREN Korbinian Pauli - 17. November 2011 Seminar Multicore Programmierung, WS11, Universität Passau 2 Einleitung Klassisches Problem der Informatik: riesige Datenmenge! Volkszählung

Mehr

CUDA. Moritz Wild, Jan-Hugo Lupp. Seminar Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg

CUDA. Moritz Wild, Jan-Hugo Lupp. Seminar Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg CUDA Seminar Multi-Core Architectures and Programming 1 Übersicht Einleitung Architektur Programmierung 2 Einleitung Computations on GPU 2003 Probleme Hohe Kenntnisse der Grafikprogrammierung nötig Unterschiedliche

Mehr

Physikalische Berechnungen mit General Purpose Graphics Processing Units (GPGPUs)

Physikalische Berechnungen mit General Purpose Graphics Processing Units (GPGPUs) Fakultätsname XYZ Fachrichtung XYZ Institutsname XYZ, Professur XYZ Physikalische Berechnungen mit General Purpose Graphics Processing Units (GPGPUs) im Rahmen des Proseminars Technische Informatik Juni

Mehr

Rheinisch-Westfälische Technische Hochschule Aachen. Seminararbeit

Rheinisch-Westfälische Technische Hochschule Aachen. Seminararbeit Rheinisch-Westfälische Technische Hochschule Aachen Seminararbeit Analyse von General Purpose Computation on Graphics Processing Units Bibliotheken in Bezug auf GPU-Hersteller. Gregori Kerber Matrikelnummer

Mehr

Seminar GPU-Programmierung/Parallelverarbeitung

Seminar GPU-Programmierung/Parallelverarbeitung Seite iv Literaturverzeichnis 1) Bengel, G.; et al.: Masterkurs Parallele und Verteilte Systeme. Vieweg + Teubner, Wiesbaden, 2008. 2) Breshears, C.: The Art of Concurrency - A Thread Monkey's Guide to

Mehr

Refactoring the UrQMD Model for Many- Core Architectures

Refactoring the UrQMD Model for Many- Core Architectures Refactoring the UrQMD Model for Many- Core Architectures Mathias Radtke Semiar: Softwaretechnologie (WS 2013/2014 Goethe-Universität Frankfurt Agenda: 1. UrQMD 2. CPU Vs. GPU 3. Von FORTRAN zu C++/OpenCL

Mehr

Machine Learning Hardware

Machine Learning Hardware Machine Learning Hardware Dominik Scherer 06.11.2017 Seminar Neuste Trends in Big Data Analytics Betreuer: Dr. Julian Kunkel Motivation Maschinelles Lernen in vielen Bereichen angewendet, z.b. Spracherkennung

Mehr

Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland

Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 14. März 2013

Mehr

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Scientific Computing 07. Oktober 2009 Siegfried Benkner Wilfried Gansterer Fakultät für Informatik Universität Wien www.cs.univie.ac.at

Mehr

Gemeinsames TUM-LMU Seminar

Gemeinsames TUM-LMU Seminar Gemeinsames TUM-LMU Seminar Einführungsveranstaltung zum Hauptseminar Akzeleratoren und ihr Einsatz im Hochleistungsrechnen (LMU) Akzeleratorarchitekturen (TUM) Prof. Dr. Dieter Kranzlmüller Dr. Karl Fürlinger

Mehr

HLRN III - HPC Ressource für Norddeutschland

HLRN III - HPC Ressource für Norddeutschland HLRN III - HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 23. September 2014 Inhalt Der HLRN Verbund

Mehr

GPGPU Basiskonzepte. von Marc Kirchhoff GPGPU Basiskonzepte 1

GPGPU Basiskonzepte. von Marc Kirchhoff GPGPU Basiskonzepte 1 GPGPU Basiskonzepte von Marc Kirchhoff 29.05.2006 GPGPU Basiskonzepte 1 Inhalt Warum GPGPU Streams, Kernels und Prozessoren Datenstrukturen Algorithmen 29.05.2006 GPGPU Basiskonzepte 2 Warum GPGPU? Performance

Mehr

Erste Erfahrungen mit Installation und Betrieb

Erste Erfahrungen mit Installation und Betrieb Erste Erfahrungen mit Installation und Betrieb von OpenHPC 14.10.2016 Holger Angenent Röntgenstr. 7-13, 48149 Münster 2 > Problemstellung Jeder neue Cluster kam bisher mit neuem Clustermanagement Einarbeitungszeit

Mehr

OpenCL. OpenCL. Boris Totev, Cornelius Knap

OpenCL. OpenCL. Boris Totev, Cornelius Knap OpenCL OpenCL 1 OpenCL Gliederung Entstehungsgeschichte von OpenCL Was, warum und überhaupt wieso OpenCL CUDA, OpenGL und OpenCL GPUs OpenCL Objekte Work-Units OpenCL Adressbereiche OpenCL API Codebeispiel

Mehr

T-Systems SfR - HPCN Workshop

T-Systems SfR - HPCN Workshop HPC System Design und die Auswirkungen auf die Anwendungsperformance Thomas Alrutz HPC & escience Solutions & Innovations - Scientific & Technical ICT T-Systems Solutions for Research GmbH T-Systems SfR

Mehr

Manycores: Hardware und Low-Level Programmierung

Manycores: Hardware und Low-Level Programmierung Manycores: Hardware und Low-Level Programmierung Florian Sattler Universität Passau 18. Juni 2014 Übersicht Einführung Neue Architekturen Programmierung Supercomputing Fazit 2 / 29 Top 500 3 / 29 Motivation

Mehr

Verteidigung der Bachelorarbeit, Willi Mentzel

Verteidigung der Bachelorarbeit, Willi Mentzel Verteidigung der Bachelorarbeit, Willi Mentzel Motivation U.S. Energy Consumption Breakdown 3x Durchschnittliche Leistungsaufnahme 114 Millionen kw Hohes Optimierungspotential 2 Ziele für Energieoptimierung

Mehr

Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP)

Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP) Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP) @wefinet Werner Fischer, Thomas-Krenn.AG Webinar, 17. Oktober 2017 Intel Xeon Scalable Performance _ Das ist NEU: Neue

Mehr

Masterpraktikum Scientific Computing

Masterpraktikum Scientific Computing Masterpraktikum Scientific Computing High-Performance Computing Thomas Auckenthaler Wolfgang Eckhardt Prof. Dr. Michael Bader Technische Universität München, Germany Outline Organisatorisches Entwicklung

Mehr

Einführung. GPU-Versuch. Andreas Schäfer Friedrich-Alexander-Universität Erlangen-Nürnberg

Einführung. GPU-Versuch. Andreas Schäfer Friedrich-Alexander-Universität Erlangen-Nürnberg GPU-Versuch andreas.schaefer@cs.fau.de Friedrich-Alexander-Universität Erlangen-Nürnberg Praktikum Parallele Rechnerarchitekturen SS2014 Outline 1 Einführung 2 Outlook 1 Einführung 2 Eine kurze Geschichte

Mehr

GPGPU WITH OPENCL. Praktikum Parallele Rechnerarchitekturen, 2015w Franz Richter-Gottfried

GPGPU WITH OPENCL. Praktikum Parallele Rechnerarchitekturen, 2015w Franz Richter-Gottfried GPGPU WITH OPENCL Praktikum Parallele Rechnerarchitekturen, 2015w Franz Richter-Gottfried INFRASTRUCTURE Enqueue interactive job srun --gres --pty bash Graphics cards available for tesla_k20,

Mehr

Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ

Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ Hinnerk Stüben ZKI-Arbeitskreis Supercomputing Leibniz-Rechenzentrum, Garching 19. Oktober 2015 Themen Neues HPC-Cluster

Mehr

Masterpraktikum Scientific Computing

Masterpraktikum Scientific Computing Masterpraktikum Scientific Computing High-Performance Computing Thomas Auckenthaler Wolfgang Eckhardt Technische Universität München, Germany Outline Entwicklung General Purpose GPU Programming (GPGPU)

Mehr

Deep Learning Appliance 4U Die Ready-to-Brain Komplett-Lösung

Deep Learning Appliance 4U Die Ready-to-Brain Komplett-Lösung www.cadnetwork.de/deeplearning Die Ready-to-Brain Komplett-Lösung DIE KOMPLETTLÖSUNG FÜR IHRE AI PROJEKTE Die ist unser 8-GPU Flaggschiff für AI Anwendungen. Sie liefert das Potential für anspruchsvollste

Mehr

CHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm

CHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm CHiC er Hochleistungs-Linux Cluster Stand HPC Cluster CHiC, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität

Mehr

Introduction Workshop 11th 12th November 2013

Introduction Workshop 11th 12th November 2013 Introduction Workshop 11th 12th November 2013 Lecture I: Hardware and Applications Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Overview Current and next System Hardware Sections

Mehr

GPU-beschleunigte Mehrphasensimulationen für komplexe maritime Anwendungen

GPU-beschleunigte Mehrphasensimulationen für komplexe maritime Anwendungen GPU-beschleunigte simulationen für komplexe maritime Anwendungen Thorsten Grahs, Christian Janßen move-csc UG, Inst. Scientific Computing, TU Braunschweig Inst. f. Fluiddynamik u Schiffstheorie, TU Hamburg-Harburg

Mehr

Gerät Preis* CPU, VGA, HD, RAM Ausstattung

Gerät Preis* CPU, VGA, HD, RAM Ausstattung 1 PC Ultra 559.- CPU: Intel Core Duo ab 3,0 GHz RAM: 8 GB HD: 128 GB SSD + 1 TB HDD VGA: GeForce GTX 750 2GB GDDR5 robuster Verarbeitung. Neben starken verfügt der PC Ultra über eine hochwertige Grafikkarte

Mehr

Parallel Computing in der industriellen Bildverarbeitung

Parallel Computing in der industriellen Bildverarbeitung SOLUTIONS FOR MACHINE VISION Parallel Computing in der industriellen Bildverarbeitung Dipl.-Inform. Alexander Piaseczki Research and Development Sirius Advanced Cybernetics GmbH Tools & Solutions für die

Mehr

Gliederung. Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo

Gliederung. Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo Gliederung Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo Was ist CUDA? Nvidia CUDA ist eine von NvidiaGPGPU-Technologie, die es Programmierern erlaubt, Programmteile

Mehr

Cell Broadband Engine

Cell Broadband Engine Cell Broadband Engine 21.March 2006 Benjamin Keck Outline Why Cell?!? Application Areas Architectural Overview SPU Programming Model Programming on the PPE C/C++ Intrinsics The Cell Supercomputer on a

Mehr

Vertiefungsrichtung Rechnerarchitektur

Vertiefungsrichtung Rechnerarchitektur srichtung () ( für ) Prof. Dietmar Fey 1 Ziele der srichtung RA Vertiefen des Verständnis vom Aufbau, Funktionsweise von Rechnern und Prozessoren () Modellierung und Entwurf von Rechnern und Prozessoren

Mehr

HPC an der Uni Mainz

HPC an der Uni Mainz Einwicklung vom ersten Top500 Rechner bis zum AHRP HPC - AHRP - ZKI Markus Tacke, ZDV, Universität Mainz AK Supercomputer Kaiserslautern 19.4.2012 ZDV: CC NUMA 1.1.1995: Convex SPP1000/16 16 PA Risc 7100

Mehr

Software Engineering für moderne parallele Plattformen 9. GPGPUs: Grafikkarten als Parallelrechner

Software Engineering für moderne parallele Plattformen 9. GPGPUs: Grafikkarten als Parallelrechner Software Engineering für moderne parallele Plattformen 9. GPGPUs: Grafikkarten als Parallelrechner Dipl.-Inform. Korbinian Molitorisz M. Sc. Luis Manuel Carril Rodriguez KIT Universität des Landes Baden-Württemberg

Mehr

LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610

LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610 LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610 Dominik Weinrich dominik.weinrich@tu-dresden.de Dresden, 30.11.2017 Gliederung Motivation Aufbau und Hardware

Mehr

Zukunft Hochleistungsrechnen an der TU-Darmstadt

Zukunft Hochleistungsrechnen an der TU-Darmstadt Zukunft Hochleistungsrechnen an der TU-Darmstadt Infoveranstaltung - 15:30-17:00 Uhr Prof. Dr. Christian Bischof FG Scientific Computing im FB Informatik Leiter Hochschulrechenzentrum Dr. Andreas Wolf

Mehr

Untersuchung und Vorstellung moderner Grafikchiparchitekturen

Untersuchung und Vorstellung moderner Grafikchiparchitekturen Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Untersuchung und Vorstellung moderner Grafikchiparchitekturen Hauptseminar Technische

Mehr

Gemeinsames TUM-LMU Seminar

Gemeinsames TUM-LMU Seminar Gemeinsames TUM-LMU Seminar Einführungsveranstaltung zum Hauptseminar Akzeleratorarchitekturen Prof. Dr. Dieter Kranzlmüller Dr. Karl Fürlinger - fuerling@nm.ifi.lmu.de MNM-Team LMU München Prof. Dr. Carsten

Mehr

2 Rechnerarchitekturen

2 Rechnerarchitekturen 2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf

Mehr

NEC SX-ACE HPC-System

NEC SX-ACE HPC-System Erste Erfahrungen mit dem neuen System Dr. Simone Knief; ZKI-Arbeitskreis Supercomputing, Kiel 17.03.2015 1 Überblick Rechnerkonfiguration Veränderungen SX-9 zu SX-ACE Benutzergruppen Erste Performanceergebnisse

Mehr

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1 Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer

Mehr

GPUs. Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg

GPUs. Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg GPUs Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg Vorgelegt von: Johannes Coym E-Mail-Adresse: 4coym@informatik.uni-hamburg.de

Mehr

ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf

ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012 Scientific Computing in Düsseldorf Peter Schreiber schreiber@hhu.de 0211-81-13913 http://www.zim.hhu.de ZKI Arbeitskreis Supercomputing 20.-21.09.2012

Mehr

Vertiefungsrichtung Rechnerarchitektur

Vertiefungsrichtung Rechnerarchitektur srichtung () ( für ) Prof. Dietmar Fey Ziele der srichtung RA Vertiefen des Verständnis vom Aufbau, Funktionsweise von Rechnern und Prozessoren Modellierung und Entwurf von Rechnern und Prozessoren ()

Mehr

Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation

Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation Dr. Jan Eitzinger Regionales Rechenzentrum (RRZE) der Universität Erlangen-Nürnberg

Mehr

Harry Enke Astrophysikalisches Institut Potsdam. AstroGrid-D WissGrid

Harry Enke Astrophysikalisches Institut Potsdam. AstroGrid-D WissGrid Numerische Simulationen im AstroGrid Harry Enke Astrophysikalisches Institut Potsdam AstroGrid-D WissGrid 1 Übersicht Geschichte Num. Rel. Simulation mit GTK 2.1 Tests mit kleinem Testbed AstroGrid-D:

Mehr

ModProg 15-16, Vorl. 13

ModProg 15-16, Vorl. 13 ModProg 15-16, Vorl. 13 Richard Grzibovski Jan. 27, 2016 1 / 35 Übersicht Übersicht 1 Supercomputing FLOPS, Peak FLOPS Parallelismus Praktische Aspekte 2 Klausur von 2009 2 / 35 Supercomputing: HPC Modellierung

Mehr

CUDA. (Compute Unified Device Architecture) Thomas Trost. May 31 th 2016

CUDA. (Compute Unified Device Architecture) Thomas Trost. May 31 th 2016 CUDA (Compute Unified Device Architecture) Thomas Trost May 31 th 2016 Introduction and Overview platform and API for parallel computing on GPUs by NVIDIA relatively straightforward general purpose use

Mehr

Gliederung. Problemstellung Motivation Multi-Agenten Simulation GPU Programmierung Stand der Technik Abgrenzung

Gliederung. Problemstellung Motivation Multi-Agenten Simulation GPU Programmierung Stand der Technik Abgrenzung Philipp Kayser Gliederung Problemstellung Motivation Multi-Agenten Simulation GPU Programmierung Stand der Technik Abgrenzung Multi-Agenten Simulation (MAS) simuliert durch eine Vielzahl von Agenten Die

Mehr

Outline. Cell Broadband Engine. Application Areas. The Cell

Outline. Cell Broadband Engine. Application Areas. The Cell Outline 21.March 2006 Benjamin Keck Why Cell?!? Application Areas Architectural Overview Programming Model Programming on the PPE C/C++ Intrinsics 1 2 The Cell Supercomputer on a chip Multi-Core Microprocessor

Mehr

Multicore Herausforderungen an das Software-Engineering. Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010

Multicore Herausforderungen an das Software-Engineering. Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010 Multicore Herausforderungen an das Software-Engineering Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010 Inhalt _ Motivation _ Herausforderung 1: Hardware _ Herausforderung 2: Software-Partitionierung

Mehr

technische universität dortmund Lehrstuhl für Hochfrequenztechnik Übertragungssysteme

technische universität dortmund Lehrstuhl für Hochfrequenztechnik Übertragungssysteme Lehrstuhl für Hochfrequenztechnik GPU-beschleunigte numerische Simulation faseroptischer Übertragungssysteme, Marius Helf, Peter Krummrich Übersicht Motivation Split-Step p Fourier Methode Ansätze für

Mehr

> Implementierung paralleler Programmiermuster auf

> Implementierung paralleler Programmiermuster auf > Implementierung paralleler Programmiermuster auf modernen many-core Systemen in OpenCL Projektseminar im WiSe 2014 / 2015 Prof. Sergei Gorlatch, Ari Rasch, Michael Haidl AG Parallele und Verteilte Systeme,

Mehr

GPGPU mit NVIDIA CUDA

GPGPU mit NVIDIA CUDA 01.07.12 GPGPU mit NVIDIA CUDA General-Purpose on Formatvorlagecomputing des Graphics Processing durch Units Untertitelmasters mit KlickenCompute bearbeiten NVIDIA Unified Device Architecture Gliederung

Mehr

Gemeinsames TUM-LMU Seminar

Gemeinsames TUM-LMU Seminar Gemeinsames TUM-LMU Seminar Einführungsveranstaltung zum Hauptseminar Hochleistungsrechner: Aktuelle Trends und Entwicklungen Web: http://www.lrr.in.tum.de/lehre/wintersemester-1516/seminare/hochleistungsrechneraktuelle-trends-und-entwicklungen/

Mehr

Architekturen von Multi- und Manycore-Prozessoren

Architekturen von Multi- und Manycore-Prozessoren Architekturen von Multi- und Manycore-Prozessoren Johannes Hofmann Einführungsveranstaltung, 12.04.2016 Inhalt Es gibt zwei Varianten zum absolvieren des Seminars: Evaluation eines Benchmarks aus der Mantevo-Suite

Mehr

Paradigmenwechsel: Von der Rechner-zentrierten zur Informationszentrierten DV Skalierbarkeit: Erweiterung von Ressourcen ohne Erhöhung der

Paradigmenwechsel: Von der Rechner-zentrierten zur Informationszentrierten DV Skalierbarkeit: Erweiterung von Ressourcen ohne Erhöhung der Sun: HPC mit Zukunft Wolfgang Kroj Vertriebsleiter Enterprise Business & Storage Sun Microsystems GmbH Tel.: +49-89-46008-589, Fax: +49-89-46008-590 Email: wolfgang.kroj@germany.sun.com Network Computing

Mehr

Vorstellung der Fachgebiete

Vorstellung der Fachgebiete Fakultät Informatik, Institut für Technische Informatik, Professur Rechnerarchitektur Vorstellung der Fachgebiete Institut für Technische Informatik Zellescher Weg 12 Nöthnitzer Straße 46 Willers-Bau A

Mehr

Eine kurze Geschichte der Grafikkarten

Eine kurze Geschichte der Grafikkarten 3.1 Einführung Eine kurze Geschichte der Grafikkarten ursprünglich: Graphics Card steuert Monitor an Mitte 80er: Grafikkarten mit 2D-Beschleunigung angelehnt an Arcade- und Home-Computer frühe 90er: erste

Mehr

Performant Rendern mit Solidworks Visualize und PNY

Performant Rendern mit Solidworks Visualize und PNY Performant Rendern mit Solidworks Visualize und PNY Bechtle- Solidworks Experience Day Neckarsulm, 30.09.2016 Michael Rabinovici, Key Account Manager CE Warum PNY Agenda Grafikkarten und GPU Hardware Software

Mehr

GPU-Computing. Michael Vetter

GPU-Computing. Michael Vetter GPU-Computing Universität Hamburg Scientific Visualization and Parallel Processing @ Informatik Climate Visualization Laboratory @ Clisap/CEN Übersicht Hintergrund und Entwicklung von GPGPU Programmierumgebungen

Mehr

CE-Bachelor Studiengang

CE-Bachelor Studiengang CE-Bachelor Studiengang Vertiefungsrichtung Informatik M.Sc. Stefan Kurowski 21.02.2012 Vertiefungsrichtung Informatik 1 Studienplan CE (Bachelor) Semester 5-6 5 Fachrichtungen Semester 1-4 Gemeinsame

Mehr

Effektive Nutzung der Simulationsumgebung Anregungen für die Praxis

Effektive Nutzung der Simulationsumgebung Anregungen für die Praxis 1 2017 ANSYS, 14. Inc. Juni 2017 in June Winterthur 20, 2017 22. SCHWEIZER CADFEM ANSYS SIMULATION CONFERENCE Effektive Nutzung der Simulationsumgebung Anregungen für die Praxis Martin Mann Sales & Acount

Mehr

Raytracing in GA mittels OpenACC. Michael Burger, M.Sc. FG Scientific Computing TU Darmstadt

Raytracing in GA mittels OpenACC. Michael Burger, M.Sc. FG Scientific Computing TU Darmstadt Raytracing in GA mittels OpenACC Michael Burger, M.Sc. FG Scientific Computing TU Darmstadt michael.burger@sc.tu-darmstadt.de 05.11.12 FB Computer Science Scientific Computing Michael Burger 1 / 33 Agenda

Mehr

Diskless Cluster und Lustre Erfahrungsbericht zum CHiC

Diskless Cluster und Lustre Erfahrungsbericht zum CHiC Diskless Cluster und Lustre Erfahrungsbericht zum CHiC, Torsten Hoefler, Torsten Mehlan und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität

Mehr

Aktuelle Trends und Herausforderungen in der Finite-Elemente-Simulation

Aktuelle Trends und Herausforderungen in der Finite-Elemente-Simulation Aktuelle Trends und Herausforderungen in der Finite-Elemente-Simulation Kai Diethelm GNS Gesellschaft für numerische Simulation mbh Braunschweig engineering software development Folie 1 Überblick Vorstellung

Mehr

Thema: Hardware-Shader

Thema: Hardware-Shader Seminar Grafikprogrammierung Thema: Hardware-Shader Christian Bauer 03.07.08 Überblick Entwicklung Die Shader im Detail Programmierung GPGPU Zusammenfassung & Ausblick 1/19 Entwicklung (1) Früher: Berechnung

Mehr

Hochleistungsrechnen Grafikkartenprogrammierung. Prof. Dr. Thomas Ludwig Universität Hamburg Informatik Wissenschaftliches Rechnen

Hochleistungsrechnen Grafikkartenprogrammierung. Prof. Dr. Thomas Ludwig Universität Hamburg Informatik Wissenschaftliches Rechnen Hochleistungsrechnen Grafikkartenprogrammierung Prof. Dr. Thomas Ludwig Universität Hamburg Informatik Wissenschaftliches Rechnen Übersicht Hintergrund und Entwicklung von GPGPU Programmierumgebungen &

Mehr

Infiniband Kopplung Heidelberg Mannheim

Infiniband Kopplung Heidelberg Mannheim Infiniband Kopplung Heidelberg Mannheim Tests aktueller Komponenten und Pläne für den Ausbau S. Richling, S. Friedel (Universität Heidelberg) S. Hau, H. Kredel (Universität Mannheim) Förderträger: www.bwhpc-c5.de

Mehr

Die deutsche Windows HPC Benutzergruppe

Die deutsche Windows HPC Benutzergruppe Christian Terboven, Dieter an Mey {terboven, anmey}@rz.rwth aachen.de Rechen und Kommunikationszentrum RWTH Aachen Windows HPC Server Launch 16. Oktober, Frankfurt am Main Agenda o Hochleistungsrechnen

Mehr

SuperMUC: Energieeffizientes Supercomputing

SuperMUC: Energieeffizientes Supercomputing Torsten Bloth, HPC Systems Architect - IBM Deep Computing SuperMUC: Energieeffizientes Supercomputing ZKI AK Supercomputing, May 2011 DESY, Zeuthen SuperMUC in Germany and Europe The Leibniz Computing

Mehr

CPU-Update. Von Äpfeln und Birnen. best OpenSystems Day Herbst Dornach. Wolfgang Stief

CPU-Update. Von Äpfeln und Birnen. best OpenSystems Day Herbst Dornach. Wolfgang Stief CPU-Update Von Äpfeln und Birnen best OpenSystems Day Herbst 2008 Dornach Wolfgang Stief stief@best.de Senior Systemingenieur best Systeme GmbH GUUG Board Member Motivation Earlier, we used 10 elements

Mehr

Multi- und Many-Core

Multi- und Many-Core Multi- und Many-Core Benjamin Warnke Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg 2016-12-15 Benjamin

Mehr

Aktuelle und zukünftige Entwicklungen

Aktuelle und zukünftige Entwicklungen Aktuelle und zukünftige Entwicklungen David F. Vetsch VAW, ETH Zürich 25.01.2017 1 Inhalt 1. Ziel des Anwendertreffens 2. Anforderungen an die Software 3. Sedimenttransport 4. Effizienzsteigerung 5. BASEMENT

Mehr

Mit Bastelrechnern gegen die Energiekrise

Mit Bastelrechnern gegen die Energiekrise Mit Bastelrechnern gegen die Energiekrise Markus Geveler @ NerdNite 2017 Magdeburg Markus @ TUDo www.mathematik.tu-dortmund.de/lsiii/_markus_geveler markus.geveler@math.tu-dortmund.de Energieeffizientes

Mehr

PRIP-Preis. Effizientes Object Tracking durch Programmierung von Mehrkernprozessoren und Grafikkarten

PRIP-Preis. Effizientes Object Tracking durch Programmierung von Mehrkernprozessoren und Grafikkarten Masterarbeit @ PRIP-Preis Effizientes Object Tracking durch Programmierung von Mehrkernprozessoren und Grafikkarten Michael Rauter Pattern Recognition and Image Processing Group Institute of Computer Aided

Mehr

Beispielvortrag: HPCG auf Intel Haswell-EP

Beispielvortrag: HPCG auf Intel Haswell-EP Beispielvortrag: HPCG auf Intel Haswell-EP Johannes Hofmann 1 Seminarvortrag Architekturen von Multi- und Vielkern-Prozessoren Erlangen, 19.4.2016 1 Computer Architecture, University Erlangen-Nuremberg

Mehr

Optimierungen der Lattice Boltzmann Methode auf x86-64 basierten Architekturen

Optimierungen der Lattice Boltzmann Methode auf x86-64 basierten Architekturen Optimierungen der Lattice Boltzmann Methode auf x86-64 basierten Architekturen J. Treibig, S. Hausmann, U. Ruede 15.09.05 / ASIM 2005 - Erlangen Gliederung 1 Einleitung Motivation Grundlagen 2 Optimierungen

Mehr

CPU, GPU und FPGA. CPU, GPU und FPGA Maximilian Bandle, Bianca Forkel 21. November 2017

CPU, GPU und FPGA. CPU, GPU und FPGA Maximilian Bandle, Bianca Forkel 21. November 2017 CPU, GPU und FPGA, Bianca Forkel 21. November 2017 CPU, GPU und FPGA Inhalt CPU: Central Processing Unit GPU: Graphical Processing Unit FPGA: Field Programmable Gate Array 2 CPU Central Processing Unit

Mehr

OpenCL. Programmiersprachen im Multicore-Zeitalter. Tim Wiersdörfer

OpenCL. Programmiersprachen im Multicore-Zeitalter. Tim Wiersdörfer OpenCL Programmiersprachen im Multicore-Zeitalter Tim Wiersdörfer Inhaltsverzeichnis 1. Was ist OpenCL 2. Entwicklung von OpenCL 3. OpenCL Modelle 1. Plattform-Modell 2. Ausführungs-Modell 3. Speicher-Modell

Mehr

Ein Unternehmen der Firmengruppe:

Ein Unternehmen der Firmengruppe: Ein Unternehmen der Firmengruppe: IT unter einem Dach Mit diesem Leitgedanken haben sich unsere Unternehmen zusammengeschlossen, um ihren Kunden ganzheitliche IT-Lösungen anbieten zu können. Die Unternehmensgruppe

Mehr

Wissenschaftliches Rechnen an der Christian- Albrechts-Universität zu Kiel

Wissenschaftliches Rechnen an der Christian- Albrechts-Universität zu Kiel Wissenschaftliches Rechnen an der Christian- Albrechts-Universität zu Kiel ZKI-Tagung, AK Supercomputing, 16.-17.03.2015 Holger Marten Landeshauptstadt Kiel - Bodo Quante 1. Etwas Historie 16.03.2015 Dr.

Mehr

High-Performance Computing mit FEMAG

High-Performance Computing mit FEMAG High-Performance Computing mit FEMAG Untersuchungen und Massnahmen zur Verbesserung der Rechenzeit FEMAG Anwendertreffen 2013 (Zürich) Ronald Tanner SEMAFOR Informatik & Energie AG, Basel 10./11. Oktober

Mehr

Stream Processing und High- Level GPGPU Sprachen

Stream Processing und High- Level GPGPU Sprachen Stream Processing und High- Level GPGPU Sprachen Seminar Programmierung von Grafikkarten Jens Breitbart Problem 5000% 4000% 3000% 2000% Rechenleistung: +71% pro Jahr Bandbreite: +25% pro Jahr Zugriffszeit:

Mehr

CUDA. Philip Höhlein, Nils Werner Supervision: R. Membarth, P. Kutzer, F. Hannig. Hardware-Software-Co-Design Universität Erlangen-Nürnberg

CUDA. Philip Höhlein, Nils Werner Supervision: R. Membarth, P. Kutzer, F. Hannig. Hardware-Software-Co-Design Universität Erlangen-Nürnberg CUDA Philip Höhlein, Nils Werner Supervision: R. Membarth, P. Kutzer, F. Hannig Hardware-Software-Co-Design Universität Erlangen-Nürnberg Philip Höhlein, Nils Werner 1 Übersicht Entwicklungsumgebung RSA-Faktorisierer

Mehr