GPGPU-Architekturen CUDA Programmiermodell Beispielprogramm. Einführung CUDA. Ralf Seidler. Friedrich-Alexander-Universität Erlangen-Nürnberg
|
|
- Franz Damian Falk
- vor 7 Jahren
- Abrufe
Transkript
1 Einführung CUDA Friedrich-Alexander-Universität Erlangen-Nürnberg PrakParRA,
2 Outline 1 GPGPU-Architekturen 2 CUDA Programmiermodell 3 Beispielprogramm
3 Outlook 1 GPGPU-Architekturen 2 CUDA Programmiermodell 3 Beispielprogramm
4 Eine kurze Geschichte der Grafikkarten Ursprünglich: Video Card steuert Monitor an Mitte 80er: Grafikkarten mit 2D-Beschleunigung angelehnt an Arcade- und Home-Computer Frühe 90er: erste 3D-Beschleunigung: Matrox Mystique, 3dfx Voodoo Rastern von Polygonen Textur Polygon Abbildung
5 Eine kurze Geschichte der Grafikkarten Direct3D 10 Pipeline
6 Eine kurze Geschichte der Grafikkarten 2000er: Zunächst nur Fixed-Function-Pipeline Shader-Programme bieten mehr Flexibilität Shader-Programme ursprünglich nur einfache Listen 2002: ATI Radeon 9700 kann Loops in Shadern ausführen Heute: Shader turing-vollständig Hersteller: Intel, ATI und NVIDIA Massenmarkt niedrige Preise
7 GPGPUs GPGPU = General Purpose Graphics Processing Unit Grafikkarten zunehmend flexibler programmierbar Stetig wachsende Leistung Geeignet für Streamprocessing: Geringes Verhältnis IO-zu-Rechenlast Datenparallelität (SIMD-Verarbeitung) Single precision wichtiger als double precision
8 Aufbau GPGPU Bus- Interface (z.b. PCIe) GPGPU Multi-Prozessor Shader Shader... Lokaler Speicher Globaler Speicher Multi-Prozessor...
9 Eigenschaften von GPGPUs Viele einfache Cores, genannt Skalarprozessoren (SP) Keine Sprungvorhersage etc. Gruppiert in Multi-Prozessoren (Vektorprozessoren) Probleme bei nicht einheitlichen Sprüngen Viele Register Großer, langsamer, globaler Speicher (Latenz: Taktzyklen) Kleine, schnelle on-chip Shared-Memory-Blöcke Integer und DP FP langsam
10 GPGPU: Nvidia G80
11 Neue Architektur - Nvidia GF100 Noch mehr Cores Globaler Speicher gecached Wenige, größere Multiprozessoren Integer und DP FP schnell Zwei Warp-Scheduler pro SM
12 GPGPU: Nvidia GF100
13 Programmierung Sehr viele, kurzlebige Threads Threads in Blöcken gruppiert Blöcke auf Multi-Prozessoren verteilt Standards: CUDA (NVIDIA, Marktführer) OpenCL (offener Standard, entsprechend zu OpenGL) FireStream (AMD) DirectCompute (Microsoft)
14 GPU Systeme am Lehrstuhl faui36i und faui36j mit je 2 Intel Xeon 2.66 GHz 24 GB DDR3-Ram faui36i - Fermi-System: 2 Nvidia Tesla C2050 (448 Cores (14 x 32 Cores)) 3 GB GDDR TFlops SP, 515 GFlops DP 1 Nvidia Geforce GTX 480 (480 Cores (15 x 32 Cores)) 1.5 GB GDDR TFlops SP, 100 GFlops DP faui36j: 3 Nvidia Tesla C1060 (240 Cores (30 x 8 Cores)) 4 GB GDDR TFlops SP, 74 GFlops DP
15 Outlook 1 GPGPU-Architekturen 2 CUDA Programmiermodell 3 Beispielprogramm
16 CUDA Einstieg I Programmierung in C einzelne Funktionen laufen auf GPU in sog. Kernels (Function-Offloading) Compiler nvcc separiert Code, baut auf gcc auf Programm wird in Host-Code (Standard C) und Device-Code (CUDA) unterteilt Unterscheidung der Funktionen durch Qualifier host als CPU Funktionen (nicht notwendig) device GPGPU Funktionen (wichtig) global Einsprungpunkte in CUDA Code, definieren Kernel
17 CUDA Einstieg II - Programmiermodell 1-,2- oder 3-dimensionale Thread-Anordnung Unterscheidung zwischen Thread-Block und Grid Thread-Block: Zusammenschluss von bis zu 1024 Threads Threads innerhalb eines Thread-Blocks synchronisierbar Shared Memory zum Datenaustausch Immer 32 Threads gleichzeitig aktiv (Warp) Grid: Zusammenschluss der Thread-Blöcke maximal in einer kardinalen Richtung
18 CUDA Einstieg III - Speicherverwaltung Speicher wird ebenfalls durch Qualifier beschrieben normaler Speicher im System-RAM device in globalem Speicher auf der GPU shared im Shared-Memory auf den Multiprozessoren CUDA-API für Speicheroperationen Allokation/Deallokation von globalem Speicher (cudamalloc(), cudafree()) Transfer System-RAM GPU-RAM (cudamemcpy()) In Kernels Transfer globaler Speicher Shared-Memory Zusätzliche spezielle Speicherbereiche (read-only) Konstanten (gecached) Texturen (gecached, mehrdimensionale Adressierung, Filterung)
19 CUDA Einstieg IV - Globale-Speicherzugriffe I Zugriff auf aufeinander folgende Speicheradressen ideal
20 CUDA Einstieg IV - Globale-Speicherzugriffe II Neuere GPUs haben kein Problem mit überkreuzenden Zugriffen
21 CUDA Einstieg IV - Globale-Speicherzugriffe III Aber: Verschobene Zugriffe sind schlecht
22 CUDA Einstieg V - Shared Memory Zugriffe Shared Memory bestehen aus je 32 Bänken Aufeinanderfolgende 32-Bit Wörter in aufeinanderfolgenden Bänken Bandbreite: Je Bank 32 Bits pro 2 Takte Bankkonflikte treten nur auf, wenn zwei oder mehr Threads unterschiedliche 32 Bit Wörter einer Bank adressieren
23 CUDA - Weiterführende Details I Atomic-Funktionen für Thread-Exklusiven Zugriff auf Speicherbereiche: atomicmin/atomicmax atomicadd/atomicsub atomicinc/atomicdec Bis Compute-Capability 1.3 nur auf Integer Daten definiert 2.0 unterstützt auch float Assoziativität? L1-Cache/Shared Memory bei Fermi konfigurierbar: 64 kbyte pro SM verfügbar cudafuncsetcacheconfig(function, cudafunccachepreferl1 cudafunccacheprefershared) L1 48k/Shared 16k L1 16k/Shared 48k
24 CUDA - Weiterführende Details II Multi-GPU: OpenMP Pragmas benutzen cudasetdevice() - setzt die aktuelle Device-ID des Threads Page-Locked Host-Memory: Allokieren von Host-Speicher, der nicht ausgelagert werden darf (pinned memory) cudahostalloc()/cudafreehost() Übertragungsrate Host Device höher Nebenläufige Ausführung und Datentransfers zu Host möglich Teilweise Zero-Copy möglich ACHTUNG: Pinned-Memory ist kostbares Gut
25 CUDA - Weiterführende Details III Host-Funktionen von Kernel ausführbar Seit Compute-Capability 2.0 unterstützt printf() Einfacheres Debugging möglich Achtung: Ausgabe erfolgt PRO Thread, Puffer sehr schnell voll malloc()/free() Maximale Heapsize vorher angeben (Standard 8MB) cudathreadsetlimit(cudalimitmallocheapsize, size) Jeder Thread kann dann Speicher vom Heap allokieren Bleibt über gesamte Ausführung (auch über Kernel-Calls) bestehen und MUSS mit free() freigegeben werden
26 Outlook 1 GPGPU-Architekturen 2 CUDA Programmiermodell 3 Beispielprogramm
27 Matrixmultiplikation - Kernel global void matmul ( f l o a t a, f l o a t b, f l o a t c ) { i n t 2 i d ; i d. x = blockdim. x b l o c k I d x. x+ threadidx. x ; i d. y = blockdim. y b l o c k I d x. y+ threadidx. y ; f l o a t sum =0; for ( i n t z =0; z<dim ; z ++) { sum +=a [ i d. y DIM+z ] b [ z DIM+ i d. x ] ; } c [ i d. y DIM+ i d. x ]=sum ; }
28 Matrixmultiplikation - Main i n t main ( ) { dim3 threads ( 1 6, 1 6, 1 ) ; dim3 g r i d ( DIM / threads. x, DIM / threads. y, 1 ) ; f l o a t a [ DIM DIM ], b [ DIM DIM ], res [ DIM DIM ] ; f l o a t deva, devb, devres ; i n t matsize = DIM DIM sizeof ( f l o a t ) ; cudamalloc ( ( void )&deva, matsize ) ; cudamalloc ( ( void )&devb, matsize ) ; cudamalloc ( ( void )&devres, matsize ) ; cudamemcpy ( deva, a, bytesize, cudamemcpyhosttodevice ) ; cudamemcpy ( devb, b, bytesize, cudamemcpyhosttodevice ) ; matmul<<< grid, threads >>>(deva, devb, devres ) ; cudathreadsynchronize ( ) ; cudamemcpy ( res, devres, matsize, cudamemcpydevicetohost ) ; for ( i n t i =0; i <DIM ; i ++) { for ( i n t j =0; j <DIM ; j ++) p r i n t f ( "%d ", res [ i + j DIM ] ) ; p r i n t f ( " \ n " ) ; } return 0; }
Einführung. GPU-Versuch. Andreas Schäfer Friedrich-Alexander-Universität Erlangen-Nürnberg
GPU-Versuch andreas.schaefer@cs.fau.de Friedrich-Alexander-Universität Erlangen-Nürnberg Praktikum Parallele Rechnerarchitekturen SS2014 Outline 1 Einführung 2 Outlook 1 Einführung 2 Eine kurze Geschichte
MehrGPGPU-Architekturen CUDA Programmiermodell Beispielprogramm Organiosatorisches. Tutorial CUDA. Ralf Seidler
Friedrich-Alexander-Universität Erlangen-Nürnberg 05.10.2010 Outline 1 GPGPU-Architekturen 2 CUDA Programmiermodell 3 Beispielprogramm 4 Organiosatorisches Outlook 1 GPGPU-Architekturen 2 CUDA Programmiermodell
MehrEine kurze Geschichte der Grafikkarten
3.1 Einführung Eine kurze Geschichte der Grafikkarten ursprünglich: Graphics Card steuert Monitor an Mitte 80er: Grafikkarten mit 2D-Beschleunigung angelehnt an Arcade- und Home-Computer frühe 90er: erste
MehrGPGPU-Architekturen CUDA CUDA Beispiel OpenCL OpenCL Beispiel. CUDA & OpenCL. Ralf Seidler. Friedrich-Alexander-Universität Erlangen-Nürnberg
CUDA und OpenCL Friedrich-Alexander-Universität Erlangen-Nürnberg 24. April 2012 Outline 1 GPGPU-Architekturen 2 CUDA 3 CUDA Beispiel 4 OpenCL 5 OpenCL Beispiel Outlook 1 GPGPU-Architekturen 2 CUDA 3 CUDA
MehrCUDA. Moritz Wild, Jan-Hugo Lupp. Seminar Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg
CUDA Seminar Multi-Core Architectures and Programming 1 Übersicht Einleitung Architektur Programmierung 2 Einleitung Computations on GPU 2003 Probleme Hohe Kenntnisse der Grafikprogrammierung nötig Unterschiedliche
MehrMasterpraktikum Scientific Computing
Masterpraktikum Scientific Computing High-Performance Computing Thomas Auckenthaler Wolfgang Eckhardt Prof. Dr. Michael Bader Technische Universität München, Germany Outline Organisatorisches Entwicklung
MehrPraxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern
Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern Institut für Betriebssysteme und Rechnerverbund TU Braunschweig 25.10., 26.10.
MehrCompute Unified Device Architecture CUDA
Compute Unified Device Architecture 06. Februar 2012 1 / 13 Gliederung 2 / 13 : Compute Unified Device Architecture entwickelt von Nvidia Corporation spezifiziert Software- und Hardwareeigenschaften Ziel:
MehrGrundlagen von CUDA, Sprachtypische Elemente
Grundlagen von CUDA, Sprachtypische Elemente Stefan Maskanitz 03.07.2009 CUDA Grundlagen 1 Übersicht 1. Einleitung 2. Spracheigenschaften a. s, Blocks und Grids b. Speicherorganistion c. Fehlerbehandlung
MehrViele Rechenaufgaben können auf verschiedene CPUs und/oder Maschinen aufgeteilt und verteilt werden, um die Leistung zu steigern
3.2 Heterogene Multi-Core-Architekturen: Cell BE Viele Rechenaufgaben können auf verschiedene CPUs und/oder Maschinen aufgeteilt und verteilt werden, um die Leistung zu steigern Herkömmliche CPUs und Techniken
MehrGeneral Purpose Computation on GPUs
General Purpose Computation on GPUs Matthias Schneider, Robert Grimm Universität Erlangen-Nürnberg {matthias.schneider, robert.grimm}@informatik.stud.uni-erlangen.de M. Schneider, R. Grimm 1 Übersicht
MehrCUDA. Axel Jena, Jürgen Pröll. Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg Axel Jena, Jürgen Pröll 1
CUDA Axel Jena, Jürgen Pröll Multi-Core Architectures and Programming Axel Jena, Jürgen Pröll 1 Warum Tesla? Traditionelle Graphikkarten Getrennte Prozessoren für Vertex- / Pixelberechnungen - Nachteil:
MehrGrafikkarten-Architektur
> Grafikkarten-Architektur Parallele Strukturen in der GPU Name: Sebastian Albers E-Mail: s.albers@wwu.de 2 > Inhalt > CPU und GPU im Vergleich > Rendering-Pipeline > Shader > GPGPU > Nvidia Tesla-Architektur
MehrSoftware Engineering für moderne parallele Plattformen 9. GPGPUs: Grafikkarten als Parallelrechner
Software Engineering für moderne parallele Plattformen 9. GPGPUs: Grafikkarten als Parallelrechner Dipl.-Inform. Korbinian Molitorisz M. Sc. Luis Manuel Carril Rodriguez KIT Universität des Landes Baden-Württemberg
MehrRST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck
RST-Labor WS06/07 GPGPU General Purpose Computation On Graphics Processing Units (Grafikkarten-Programmierung) Von: Marc Blunck Ablauf Einführung GPGPU Die GPU GPU Architektur Die Programmierung Programme
MehrMESIF- (links) vs. MESI-Protokoll (rechts)
2.3 Beispiele für Multikern-Architekturen 2.3.1 Intel-Nehalem-Architektur MESIF- (links) vs. MESI-Protokoll (rechts) Annahme: Prozessor links unten und rechts oben haben Kopie MESIF : Nur Prozessor, dessen
MehrProgrammierung von Graphikkarten
Programmierung von Graphikkarten Stefan Lang Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Universität Heidelberg INF 368, Raum 532 D-69120 Heidelberg phone: 06221/54-8264 email: Stefan.Lang@iwr.uni-heidelberg.de
MehrFerienakademie Erik Muttersbach
Ferienakademie 2009 - Erik Muttersbach 1. Einführung 2. Kernels, Threads, Blocks 3. CUDA Execution Model 4. Software Stack 5. Die CUDA Runtime API 6. Speichertypen/ Zugriff 7. Profiling und Optimierung
MehrSoftware Engineering für moderne, parallele Plattformen. 9. GPGPUs: Grafikkarten als Parallelrechner. Dr. Victor Pankratius
Software Engineering für moderne, parallele Plattformen 9. GPGPUs: Grafikkarten als Parallelrechner Dr. Victor Pankratius Dr. Victor Pankratius, Dipl.Inform. Frank Otto IPD Tichy Lehrstuhl für Programmiersysteme
MehrMulticore-Architekturen
Universität Erlangen- Nürnberg Technische Universität München Universität Stuttgart Multicore-Architekturen Vortrag im Rahmen der Ferienakademie 2009 Kurs 1: Programmierkonzepte für Multi-Core Rechner
MehrOpenCL. Programmiersprachen im Multicore-Zeitalter. Tim Wiersdörfer
OpenCL Programmiersprachen im Multicore-Zeitalter Tim Wiersdörfer Inhaltsverzeichnis 1. Was ist OpenCL 2. Entwicklung von OpenCL 3. OpenCL Modelle 1. Plattform-Modell 2. Ausführungs-Modell 3. Speicher-Modell
MehrParallele Programmierung mit GPUs
Parallele Programmierung mit GPUs Jutta Fitzek Vortrag im Rahmen des Moduls Parallele Programmierung, WS12/13, h_da Agenda GPUs: Historie GPU Programmierung Konzepte Codebeispiel Generelle Tipps & Tricks
MehrProgrammierbeispiele und Implementierung. Name: Michel Steuwer E-Mail: michel.steuwer@wwu.de
> Programmierbeispiele und Implementierung Name: Michel Steuwer E-Mail: michel.steuwer@wwu.de 2 > Übersicht > Matrix Vektor Multiplikation > Mandelbrotmenge / Apfelmännchen berechnen > Kantendetektion
MehrSeminar Multicore-Programmierung
Multicore- und GPGPU-Architekturen Fakultät für Informatik und Mathematik Universität Passau 04. November 2010 APUs / 1 / 39 Inhaltsverzeichnis I APUs / APUs / 2 / 39 Inhaltsverzeichnis II APUs / 3 / 39
MehrYilmaz, Tolga MatNr: Mesaud, Elias MatNr:
Yilmaz, Tolga MatNr: 157317 Mesaud, Elias MatNr: 151386 1. Aufbau und Funktionsweise einer Grafikkarte 2. CPU vs. GPU 3. Software 4. Beispielprogramme Kompilierung und Vorführung 5. Wo wird Cuda heutzutage
MehrOpenCL. OpenCL. Boris Totev, Cornelius Knap
OpenCL OpenCL 1 OpenCL Gliederung Entstehungsgeschichte von OpenCL Was, warum und überhaupt wieso OpenCL CUDA, OpenGL und OpenCL GPUs OpenCL Objekte Work-Units OpenCL Adressbereiche OpenCL API Codebeispiel
MehrGPGPU-Programming. Constantin Timm Informatik 12 TU Dortmund 2012/04/09. technische universität dortmund. fakultät für informatik informatik 12
12 GPGPU-Programming Constantin Timm Informatik 12 TU Dortmund 2012/04/09 Diese Folien enthalten Graphiken mit Nutzungseinschränkungen. Das Kopieren der Graphiken ist im Allgemeinen nicht erlaubt. Motivation
MehrIntels Tick-Tock-Prinzip
2.3 Beispiele für Multikern-Architekturen 2.3.1 Von Intel-Nehalem- bis Haswell-Architektur Intels Tick-Tock-Prinzip Gleiche Mikroarchitektur und Prozess-Technologiesprung (Tick) Neue Mikroarchitektur (Tock)
MehrPhysikalische Berechnungen mit General Purpose Graphics Processing Units (GPGPUs)
Fakultätsname XYZ Fachrichtung XYZ Institutsname XYZ, Professur XYZ Physikalische Berechnungen mit General Purpose Graphics Processing Units (GPGPUs) im Rahmen des Proseminars Technische Informatik Juni
MehrGliederung. Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo
Gliederung Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo Was ist CUDA? Nvidia CUDA ist eine von NvidiaGPGPU-Technologie, die es Programmierern erlaubt, Programmteile
MehrAnsätze 4. GPU. Echtzeit- Raytracing. Polygon- Rendering. Computerspiele Sommer (c) 2013, Peter Sturm, Universität Trier 1
4. GPU Ansätze Echtzeit- Raytracing Modell und Materialeigenschaften auf Raytracer Kontinuierliche Darstellung Polygon- Rendering CPU wählt darzustellende Polygone aus Render Pipeline (c) 2013, Peter Sturm,
Mehr1 Einleitung. 2 Parallelisierbarkeit von. Architektur
Beschleunigung von Aufgaben der parallelen Bildverarbeitung durch Benutzung von NVIDIA-Grafikkarten mit der Compute Unified Device Architecture (CUDA) Roman Glebov roman@glebov.de Abstract Diese Arbeit
MehrMotivation (GP)GPU CUDA Zusammenfassung. CUDA und Python. Christian Wilms. Integriertes Seminar Projekt Bildverarbeitung
CUDA und Python Christian Wilms Integriertes Seminar Projekt Bildverarbeitung Universität Hamburg WiSe 2013/14 12. Dezember 2013 Christian CUDA und Python 1 Gliederung 1 Motivation 2 (GP)GPU 3 CUDA 4 Zusammenfassung
MehrGerät Preis* CPU, VGA, HD, RAM Ausstattung
1 PC Ultra 559.- CPU: Intel Core Duo ab 3,0 GHz RAM: 8 GB HD: 128 GB SSD + 1 TB HDD VGA: GeForce GTX 750 2GB GDDR5 robuster Verarbeitung. Neben starken verfügt der PC Ultra über eine hochwertige Grafikkarte
MehrPGI Accelerator Model
PGI Accelerator Model Philip Höhlein, Nils Werner Supervision: R. Membarth, P. Kutzer, F. Hannig Hardware-Software-Co-Design Universität Erlangen-Nürnberg Philip Höhlein, Nils Werner 1 Übersicht Motivation
MehrGPGPUs am Jülich Supercomputing Centre
GPGPUs am Jülich Supercomputing Centre 20. April 2012 Jochen Kreutz Jülich Supercomputing Centre (JSC) Teil des Forschungszentrums Jülich und des Institute for Advanced Simulation (IAS) betreibt Supercomputer
MehrMULTICORE- UND GPGPU- ARCHITEKTUREN
MULTICORE- UND GPGPU- ARCHITEKTUREN Korbinian Pauli - 17. November 2011 Seminar Multicore Programmierung, WS11, Universität Passau 2 Einleitung Klassisches Problem der Informatik: riesige Datenmenge! Volkszählung
MehrMulticore Herausforderungen an das Software-Engineering. Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010
Multicore Herausforderungen an das Software-Engineering Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010 Inhalt _ Motivation _ Herausforderung 1: Hardware _ Herausforderung 2: Software-Partitionierung
MehrGPGPU mit NVIDIA CUDA
01.07.12 GPGPU mit NVIDIA CUDA General-Purpose on Formatvorlagecomputing des Graphics Processing durch Units Untertitelmasters mit KlickenCompute bearbeiten NVIDIA Unified Device Architecture Gliederung
MehrLEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610
LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610 Dominik Weinrich dominik.weinrich@tu-dresden.de Dresden, 30.11.2017 Gliederung Motivation Aufbau und Hardware
MehrCompute Unified Device Architecture (CUDA)
Compute Unified Device Architecture (CUDA) Thomas Koller 12. Februar 2012 Zusammenfassung Diese Ausarbeitung beschäftigt sich mit der Programmierung von Grafikkarten mittels CUDA. Bei bestimmten Berechnungen
MehrGrundlagen der Spieleprogrammierung
Grundlagen der Spieleprogrammierung Teil I: 3D-Graphik Kapitel 8: Hardware Peter Sturm Universität Trier Outline 1. Übersicht und Motivation 2. Mathematische Grundlagen 3. Das Ideal: Photorealistisch (Raytracing,
MehrApple imac 5,1-20 Zoll (Late 2006)
Apple imac 5,1-20 Zoll (Late 2006) - Prozessor: Core 2 Duo 2x2166 MHz - Arbeitsspeicher : 2048 MB - Festplatte : 250 GB - Laufwerk: DVDRW - Grafik onboard: ATI Radeon Xpress 1600 128 MB - Grafik Zusatz:
MehrIntels Tick-Tock-Prinzip
2.3 Beispiele für Multikern-Architekturen 2.3.1 Intel-Nehalem-Architektur Intels Tick-Tock-Prinzip Gleiche Mikroarchitektur Prozess-Technologiesprung Neue Mikroarchitektur mit gleicher Prozess-Technologie
MehrSpezialprozessoren zur Übernahme Grafik-spezifischer Aufgaben, vorrangig der Bildschirmausgabe
Grafikprozessoren Spezialprozessoren zur Übernahme Grafik-spezifischer Aufgaben, vorrangig der Bildschirmausgabe 2D: Berechnung der Bildes aus einfachen Grafikprimitiven 3D: Bildaufbau aus räumlicher Beschreibung
MehrGPGPU Programming nvidia CUDA vs. AMD/ATI Stream Computing. Seminar HWS 08/09 by Erich Marth
Computing 1 Inhalt Einführung nvidia CUDA AMD Stream Computing CUDA vs. Stream Computing - Warum, Vorteile, Motivation - Überblick, API - Details, Beispiele - Überblick, API - Details, Beispiele - wesentliche
MehrArchitektur moderner GPUs. W. Sczygiol - M. Lötsch
Architektur moderner GPUs W. Sczygiol - M. Lötsch Überblick Chipentwicklung Aktuelle Designs Nvidia: NV40 (ATI: R420) Vertex-Shader Pixel-Shader Shader-Programmierung ROP - Antialiasing Ausblick Referenzen
MehrSS08, LS12, Friedrich-Alexander-Universität Erlangen Florian Hänel, Frederic Pollmann HS Multicore Architectures and Programming GPU EVOLUTION
SS08, LS12, Friedrich-Alexander-Universität Erlangen Florian Hänel, Frederic Pollmann HS Multicore Architectures and Programming GPU EVOLUTION (until Geforce 7 Series) 1 ÜBERSICHT Grafikpipeline Verlagerung
MehrCUDA. 7. Vorlesung GPU Programmierung. Danke an Hendrik Lensch
CUDA 7. Vorlesung Thorsten Grosch Danke an Hendrik Lensch Parallele l Programmierung mit der GPU Bisher: GPU = OpenGL Pipeline mit Shadern Alles orientiert sich am Rendering Programme für Eckpunkte und
MehrWorld of Warcraft. Mindestvoraussetzungen
World of Warcraft Betriebssystem Windows XP / Windows Vista / Windows 7 Windows 7 / Windows 8 64-bit mit Windows 8 mit aktuellstem Servicepack aktuellstem Servicepack Prozessor Intel Core 2 Duo E6600 oder
MehrPredator G3. Premium Design. Advanced Technology. Immersive entertainment
- 1 - Desktop PCs Predator G3 Der neue Acer Predator G3 - Designed für Gaming und HD- Entertainment. Angetrieben von der neuesten CPU-Generation und von High-End Grafikkarten lässt er keine Wünsche offen
MehrCUDA. Jürgen Pröll. Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg Jürgen Pröll 1
CUDA Jürgen Pröll Multi-Core Architectures and Programming Jürgen Pröll 1 Image-Resize: sequentiell resize() mit bilinearer Interpolation leicht zu parallelisieren, da einzelne Punkte voneinander unabhängig
MehrElektrohandel. Dirk ter Meer. Gutes muss nicht Teuer sein!!
Kingston HyperX 4GB 1600MHZ DDR3 O-ECC Kingston 4GB 1600MHz DDR3 Kit, HyperX. Memory: DDR3, 240-pin DIMM, PC/server, 1 x 4096, DIMM Hersteller : Kingston HyperX Herstellerartikelnr. : KHX1600C9D3/4G EA
MehrÜbersicht 1. Anzeigegeräte 2. Framebuffer 3. Grundlagen 3D Computergrafik 4. Polygongrafik, Z-Buffer 5. Texture-Mapping/Shading 6. GPU 7. Programmierbare Shader 1 LCD/TFT Technik Rotation der Licht-Polarisationsebene
MehrGPU-Programmierung: OpenCL
Seminar: Multicore Programmierung Sommerstemester 2009 04.06.2009 Inhaltsverzeichnis 1 GPU-Programmierung von Grafikkarten von GPU-Computing 2 Architektur Spracheigenschaften Vergleich mit CUDA Beispiel
MehrMachine Learning Hardware
Machine Learning Hardware Dominik Scherer 06.11.2017 Seminar Neuste Trends in Big Data Analytics Betreuer: Dr. Julian Kunkel Motivation Maschinelles Lernen in vielen Bereichen angewendet, z.b. Spracherkennung
MehrNeue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP)
Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP) @wefinet Werner Fischer, Thomas-Krenn.AG Webinar, 17. Oktober 2017 Intel Xeon Scalable Performance _ Das ist NEU: Neue
MehrGPUs. Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg
GPUs Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg Vorgelegt von: Johannes Coym E-Mail-Adresse: 4coym@informatik.uni-hamburg.de
MehrOpenCL. Seminar Programmiersprachen im Multicore-Zeitalter Universität Siegen Tim Wiersdörfer tim.wiersdoerfer@student.uni-siegen.
OpenCL Seminar Programmiersprachen im Multicore-Zeitalter Universität Siegen Tim Wiersdörfer tim.wiersdoerfer@student.uni-siegen.de Abstract: In diesem Dokument wird ein grundlegender Einblick in das relativ
MehrGPU Programmierung. Thorsten Grosch
Thorsten Grosch Willkommen zur ersten Vorlesung! g Heute Organisatorisches Vorstellung von Team und Vorlesung Historischer Rückblick zu GPUs 2 Das Team Vorlesung Jun.-Prof. Thorsten Grosch AG Computervisualistik
Mehr2 Rechnerarchitekturen
2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf
MehrRechnerarchitektur (RA)
12 Rechnerarchitektur (RA) Sommersemester 2015 Foliensatz 6: Grafikprozessoren und GPGPU-Programmierung Michael Engel Informatik 12 michael.engel@tu-.. http://ls12-www.cs.tu-.de/daes/ Tel.: 0231 755 6121
MehrThema: Hardware-Shader
Seminar Grafikprogrammierung Thema: Hardware-Shader Christian Bauer 03.07.08 Überblick Entwicklung Die Shader im Detail Programmierung GPGPU Zusammenfassung & Ausblick 1/19 Entwicklung (1) Früher: Berechnung
MehrÜbersicht. Vergleich der Spielekonsole mit dem PC. Historie der Spielekonsolen von 1976 bis 1999
Übersicht Vergleich der Spielekonsole mit dem PC Historie der Spielekonsolen von 1976 bis 1999 Heutige Generation der Konsolen Überblick Vergleich der PS2 mit der XBox Ausblick auf die kommende Konsolengeneration
MehrSeminar: Grafikprogrammierung
Game Developer Converence 08 Seminar: Grafikprogrammierung Alexander Weggerle 17.04.08 Seite 2 Einführung Themenüberblick Organisatorisches Seminarablauf liches Seite 3 Einführung Seminar Motivation Vorbereitung
MehrParallelisierung der Matrixmultiplikation
Ein Beispiel für parallele Algorithmen Ivo Hedtke hedtke@math.uni-jena.de www.minet.uni-jena.de/~hedtke/ ehem. Hiwi am Lehrstuhl für Wissenschaftliches Rechnen (Prof. Dr. Zumbusch) Institut für Angewandte
MehrGPU-Computing. Michael Vetter
GPU-Computing Universität Hamburg Scientific Visualization and Parallel Processing @ Informatik Climate Visualization Laboratory @ Clisap/CEN Übersicht Hintergrund und Entwicklung von GPGPU Programmierumgebungen
MehrSeminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit OpenMP 4.5 und OpenACC 2.5 im Vergleich
Seminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit Direktivenbasierte Programmierung von Beschleunigern mit Agenda Einführung / Motivation Überblick zu OpenMP und OpenACC Asynchronität
Mehr2 Homogene und Heterogene Multi-/Vielkernprozessoren
2 Homogene und Heterogene Multi-/Vielkernprozessoren 2.1 Motivation Multikern-Architekturen 2.2 Analyse von Multikern-Prozessoren Energieaspekte Bandbreitenmessung Roofline-Modell 2.3 Optimierung Anzahl
MehrPRIP-Preis. Effizientes Object Tracking durch Programmierung von Mehrkernprozessoren und Grafikkarten
Masterarbeit @ PRIP-Preis Effizientes Object Tracking durch Programmierung von Mehrkernprozessoren und Grafikkarten Michael Rauter Pattern Recognition and Image Processing Group Institute of Computer Aided
MehrClient: min. Intel Pentium IV oder höher bzw. vergleichbares Produkt
ISIS MED Systemanforderungen (ab Version 7.0) Client: Bildschirm: Betriebssystem: min. Intel Pentium IV oder höher bzw. vergleichbares Produkt min. 2048 MB RAM frei Webserver min 20. GB ISIS wurde entwickelt
MehrAcer Desktops, AllInOne, Bundles und Server vom: 11. August. Tel: Fax:
Acer Desktops, AllInOne, Bundles und Server vom:. August Tel: 0402 2000330 Fax: 0402 2000339 8:00 Uhr Acer Aspire G-70 DG.E03EQ.004 Intel Core I7 i7-6700, Memory (in MB): 6384, nvidia GeForce 900 Series
MehrFachgebiet Programmiermethodik Prof. Dr. Claudia Leopold. Seminar Programmierung von Grafikkarten. GPGPU Basiskonzepte. von.
Fachgebiet Programmiermethodik Prof. Dr. Claudia Leopold Seminar Programmierung von Grafikkarten GPGPU Basiskonzepte von Marc Kirchhoff Inhaltsverzeichnis 1 Einleitung 2 2 Streams, Kernels und Prozessoren
MehrVertiefungsrichtung Rechnerarchitektur
srichtung () ( für ) Prof. Dietmar Fey Ziele der srichtung RA Vertiefen des Verständnis vom Aufbau, Funktionsweise von Rechnern und Prozessoren Modellierung und Entwurf von Rechnern und Prozessoren ()
MehrProdukte und Preise TERRA PC
Gehäuse - Formfaktor Micro-Format Micro-Format Micro-Format Midi Tower Midi Tower Midi Tower Art# 1009446 1009466 1009468 1009415 1009471 1009424 Bezeichnung TERRA PC-MICRO 3000 SILENT GREENLINE MUI TERRA
MehrComputeranwendung in der Chemie Informatik für Chemiker(innen) 3. Software
Computeranwendung in der Chemie Informatik für Chemiker(innen) 3. Software Jens Döbler 2003 "Computer in der Chemie", WS 2003-04, Humboldt-Universität VL3 Folie 1 Grundlagen Software steuert Computersysteme
MehrMITK-OpenCL: Eine Erweiterung für das Medical Imaging Interaction Toolkit
MITK-OpenCL: Eine Erweiterung für das Medical Imaging Interaction Toolkit Jan Hering 1,2, Ingmar Gergel 1, Susanne Krömker 2, Hans-Peter Meinzer 1, Ingmar Wegner 1 1 Abt. Medizinische und Biologische Informatik,
Mehr2. Der ParaNut-Prozessor "Parallel and more than just another CPU core"
2. Der ParaNut-Prozessor "Parallel and more than just another CPU core" Neuer, konfigurierbarer Prozessor Parallelität auf Daten- (SIMD) und Thread-Ebene Hohe Skalierbarkeit mit einer Architektur neues
MehrAngebot. Tel.: Fax: Website: Shop:
Angebot Geschäftsführer: Markus Lackner & Oliver Heck Shop: http://campus.metacomp.de Inhaltsverzeichnis NVIDIA NVS 510 - Grafikkarten 3 Bestellformular 6 2 NVIDIA NVS 510 - Grafikkarten 479,79 EUR Inkl.
MehrProzessor- und Rechnerarchitekturen (Master)
Prozessor- und Rechnerarchitekturen (Master) Themen am 31.05.17: Was ist ein Grafik-Chip? Was soll berechnet werden? Warum kann das keine Standard-CPU machen?? ProRecArc17_V8 Ulrich Schaarschmidt HS Düsseldorf,
MehrUntersuchung und Vorstellung moderner Grafikchiparchitekturen
Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Untersuchung und Vorstellung moderner Grafikchiparchitekturen Hauptseminar Technische
MehrGrafiktreiber im Linuxkernel - die Außenseiter -
Grafiktreiber im Linuxkernel - die Außenseiter - Creative Commons by-nc-nd Grundlagen Was ist eine Grafikkarte? Grundlagen Was ist eine Grafikkarte? Ausgabelogik Grundlagen Was ist eine Grafikkarte? Ausgabelogik
MehrCurrent and Emerging Architectures Multi-core Architectures and Programming
Current and Emerging Architectures Multi-core Architectures and Programming Adel El-Rayyes Hardware-Software-Co-Design, Friedrich-Alexander-Universität Erlangen-Nürnberg 9. Mai 2012 Inhalt Überblick über
MehrOPENCL. Praktikum Parallele Rechnerarchitekturen, 2015w Franz Richter-Gottfried
OPENCL Praktikum Parallele Rechnerarchitekturen, 2015w Franz Richter-Gottfried INFRASTRUCTURE Overview, Manuals https://faui36a.informatik.uni-erlangen.de/trac/puppet/wiki/systemlist https://faui36a.informatik.uni-erlangen.de/trac/puppet/wiki/slurmintroduction
MehrAutomatische OpenCL-Code-Analyse zur Bestimmung von Speicherzugriffsmustern
Automatische OpenCL-Code-Analyse zur Bestimmung von Speicherzugriffsmustern Bachelorarbeit Moritz Lüdecke 8. Juli 2014 INSTITUT FÜR TECHNISCHE INFORMATIK - LEHRSTUHL FÜR RECHNERARCHITEKTUR UND PARALLELVERARBEITUNG
MehrLösung der zweidimensionalen Wirbeltransportgleichung auf NVIDIA Grafikkarten - Bachelorarbeit -
Lösung der zweidimensionalen Wirbeltransportgleichung auf NVIDIA Grafikkarten - Bachelorarbeit - Seminar des Fachgebiets Optimierung bei partiellen Differentialgleichungen 13. Januar 2011 Gliederung 1
MehrZum Aufwärmen nocheinmal grundlegende Tatsachen zum Rechnen mit reelen Zahlen auf dem Computer. Das Rechnen mit Gleitkommazahlen wird durch den IEEE
Zum Aufwärmen nocheinmal grundlegende Tatsachen zum Rechnen mit reelen Zahlen auf dem Computer. Das Rechnen mit Gleitkommazahlen wird durch den IEEE 754 Standard festgelegt. Es stehen sogenannte einfach
MehrMehrprozessorarchitekturen
Mehrprozessorarchitekturen (SMP, UMA/NUMA, Cluster) Arian Bär 12.07.2004 12.07.2004 Arian Bär 1 Gliederung 1. Einleitung 2. Symmetrische Multiprozessoren (SMP) Allgemeines Architektur 3. Speicherarchitekturen
MehrCAD Arbeitsplatz Einstieg
Einstieg CELSIUS W530 CAD Einstieg Wenn Sie eine leistungsfähige Entry-Level-Workstation benötigen, dann ist die Fujitsu CELSIUS W530 die ideale Wahl. Die Workstation bietet Ihnen die Grafikfunktionen
MehrSG-TRONiC IT - Made in Germany
Kategorie TERRA PC-BUSINESS Art# 1009051 1009055 1009060 1009059 1009046 1009052 Bezeichnung TERRA PC 2500 TERRA PC 2500 TERRA PC-BUSINESS 4000 TERRA PC 3000 Bestseller Business-PC! TERRA PC-BUSINESS 3000
MehrGeneral-purpose computing on GPUs
Seminar Multiprocesser on Chip Seminararbeit General-purpose computing on GPUs Institut für Informatik Universität Potsdam eingereicht von: Michael Winkelmann (738901) Sommersemester 2010 Zusammenfassung
Mehr> High-Level Programmierung heterogener paralleler Systeme
> High-Level Programmierung heterogener paralleler Systeme Projektseminar im SoSe 2012 Prof. Sergei Gorlatch, Michel Steuwer, Tim Humernbrum AG Parallele und Verteilte Systeme, Westfälische Wilhelms-Universität
MehrEinführung in die Programmiersprache C
Einführung in die Programmiersprache C 6 Cache-freundliche Programmierung (1) Alexander Sczyrba Robert Homann Georg Sauthoff Universität Bielefeld, Technische Fakultät Quadratische Matrizen Musterlösung
MehrEin kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1
Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer
MehrComputational Engineering I
DEPARTMENT INFORMATIK Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg Martensstraße 3, 91058 Erlangen 25.01.2016 Probeklausur zu Computational Engineering
MehrArtikelnummer Bezeichnung Hersteller-Artikelnummer netto EK Sonder-EK UVP. 40-13-0063 Asus EeePC X101CH 90OA3PB22111A81E339Q 195,00 299,00
Artikelnummer Bezeichnung Hersteller-Artikelnummer netto EK Sonder-EK UVP 40-13-0063 Asus EeePC X101CH 90OA3PB22111A81E339Q 195,00 299,00-25,7 cm (10") LED Display (matt) - Intel Atom N2600 Dual-Core (1,6
MehrBeispielvortrag: HPCG auf Intel Haswell-EP
Beispielvortrag: HPCG auf Intel Haswell-EP Johannes Hofmann 1 Seminarvortrag Architekturen von Multi- und Vielkern-Prozessoren Erlangen, 19.4.2016 1 Computer Architecture, University Erlangen-Nuremberg
MehrEine Einführung in die Architektur moderner Graphikprozessoren
Eine Einführung in die Architektur moderner Graphikprozessoren Seminarvortrag von Sven Schenk WS 2005/2006 Universität Mannheim, Lehrstuhl für Rechnerarchitektur Inhalt Historische Eckpunkte Einführung
MehrBACHELORARBEIT. Herr Mario Gienapp. GPGPU Computing - Parallele Programmierung mit CUDA und OpenCL
BACHELORARBEIT Herr Mario Gienapp GPGPU Computing - Parallele Programmierung mit CUDA und OpenCL 2012 Fakultät Elektro- und Informationstechnik BACHELORARBEIT GPGPU Computing - Parallele Programmierung
Mehr