General Purpose Computation on GPUs
|
|
|
- Mathilde Kneller
- vor 8 Jahren
- Abrufe
Transkript
1 General Purpose Computation on GPUs Matthias Schneider, Robert Grimm Universität Erlangen-Nürnberg {matthias.schneider, M. Schneider, R. Grimm 1
2 Übersicht Einleitung Geschichte Einsatzgebiete und aktuelle Projekte Diskussion Ausblick M. Schneider, R. Grimm 2
3 1. Einleitung Ursprünglicher Zweck von GPUs: Beschleunigung von Grafikanwendungen Kurze Evolutionszyklen Geringer Preis Hohe Performance durch Spezialisierung auf datenparallele Operationen (SIMD) M. Schneider, R. Grimm 3
4 1. Einleitung Hohe Performance durch Spezialisierung auf datenparallele Operationen (SIMD) M. Schneider, R. Grimm 4
5 1.1 GPGPU General-Purpose Computation Using Graphics Hardware so alt wie Grafikhardware Programmierung von Vektorprozessoren Erste Anwendungen in den 80er Jahren Ausnutzen der Spezialisierung nur sinnvoll möglich für Anwendungen mit guter Parallelisierbarkeit und hoher arithmetischer Intensität M. Schneider, R. Grimm 5
6 2. Geschichte Zunehmende Flexibilität der Pipeline erlaubt erst seit kurzem hohe Programmierbarkeit (Pixel, Vertex, Geometry Shader) M. Schneider, R. Grimm 6
7 2.1 GPU Programming Früher: Programmierbare Shader (OpenGL hacking) Vorgehensweise 1. Kernel bestimmen, Input/Output: Texturen 2. Kernel aufrufen durch Zeichnen eines Rechtecks Array-Element = Pixel 3. Rasterizer erzeugt Fragment für jeden Pixel des Rechtecks 4. Für jedes Fragment wird der Kernel ausgeführt 5. Output in Textur (statt Bildschirm) Programmieren = Bilder synthetisieren Ungewohnte Denkweise zu umständlich um sich durchzusetzen M. Schneider, R. Grimm 7
8 2.2 GPGPU Programming Vermeidung der Computergrafik-API (Metaprogrammiersprachen) Diverse Ansätze: Scout, Accelerator, CgiS, RapidMind, Brook AMD: CTM/CAL, Brook+ Assembler, Stream Programming mit C Nvidia: CUDA C für GPUs GPU-Hersteller und Industrie haben Potential erkannt: Spezielle GPGPU Hardware (Nvidia Tesla) M. Schneider, R. Grimm 8
9 2.2 GPGPU Programming: Brook+ Codeausschnitt Brook+ (Quelle: kernel void sum(float a<>, float b<>, out float c<>) { c = a + b; } int main(int argc, char** argv) { } int i, j; } float a<10, 10>, b<10, 10>, c<10, 10>; float input_a[10][10], input_b[10][10], input_c[10][10]; // init input_[a,b] // [...] streamread(a, input_a); streamread(b, input_b); sum(a, b, c); streamwrite(c, input_c); // sumcpu for(int i = 0; i < 10; i++) { for(int j = 0; j < 10; j++) { c[i][j] = a[i][j] + b[i][j]; M. Schneider, R. Grimm 9
10 3. GPGPU Einsatzgebiete M. Schneider, R. Grimm 10
11 3.1 Aktuelle Projekte Gut dokumentierte Beispiele: GPU Gems 2/3 Datenbanken: Suchen / Sortieren (Medizinische) Bildverarbeitung: MR Bildrekonstruktion (Studienarbeiten) lineare Algebra (Vektor-Vektor, Matrix-Matrix Multiplikationen) 10x Speedup (vs. optimierte CPU Libraries) Weniger würde sich auch kaum lohnen: 2x QuadCore M. Schneider, R. Grimm 11
12 3.1 Aktuelle Projekte: MR Bildrekonstruktion Z= X Y, X C r s,y C s t Matrix-Matrix-Multiplikation MKL: Intel Math Kernel Library (hoch optimierte Mathebibliothek) Intel Core dual-core CPU 2.66 GHz, 2x2MB L2 cache, 2 GB RAM (333 MHz) NVIDIA GeForce 8800 GTX GPU, CUDA 1.1, OpenSuse 10.3 (Linux) M. Schneider, R. Grimm 12
13 3.1 Aktuelle Projekte: MR Bildrekonstruktion ca * K Skalarprodukte der Länge 4 * K Effizienz der CUBLAS-Library stark abhängig von Problemgröße und Speicher-Alignment! (Matrix-Dim. < 512) Intel Xeon 5150 CPU 2.66 GHz, 2x2MB L2 cache, 4 GB RAM NVIDIA GeForce 8800 GTX GPU, CUDA 1.1, WinXP 64-Bit, single CPU core M. Schneider, R. Grimm 13
14 3.1 GPGPU Performance M. Schneider, R. Grimm 14
15 4. Diskussion Eine der Stärken von GPUs ist auch eine ernstzunehmende Schwäche: schnelle Innovationszyklen. alle 18 Monate komplett neue Generation von Hard- und Software höherer Wartungsaufwand als CPUs Portierung auf GPU oft nicht trivial (inhärent sequentielle Algorithmen) Performance von GPUs richtig einschätzen: 350 GFLOPs für MAD Theoretische peak performance aktueller CPUs auch schon bei 100 GFLOPs CUDA: Abstraktion von OpenGL aber dafür komplett neue Architektur mit verschiedenen Arten von Speicher. Double precision in vielen wissenschaftlichen Anwendungen gefordert, aber noch nicht verfügbar M. Schneider, R. Grimm 15
16 5. Ausblick AMD Fusion, Intel Larrabee: GPU näher an CPU Hoch paralleler Coprozessor (Hoffentlich) bessere Anbindung an Speicherbus M. Schneider, R. Grimm 16
17 General Purpose Computation on GPUs Fragen?! Vielen Dank für die Aufmerksamkeit! M. Schneider, R. Grimm 17
18 Literatur J. D. Owens et al.: A Survey of general-purpose computation on Graphics Hardware. Computer Graphics Forum, 26(1):80-113, March D. Lübcke: GPU Applications & Implications. ASPLOS 2008 Tutorial, NVIDIA Research, March M. Schneider, R. Grimm 18
RST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck
RST-Labor WS06/07 GPGPU General Purpose Computation On Graphics Processing Units (Grafikkarten-Programmierung) Von: Marc Blunck Ablauf Einführung GPGPU Die GPU GPU Architektur Die Programmierung Programme
Einführung. GPU-Versuch. Andreas Schäfer Friedrich-Alexander-Universität Erlangen-Nürnberg
GPU-Versuch [email protected] Friedrich-Alexander-Universität Erlangen-Nürnberg Praktikum Parallele Rechnerarchitekturen SS2014 Outline 1 Einführung 2 Outlook 1 Einführung 2 Eine kurze Geschichte
Grafikkarten-Architektur
> Grafikkarten-Architektur Parallele Strukturen in der GPU Name: Sebastian Albers E-Mail: [email protected] 2 > Inhalt > CPU und GPU im Vergleich > Rendering-Pipeline > Shader > GPGPU > Nvidia Tesla-Architektur
Compute Unified Device Architecture CUDA
Compute Unified Device Architecture 06. Februar 2012 1 / 13 Gliederung 2 / 13 : Compute Unified Device Architecture entwickelt von Nvidia Corporation spezifiziert Software- und Hardwareeigenschaften Ziel:
GPGPU-Architekturen CUDA Programmiermodell Beispielprogramm. Einführung CUDA. Ralf Seidler. Friedrich-Alexander-Universität Erlangen-Nürnberg
Einführung CUDA Friedrich-Alexander-Universität Erlangen-Nürnberg PrakParRA, 18.11.2010 Outline 1 GPGPU-Architekturen 2 CUDA Programmiermodell 3 Beispielprogramm Outlook 1 GPGPU-Architekturen 2 CUDA Programmiermodell
Thema: Hardware-Shader
Seminar Grafikprogrammierung Thema: Hardware-Shader Christian Bauer 03.07.08 Überblick Entwicklung Die Shader im Detail Programmierung GPGPU Zusammenfassung & Ausblick 1/19 Entwicklung (1) Früher: Berechnung
SS08, LS12, Friedrich-Alexander-Universität Erlangen Florian Hänel, Frederic Pollmann HS Multicore Architectures and Programming GPU EVOLUTION
SS08, LS12, Friedrich-Alexander-Universität Erlangen Florian Hänel, Frederic Pollmann HS Multicore Architectures and Programming GPU EVOLUTION (until Geforce 7 Series) 1 ÜBERSICHT Grafikpipeline Verlagerung
GPGPU-Architekturen CUDA Programmiermodell Beispielprogramm Organiosatorisches. Tutorial CUDA. Ralf Seidler
Friedrich-Alexander-Universität Erlangen-Nürnberg 05.10.2010 Outline 1 GPGPU-Architekturen 2 CUDA Programmiermodell 3 Beispielprogramm 4 Organiosatorisches Outlook 1 GPGPU-Architekturen 2 CUDA Programmiermodell
Programmierbeispiele und Implementierung. Name: Michel Steuwer E-Mail: [email protected]
> Programmierbeispiele und Implementierung Name: Michel Steuwer E-Mail: [email protected] 2 > Übersicht > Matrix Vektor Multiplikation > Mandelbrotmenge / Apfelmännchen berechnen > Kantendetektion
Masterpraktikum Scientific Computing
Masterpraktikum Scientific Computing High-Performance Computing Thomas Auckenthaler Wolfgang Eckhardt Prof. Dr. Michael Bader Technische Universität München, Germany Outline Organisatorisches Entwicklung
Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern
Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern Institut für Betriebssysteme und Rechnerverbund TU Braunschweig 25.10., 26.10.
OpenCL. OpenCL. Boris Totev, Cornelius Knap
OpenCL OpenCL 1 OpenCL Gliederung Entstehungsgeschichte von OpenCL Was, warum und überhaupt wieso OpenCL CUDA, OpenGL und OpenCL GPUs OpenCL Objekte Work-Units OpenCL Adressbereiche OpenCL API Codebeispiel
Multicore-Architekturen
Universität Erlangen- Nürnberg Technische Universität München Universität Stuttgart Multicore-Architekturen Vortrag im Rahmen der Ferienakademie 2009 Kurs 1: Programmierkonzepte für Multi-Core Rechner
GPGPUs am Jülich Supercomputing Centre
GPGPUs am Jülich Supercomputing Centre 20. April 2012 Jochen Kreutz Jülich Supercomputing Centre (JSC) Teil des Forschungszentrums Jülich und des Institute for Advanced Simulation (IAS) betreibt Supercomputer
Multicore Herausforderungen an das Software-Engineering. Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010
Multicore Herausforderungen an das Software-Engineering Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010 Inhalt _ Motivation _ Herausforderung 1: Hardware _ Herausforderung 2: Software-Partitionierung
Yilmaz, Tolga MatNr: Mesaud, Elias MatNr:
Yilmaz, Tolga MatNr: 157317 Mesaud, Elias MatNr: 151386 1. Aufbau und Funktionsweise einer Grafikkarte 2. CPU vs. GPU 3. Software 4. Beispielprogramme Kompilierung und Vorführung 5. Wo wird Cuda heutzutage
GPGPU mit NVIDIA CUDA
01.07.12 GPGPU mit NVIDIA CUDA General-Purpose on Formatvorlagecomputing des Graphics Processing durch Units Untertitelmasters mit KlickenCompute bearbeiten NVIDIA Unified Device Architecture Gliederung
Software Engineering für moderne parallele Plattformen 9. GPGPUs: Grafikkarten als Parallelrechner
Software Engineering für moderne parallele Plattformen 9. GPGPUs: Grafikkarten als Parallelrechner Dipl.-Inform. Korbinian Molitorisz M. Sc. Luis Manuel Carril Rodriguez KIT Universität des Landes Baden-Württemberg
Seminar GPU-Programmierung/Parallelverarbeitung
Seite iv Literaturverzeichnis 1) Bengel, G.; et al.: Masterkurs Parallele und Verteilte Systeme. Vieweg + Teubner, Wiesbaden, 2008. 2) Breshears, C.: The Art of Concurrency - A Thread Monkey's Guide to
Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1
Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer
Seminar: Grafikprogrammierung
Game Developer Converence 08 Seminar: Grafikprogrammierung Alexander Weggerle 17.04.08 Seite 2 Einführung Themenüberblick Organisatorisches Seminarablauf liches Seite 3 Einführung Seminar Motivation Vorbereitung
Implementierung und Evaluierung von Video Feature Tracking auf moderner Grafik Hardware
Implementierung und Evaluierung von Video Feature Tracking auf moderner Diplomarbeit vorgelegt von Sebastian Heymann Betreut von Prof. Dr. Bernd Fröhlich Bauhaus Universität t Dr. Aljoscha Smolic Fraunhofer
Übersicht 1. Anzeigegeräte 2. Framebuffer 3. Grundlagen 3D Computergrafik 4. Polygongrafik, Z-Buffer 5. Texture-Mapping/Shading 6. GPU 7. Programmierbare Shader 1 LCD/TFT Technik Rotation der Licht-Polarisationsebene
MULTICORE- UND GPGPU- ARCHITEKTUREN
MULTICORE- UND GPGPU- ARCHITEKTUREN Korbinian Pauli - 17. November 2011 Seminar Multicore Programmierung, WS11, Universität Passau 2 Einleitung Klassisches Problem der Informatik: riesige Datenmenge! Volkszählung
Untersuchung und Vorstellung moderner Grafikchiparchitekturen
Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Untersuchung und Vorstellung moderner Grafikchiparchitekturen Hauptseminar Technische
Eine kurze Geschichte der Grafikkarten
3.1 Einführung Eine kurze Geschichte der Grafikkarten ursprünglich: Graphics Card steuert Monitor an Mitte 80er: Grafikkarten mit 2D-Beschleunigung angelehnt an Arcade- und Home-Computer frühe 90er: erste
Architektur moderner GPUs. W. Sczygiol - M. Lötsch
Architektur moderner GPUs W. Sczygiol - M. Lötsch Überblick Chipentwicklung Aktuelle Designs Nvidia: NV40 (ATI: R420) Vertex-Shader Pixel-Shader Shader-Programmierung ROP - Antialiasing Ausblick Referenzen
MITK-OpenCL: Eine Erweiterung für das Medical Imaging Interaction Toolkit
MITK-OpenCL: Eine Erweiterung für das Medical Imaging Interaction Toolkit Jan Hering 1,2, Ingmar Gergel 1, Susanne Krömker 2, Hans-Peter Meinzer 1, Ingmar Wegner 1 1 Abt. Medizinische und Biologische Informatik,
Extrablatt IT. MADE IN GERMANY.
TERRA MOBILE 1415 Topaktuelles 14" Einsteiger Notebook zum knallharten Preis! Intel Celeron Processor N2840 (1M Cache, up to 2.58 GHz) Prozessor Windows 8.1 64-Bit Intel HD graphics RAM - Größe 2 GB 1
Eine Einführung in die Architektur moderner Graphikprozessoren
Eine Einführung in die Architektur moderner Graphikprozessoren Seminarvortrag von Sven Schenk WS 2005/2006 Universität Mannheim, Lehrstuhl für Rechnerarchitektur Inhalt Historische Eckpunkte Einführung
Gliederung. Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo
Gliederung Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo Was ist CUDA? Nvidia CUDA ist eine von NvidiaGPGPU-Technologie, die es Programmierern erlaubt, Programmteile
Fachgebiet Programmiermethodik Prof. Dr. Claudia Leopold. Seminar Programmierung von Grafikkarten. GPGPU Basiskonzepte. von.
Fachgebiet Programmiermethodik Prof. Dr. Claudia Leopold Seminar Programmierung von Grafikkarten GPGPU Basiskonzepte von Marc Kirchhoff Inhaltsverzeichnis 1 Einleitung 2 2 Streams, Kernels und Prozessoren
Programmierung von Graphikkarten
Programmierung von Graphikkarten Stefan Lang Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Universität Heidelberg INF 368, Raum 532 D-69120 Heidelberg phone: 06221/54-8264 email: [email protected]
Transparente Nutzung von Multi-GPU Cluster unter Java/OpenMP
Transparente Nutzung von Multi-GPU Cluster unter Java/OpenMP Dipl. Inf. Thorsten Blaß Programming Systems Group Martensstraße 3 91058 Erlangen Ausblick Motivation Einführung Java/OpenMP (JaMP) JaMP Sprache
technische universität dortmund Lehrstuhl für Hochfrequenztechnik Übertragungssysteme
Lehrstuhl für Hochfrequenztechnik GPU-beschleunigte numerische Simulation faseroptischer Übertragungssysteme, Marius Helf, Peter Krummrich Übersicht Motivation Split-Step p Fourier Methode Ansätze für
Software Engineering für moderne, parallele Plattformen. 9. GPGPUs: Grafikkarten als Parallelrechner. Dr. Victor Pankratius
Software Engineering für moderne, parallele Plattformen 9. GPGPUs: Grafikkarten als Parallelrechner Dr. Victor Pankratius Dr. Victor Pankratius, Dipl.Inform. Frank Otto IPD Tichy Lehrstuhl für Programmiersysteme
1 Einleitung. 2 Parallelisierbarkeit von. Architektur
Beschleunigung von Aufgaben der parallelen Bildverarbeitung durch Benutzung von NVIDIA-Grafikkarten mit der Compute Unified Device Architecture (CUDA) Roman Glebov [email protected] Abstract Diese Arbeit
Viele Rechenaufgaben können auf verschiedene CPUs und/oder Maschinen aufgeteilt und verteilt werden, um die Leistung zu steigern
3.2 Heterogene Multi-Core-Architekturen: Cell BE Viele Rechenaufgaben können auf verschiedene CPUs und/oder Maschinen aufgeteilt und verteilt werden, um die Leistung zu steigern Herkömmliche CPUs und Techniken
CUDA. Jürgen Pröll. Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg Jürgen Pröll 1
CUDA Jürgen Pröll Multi-Core Architectures and Programming Jürgen Pröll 1 Image-Resize: sequentiell resize() mit bilinearer Interpolation leicht zu parallelisieren, da einzelne Punkte voneinander unabhängig
Diplomarbeit. Neue Möglichkeiten durch programmierbare Shader. Unter der Leitung von: Prof. Dr.-Ing. Detlef Krömker
Diplomarbeit 5HDO7LPH6SHFLDO (IIHFWV Neue Möglichkeiten durch programmierbare Shader Unter der Leitung von: Prof. Dr.-Ing. Detlef Krömker Betreut von: Paul Grimm, Ralf Dörner Beginn: 01.04.02 Abgabe: 30.09.02
Lehrstuhlseminar. NVidia Tegra-Architektur. Andreas Höer. TU Dresden, 23.05.2012. [email protected]
Fakultät Informatik, Institut für Technische Informatik, Professur VLSI-Entwurfssysteme, Diagnostik und Architektur NVidia Tegra-Architektur Lehrstuhlseminar TU Dresden, 23.05.2012 [email protected]
GPU-Computing. Michael Vetter
GPU-Computing Universität Hamburg Scientific Visualization and Parallel Processing @ Informatik Climate Visualization Laboratory @ Clisap/CEN Übersicht Hintergrund und Entwicklung von GPGPU Programmierumgebungen
OpenCL. Seminar Programmiersprachen im Multicore-Zeitalter Universität Siegen Tim Wiersdörfer [email protected].
OpenCL Seminar Programmiersprachen im Multicore-Zeitalter Universität Siegen Tim Wiersdörfer [email protected] Abstract: In diesem Dokument wird ein grundlegender Einblick in das relativ
GPU Programmierung. Thorsten Grosch
Thorsten Grosch Willkommen zur ersten Vorlesung! g Heute Organisatorisches Vorstellung von Team und Vorlesung Historischer Rückblick zu GPUs 2 Das Team Vorlesung Jun.-Prof. Thorsten Grosch AG Computervisualistik
Hochleistungsrechnen Grafikkartenprogrammierung. Prof. Dr. Thomas Ludwig Universität Hamburg Informatik Wissenschaftliches Rechnen
Hochleistungsrechnen Grafikkartenprogrammierung Prof. Dr. Thomas Ludwig Universität Hamburg Informatik Wissenschaftliches Rechnen Übersicht Hintergrund und Entwicklung von GPGPU Programmierumgebungen &
GPU Programmierung. Thorsten Grosch
Thorsten Grosch Willkommen zur ersten Vorlesung! g Heute Organisatorisches Vorstellung von Team und Vorlesung Historischer Rückblick zu GPUs 2 Das Team Vorlesung Jun.-Prof. Thorsten Grosch AG Computervisualistik
Die beste Infrastruktur ist nur so schnell, wie der Code der darauf läuft. Fallbeispiel Wettervorhersage
Die beste Infrastruktur ist nur so schnell, wie der Code der darauf läuft Fallbeispiel Wettervorhersage VPE Swiss Workshop, HSR 24. Januar 2013 David Müller, Tobias Gysi Vision trifft Realität. Supercomputing
Die Bildbearbeitungssprache Halide
Die Bildbearbeitungssprache Halide Dominik Danner 13.06.2013 Dominik Danner Die Bildbearbeitungssprache Halide 13.06.2013 1 / 30 Inhaltsverzeichnis 1 Einführung Die Domäne der Bildbearbeitung Einführungsbeispiel
Grundlagen der Spieleprogrammierung
Grundlagen der Spieleprogrammierung Teil I: 3D-Graphik Kapitel 9: Engines, Cg und anderes Peter Sturm Universität Trier Outline 1. Übersicht und Motivation 2. Mathematische Grundlagen 3. Das Ideal: Photorealistisch
Vergleich von Forward und Deferred Rendering
Vergleich von Forward und Deferred Rendering Kamil René König Bachelorarbeit Bachelor Informatik 12.08.2014 Betreuer: Prof. Dr. Detlef Krömker, Dr. Daniel Schiffner Übersicht Motivation Definitionen Forward
Shader zur Bildbearbeitung
15. Oktober 2009 1 / 23 Übersicht 1 Motivation 2 Grundlagen 3 State of the Art 4 Konzeption 5 Implementierung 6 Benchmarks 7 Fazit 2 / 23 Motivation: GPU >> CPU Moores Law: Hardware verbessert sich rapide
World of Warcraft. Mindestvoraussetzungen
World of Warcraft Betriebssystem Windows XP / Windows Vista / Windows 7 Windows 7 / Windows 8 64-bit mit Windows 8 mit aktuellstem Servicepack aktuellstem Servicepack Prozessor Intel Core 2 Duo E6600 oder
Spezialarchitekturen I (GPGPU: Architektur, Programmierung und Anwendungen)
SEMINAR: HIGH-PERFORMANCE RECONFIGURABLE COMPUTING 1 Spezialarchitekturen I (GPGPU: Architektur, Programmierung und Anwendungen) Mario Kicherer Zusammenfassung Die vorliegende Ausarbeitung beschäftigt
GPGPU Programming nvidia CUDA vs. AMD/ATI Stream Computing. Seminar HWS 08/09 by Erich Marth
Computing 1 Inhalt Einführung nvidia CUDA AMD Stream Computing CUDA vs. Stream Computing - Warum, Vorteile, Motivation - Überblick, API - Details, Beispiele - Überblick, API - Details, Beispiele - wesentliche
Übersicht. Vergleich der Spielekonsole mit dem PC. Historie der Spielekonsolen von 1976 bis 1999
Übersicht Vergleich der Spielekonsole mit dem PC Historie der Spielekonsolen von 1976 bis 1999 Heutige Generation der Konsolen Überblick Vergleich der PS2 mit der XBox Ausblick auf die kommende Konsolengeneration
Brook for GPUs: Stream Computing on Graphics Hardware
Ausarbeitung zum Thema Brook for GPUs: Stream Computing on Graphics Hardware Ian Buck, Tim Foley, Daniel Horn, Jeremy Sugerman, Kayvon Fatahalian, Mike Houston and Pat Hanrahan von Aldo Mühlhause Hauptseminar
Modellierung und Simulation optischer Strahlführungen. Diplomarbeit Timon Bätz
Modellierung und Simulation optischer Strahlführungen Diplomarbeit Timon Bätz Übersicht Ziele Physikalische Hintergründe Architektur und Implementierung Ergebnisse Ausblick Demo 2 Ziele Entwicklung eines
Die gezeigten Abbildungen dienen als Symbolfotos. Irrtümer, Druckfehler und Preisänderungen vorbehalten.
15,6 Lenovo ideapad 110 Display: Auflösung 1920x1080 CPU: Intel Core i3, 2GHz RAM: 8GB HDD: 1000GB Festplatte Grafik: AMD Radeon R5 M430 2GB Windows 10 Home 64bit 1 Jahr Garantie 499 15,6 HP 250G5 Display:
Gerät Preis* CPU, VGA, HD, RAM Ausstattung
1 PC Ultra 559.- CPU: Intel Core Duo ab 3,0 GHz RAM: 8 GB HD: 128 GB SSD + 1 TB HDD VGA: GeForce GTX 750 2GB GDDR5 robuster Verarbeitung. Neben starken verfügt der PC Ultra über eine hochwertige Grafikkarte
DirectX und OpenGL. Proseminar Multimedia-Hardwareerweiterungen Michel Weimerskirch, 15. Februar 2006
DirectX und OpenGL Proseminar Multimedia-Hardwareerweiterungen Michel Weimerskirch, 15. Februar 2006 2 Inhalt Einleitung Übersicht DirectX und Komponenten Übersicht OpenGL Sprachlicher Aufbau OpenGL Sprachlicher
Der Goopax Compiler GPU-Programmierung in C++ ZKI AK-Supercomputing, Münster, 27.03.2014, Ingo Josopait
Der Goopax Compiler GPU-Programmierung in C++ AMD R9 290X: 5.6 TFLOPS (SP MulAdd) Programmierung ~10000 Threads Entwicklungsumgebungen Entwicklungsumgebungen CUDA, OpenCL Compiler: kernel GPU Maschinencode
Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2015. Tim Conrad
Blockseminar: Verteiltes Rechnen und Parallelprogrammierung Sommer Semester 2015 Tim Conrad Staff Tim Conrad AG Medical Bioinformatics email: [email protected] Telefon: 838-51445 Büro: Raum 138,
Eine Einführung Computergrafik SS14 Timo Bourdon
Eine Einführung Computergrafik SS14 Timo Bourdon Organisatorisches Übung am Freitag den 11. Juli entfällt! Zum OpenGL-Übungsblatt OpenGL 3.0 oder höher notwendig (Shading Language 1.50 oder höher) CIP
Entwicklung algorithmischer Skelette für CUDA am Beispiel von Affintiy Propagation
Entwicklung algorithmischer Skelette für CUDA am Beispiel von Affintiy Propagation Christoph Winter Fakultät für Informatik und Mathematik Ostbayerische Technische Hochschule Regensburg 93049 Regensburg
GPU-Programmierung: OpenCL
GPU-Programmierung: OpenCL Markus Hauschild Seminar: Multicore Programmierung Sommerstemester 2009 04.06.2009 1 Inhaltsverzeichnis 1 GPU-Programmierung 3 1.1 Entwicklung von Grafikkarten..................
Numerik und Rechnen. Inhaltsverzeichnis. Seminar Programmierung von Grafikkarten
Numerik und Rechnen Seminar Programmierung von Grafikkarten Martin Heide & Dominik Holler Betreuer: Björn Knafla, Prof. Dr. Claudia Leopold Inhaltsverzeichnis 1 Einführung...2 2 Rechnen auf der GPU mit
GPU-Computing im Rahmen der Vorlesung Hochleistungsrechnen
GPU-Computing im Rahmen der Vorlesung Hochleistungsrechnen Universität Hamburg Scientific Visualization and Parallel Processing Übersicht Hintergrund und Entwicklung von GPGPU Programmierumgebungen & Werkzeuge
Games with Cellular Automata auf Parallelen Rechnerarchitekturen
Bachelor Games with Cellular Automata auf Parallelen en ( ) Dipl.-Inf. Marc Reichenbach Prof. Dietmar Fey Ziel des s Paralleles Rechnen Keine akademische Nische mehr Vielmehr Allgemeingut für den Beruf
(allgemeine) OOP in C++ Klassen und header-files Konstruktorn / Destruktoren Speicherverwaltung C++ Standard Library / SLT
Architektur Übersicht (allgemeine) OOP in C++ Polymorphie Virtuelle Funktionen Kompilieren Linken dynamische/statische Bibliotheken Tutorial: vs2008+ogre+(campus modell) Architektur (allgemeine) OOP in
High-Performance Bildverarbeitung (nicht nur) mit JAVA. Prof. Dr.Thomas Netzsch - Hochschule Darmstadt - University of Applied Sciences
High-Performance Bildverarbeitung (nicht nur) mit JAVA 1 High-Performance Bildverarbeitung (nicht nur) mit JAVA Fragen: wie kann ein typisches BV-Unternehmen wirtschaftlich an der aktuellen Hardwareentwicklung
OpenGL. (Open Graphic Library)
OpenGL (Open Graphic Library) Agenda Was ist OpenGL eigentlich? Geschichte Vor- und Nachteile Arbeitsweise glscene OpenGL per Hand Debugging Trend Was ist OpenGL eigentlich? OpenGL ist eine Spezifikation
SG-TRONiC IT - Made in Germany
Kategorie TERRA PC-BUSINESS Art# 1009051 1009055 1009060 1009059 1009046 1009052 Bezeichnung TERRA PC 2500 TERRA PC 2500 TERRA PC-BUSINESS 4000 TERRA PC 3000 Bestseller Business-PC! TERRA PC-BUSINESS 3000
Efficient Matrix Inversion in CUDA
Seminar Multicore Architectures and Programming 08 am Lehrstuhl Informatik 12, Hardware-Software-Co-Design Efficient Matrix Inversion in CUDA Robert Grimm, Matthias Schneider Friedrich-Alexander Universität
Linux-Cluster mit Raspberry Pi. Dr. René Richter Sächsische Studienakademie Dresden rene.richter@ba-dresden rene.richter@namespace-cpp.
Linux-Cluster mit Raspberry Pi Dr. René Richter Sächsische Studienakademie Dresden rene.richter@ba-dresden [email protected] Lange Nacht der Wissenschaften 2013 Moore s Law Moore s Law (1965)
Embedded Software Engeneering mit dem Raspberry Pi
Embedded Software Engeneering mit dem Raspberry Pi Übersicht Rasperry Pi Betriebssystem Hardware ARM Μ-Controller vs. Μ-Prozessor vs. SoC Embedded Software Engineering vs. Software Engineering Fazit Raspberry
OEM Hardware Nr. : PCI\VEN_10DE&DEV_05E2&SUBSYS_ &REV_A1
SiSoftware Sandra Grafikkarte Display : \\.\DISPLAY1 VGA-kompatibel : Nein Windowsgerätename : NVIDIA GeForce GTX 260 OEM Hardware Nr. : PCI\VEN_10DE&DEV_05E2&SUBSYS_00000000&REV_A1 OEM Gerätename : nvidia
Algorithmen und Datenstrukturen
Algorithmen und Datenstrukturen Dipl. Inform. Andreas Wilkens [email protected] Überblick Grundlagen Definitionen Eigene Entwicklungen Datenstrukturen Elementare Datentypen Abstrakte Datentypen Elementare
Client: min. Intel Pentium IV oder höher bzw. vergleichbares Produkt
ISIS MED Systemanforderungen (ab Version 7.0) Client: Bildschirm: Betriebssystem: min. Intel Pentium IV oder höher bzw. vergleichbares Produkt min. 2048 MB RAM frei Webserver min 20. GB ISIS wurde entwickelt
Prodatic Angebote 2014
Terra PAD 1002 mit ANDROID 4.2 Das Quick PAD 1002 ist mit Dual Core CPU, 1 GB Speicher und 16 GB Nand Flash sowie Android 4.2 ausgestattet. 179,- Arm Prozessor 1,5 GHz, Dual Core 9,7 Multi-Touch Display
Assembler - Einleitung
Assembler - Einleitung Dr.-Ing. Volkmar Sieh Department Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2008 Assembler - Einleitung 1/19 2008-04-01 Teil 1: Hochsprache
Produkte und Preise TERRA PC
Gehäuse - Formfaktor Micro-Format Micro-Format Micro-Format Midi Tower Midi Tower Midi Tower Art# 1009446 1009466 1009468 1009415 1009471 1009424 Bezeichnung TERRA PC-MICRO 3000 SILENT GREENLINE MUI TERRA
Staff. Tim Conrad. Zeitplan. Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2013. Tim Conrad
Blockseminar: Verteiltes Rechnen und Parallelprogrammierung Sommer Semester 2013 Tim Conrad Staff Tim Conrad AG Computational Proteomics email: [email protected] Telefon: 838-51445 Büro: Raum 138,
Marc Simons Proseminar Technische Informatik Institut für Informatik, Betreuer Prof. Dr. Marcel Kyas
Marc Simons Proseminar Technische Informatik Institut für Informatik, Betreuer Prof. Dr. Marcel Kyas Eine Liste von Komponenten für einen Home Theatre PC Was ist ein HTPC HTPC (Home Theatre PC) auf Deutsch:
2 Rechnerarchitekturen
2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf
Öffnungszeiten: Mo. - Fr.: 9.00-18.00Uhr Sa.: 9.00-14.00Uhr. Wochen Angebote. 520MB/s read 300MB/s write 45,- Software Windows7 Dell Lizenz
USB Stick 5,- 10,- Linux E2 Betriebsystem Full HD DVB-S2 Dual Core Prozessor 1x Front USB 2.0 HbbTV&IPTV Ready Arbeitsspeicher 4GB PC1600 20,00 8GB PC1600 40,00 8GB PC2400 DDR4 44,00 SSD Intenso 128GB
Klausur zu High Performance Computing 09. Juli 2011, SS 2011
Alexander Vondrous, Britta Nestler, Fakultät IWI, Hochschule Karlsruhe Klausur zu High Performance Computing 09. Juli 2011, SS 2011 Es sind keine Hilfsmittel zugelassen. Bearbeitungszeit: 90 Minuten Aufgabe
Intel Cluster Studio. Michael Burger FG Scientific Computing TU Darmstadt [email protected]
Intel Cluster Studio Michael Burger FG Scientific Computing TU Darmstadt [email protected] 19.03.13 FB Computer Science Scientific Computing Michael Burger 1 / 30 Agenda Was ist das Intel
Inhalt. Prozessoren. Curriculum Manfred Wilfling. 28. November HTBLA Kaindorf. M. Wilfling (HTBLA Kaindorf) CPUs 28. November / 9
Inhalt Curriculum 1.4.2 Manfred Wilfling HTBLA Kaindorf 28. November 2011 M. Wilfling (HTBLA Kaindorf) CPUs 28. November 2011 1 / 9 Begriffe CPU Zentraleinheit (Central Processing Unit) bestehend aus Rechenwerk,
PRODUKTE UND PREISE TERRA PC. www.wortmann.de
PRODUKTE UND PREISE TERRA PC www.wortmann.de Serie Business Business Business Business Business Business Gehäuse - Formfaktor Micro-Format Micro-Format Micro-Format Midi Tower Midi Tower Midi Tower Art#
