> High-Level Programmierung heterogener paralleler Systeme

Größe: px
Ab Seite anzeigen:

Download "> High-Level Programmierung heterogener paralleler Systeme"

Transkript

1 > High-Level Programmierung heterogener paralleler Systeme Projektseminar im SoSe 2012 Prof. Sergei Gorlatch, Michel Steuwer, Tim Humernbrum AG Parallele und Verteilte Systeme, Westfälische Wilhelms-Universität Münster

2 Heterogene parallele Systeme 2 Zwei zentrale Begriffe: Paralleles System: Viele Berechnungseinheiten lösen durch koordinierte Zusammenarbeit ein Problem schneller Beispiel: Systeme mit multi-core CPUs, oder GPUs Heterogenes System: Ein System bestehend aus einer Reihe verschiedener Berechnungseinheiten, welche unterschiedliche Eigenschaften haben Beispiel: Ein System mit sowohl einer multi-core CPU, als auch einer GPU Für dieses Projektseminar zentral: Systeme mit multi-core CPUs und mehreren (z. T. unterschiedlichen) GPUs.

3 Open Computing Language (OpenCL) OpenCL The open standard for parallel programming of heterogeneous systems [Khornos Group] Ausführungsumgebung und Low-level-API zur Programmierung von CPUs, GPUs und anderen Prozessoren (z. B. Cell B. E.) Unterscheidung von Host (CPU) und Device (GPU, aber auch multi-core CPU!) Anwendung OpenCL Kernel: auf einem Device auszuführendes Programm Ablauf 1 Host lädt Daten auf Device 2 Host startet Kernel auf Device 3 Device führt Kernel 4 Host lädt Ergebnisse vom Device Besonderheit: Kernel werden zur Laufzeit für das jeweilige Device kompiliert 3

4 High-Level Programmierung SkelCL 4 SkelCL ist eine high-level Bibliothek zum Programmieren von single- und multi-device Systemen Baut auf OpenCL auf Hardware unabhängig und portable Zwei high-level Features: Speicher: implizites Speichermanagement mit Hilfe eines abstrakten Vektor Datentyps Berechnungen: bequem ausgedrückt mit parallenen Mustern Ziele: Vereinfachtes paralleles Programmieren durch high-level Abstraktionen Kein expliziter Daten Transfer mehr nötig Speziell die Programmierung von mehren Devices vereinfachen

5 SkelCL Beispiel Skalarprodukt 5 Berechne das Skalarprodukt der Vektoren a und b: size 1 i=0 a i b i float dot_product(const std::vector<float>& a, const std::vector<float>& b) { SkelCL::init(); // initialize SkelCL // declare computation: SkelCL::Zip<float> mult ( "float func(float x, float y){ return x*y; }"); SkelCL::Reduce<float> sum_up( "float func(float x, float y){ return x+y; }"); // create data vectors: SkelCL::Vector<float> A(a.begin(), a.end()), B(b.begin(), b.end()); // perform calculation: SkelCL::Vector<float> C = sum_up( mult(a, B) ); return C.front(); // access result } SkelCL: 6 lines of code OpenCL: 68 lines of code (NVIDIA programming example)

6 Mehrere Devices 6 Die Programmierung von mehreren Device ist besonders komplex Haupt Herausforderungen: Daten Verteilung zwischen Devices Daten Austausch zwischen Devices SkelCL bietet hierfür drei verschiedene Verteilungen (distributions): single block copy Host GPUs Host GPUs Host GPUs Ein Wechsel der distribution zur Laufzeit löst einen Daten Austausch aus. Beispiel: vector.setdistribution(distribution::block); Alle nötigen Daten Transfers werden automatisch durchgeführt!

7 Projektaufgabe 7 Projektaufgabe: Die SkelCL Bibliothek erweitern und ihre Implementierung verbessern Entwurf und Implementierung eines Interfaces zur Durchführung von einfachen Vektoroperationen, wie Vektoraddition oder -multiplikation: SkelCL::Vector<float> E = (A + B * (-C)) + D; Optimierung und Anpassung der vorhandenen Implementierung auf spezielle OpenCL Devices, wie z.b. GPUs von NVIDIA oder CPUs von Intel

8 Projektaufgabe 8 Implementierung von dynamischen Zusammenfassen von parallelen Mustern, um den Overhead bei der Ausführung zu reduzieren Bisher ein temporärer Vektor benötigt: SkelCL::Vector<float> C = sum_up( mult(a, B) ); Sollte intern zusammengefasst werden zu: SkelCL::Vector<float> C = mult_and_sum_up( A, B); ohne einen temporären Vektor zu benötigen. Offene Frage: Wie sieht mult_and_sum_up aus?...

9 Anforderungen und Lernziele 9 Anforderungen: Studiengang: Informatik Grundlegende Kenntnisse der Programmiersprache C++ Kenntnisse der GPU-Programmierung sind von Vorteil, aber nicht zwingend erforderlich Lernziele: Einarbeiten in den Bereich des GPU-Computing / OpenCL Praktische Arbeit mit aktueller Hardware und Programmiertechniken Teamarbeit Anwendung eines Softwareentwicklungsprozesses(!) Wissenschaftliche Vorgehensweise (Modellierung und Evaluation)

10 Projektablauf 10 Start: Vorlesungsbeginn SoSe 2012 ( ) Theoretische und praxisorientierte Phasen Theorie: Aneignen von erweiterten Grundlagen im Bereich C++ und GPU-Computing / OpenCL Praxis: Verbesserung der Implementierung von SkelCL Wöchentliche Treffen (Dienstags 10 Uhr): Zwischenstandsberichte, Demonstrationen, Diskussion (falls nötig) Zusammenarbeit und Entwicklung in wechselnden Teams Infrastruktur von uns bereit gestellt: Projektraum, SVN, Trac, Mailingliste Hardware wird von uns installiert und bereitgestellt: Mehrere GPU Systeme + Mulitcore Cluster System der Uni

11 Terminplanung : Vorbesprechung : Referate: Grundlagen : Zwischenpräsentation : Fertigstellung Implementierung, Abschlussvortrag : Fertigstellung der Ausarbeitung Die Terminplanung ist vorläufig und ändert sich ggf. während des Projektseminars!

12 Betreuung und Bewertung 12 Betreuung: Intensive Betreuung (Wissenschaftlicher Mitarbeiter + Studentische Hilfskraft) Weiterführung des Projektseminars als Bachelorarbeit/Masterarbeit/Diplomarbeit möglich Wissenschaftliche Veröffentlichungen als Ziel Bewertungskriterien: Vorträge (mindestens zwei pro Teilnehmer) Schriftliche Ausarbeitung am Ende (individuelle Beiträge) Engagement und Mitarbeit im Projekt Quellcode (inkl. Dokumentation) Jede/r Teilnehmer/in ist für eigene Teilbereiche verantwortlich!

13 Anmeldung 13 Eintragen in Anmeldeliste, oder mit folgenden Angaben an Name, Matrikelnummer Studiengang, Fachsemester Vorkenntnisse Vorlesungen der AG PVS (MGPP, PS, VS, BS, MNJ) (Projekt-) Seminare der AG PVS An-/Abmeldung bis einschließlich möglich Anmeldung verpflichtet zur Teilnahme Aufnahme in Warteliste weiterhin möglich Benachrichtigung per am

14 14 Weitere Informationen unter

OpenCL. Programmiersprachen im Multicore-Zeitalter. Tim Wiersdörfer

OpenCL. Programmiersprachen im Multicore-Zeitalter. Tim Wiersdörfer OpenCL Programmiersprachen im Multicore-Zeitalter Tim Wiersdörfer Inhaltsverzeichnis 1. Was ist OpenCL 2. Entwicklung von OpenCL 3. OpenCL Modelle 1. Plattform-Modell 2. Ausführungs-Modell 3. Speicher-Modell

Mehr

> Internet- und GPU-basiertes Cloud-Computing

> Internet- und GPU-basiertes Cloud-Computing > Projektseminar im SoSe 2011 Prof. Sergei Gorlatch, Philipp Kegel, Dominique Meiländer, Michel Steuwer AG Parallele und Verteilte Systeme, Westfälische Wilhelms-Universität Münster Lernziele 2 Erlernen

Mehr

> GPU-basiertes Cloud-Computing

> GPU-basiertes Cloud-Computing > Projektseminar im WiSe 2011/12 Prof. Sergei Gorlatch, Philipp Kegel, Dominique Meiländer, Michel Steuwer AG Parallele und Verteilte Systeme, Westfälische Wilhelms-Universität Münster Lernziele 2 Erlernen

Mehr

CUDA. Moritz Wild, Jan-Hugo Lupp. Seminar Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg

CUDA. Moritz Wild, Jan-Hugo Lupp. Seminar Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg CUDA Seminar Multi-Core Architectures and Programming 1 Übersicht Einleitung Architektur Programmierung 2 Einleitung Computations on GPU 2003 Probleme Hohe Kenntnisse der Grafikprogrammierung nötig Unterschiedliche

Mehr

Interaktive Simulation von Menschenmengen mittels Virtueller Welten

Interaktive Simulation von Menschenmengen mittels Virtueller Welten Interaktive Simulation von Menschenmengen mittels Virtueller Welten Prof. Sergei Gorlatch Alexander Ploss, Frank Glinka, Allaithy Raed Arbeitsgruppe Parallele und Verteilte Systeme Projektseminar WS 08/09

Mehr

OpenCL. Seminar Programmiersprachen im Multicore-Zeitalter Universität Siegen Tim Wiersdörfer tim.wiersdoerfer@student.uni-siegen.

OpenCL. Seminar Programmiersprachen im Multicore-Zeitalter Universität Siegen Tim Wiersdörfer tim.wiersdoerfer@student.uni-siegen. OpenCL Seminar Programmiersprachen im Multicore-Zeitalter Universität Siegen Tim Wiersdörfer tim.wiersdoerfer@student.uni-siegen.de Abstract: In diesem Dokument wird ein grundlegender Einblick in das relativ

Mehr

Gaming on the Grid: Design und Realisierung eines dynamischen Online-Rollenspiels

Gaming on the Grid: Design und Realisierung eines dynamischen Online-Rollenspiels Gaming on the Grid: Design und Realisierung eines dynamischen Online-Rollenspiels Projektseminar im Sommersemester 2007 Jens Müller / Frank Glinka / Alexander Ploss / Prof. Sergei Gorlatch Arbeitsgruppe

Mehr

GPU-Programmierung: OpenCL

GPU-Programmierung: OpenCL Seminar: Multicore Programmierung Sommerstemester 2009 04.06.2009 Inhaltsverzeichnis 1 GPU-Programmierung von Grafikkarten von GPU-Computing 2 Architektur Spracheigenschaften Vergleich mit CUDA Beispiel

Mehr

Gliederung. Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo

Gliederung. Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo Gliederung Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo Was ist CUDA? Nvidia CUDA ist eine von NvidiaGPGPU-Technologie, die es Programmierern erlaubt, Programmteile

Mehr

Programmierbeispiele und Implementierung. Name: Michel Steuwer E-Mail: michel.steuwer@wwu.de

Programmierbeispiele und Implementierung. Name: Michel Steuwer E-Mail: michel.steuwer@wwu.de > Programmierbeispiele und Implementierung Name: Michel Steuwer E-Mail: michel.steuwer@wwu.de 2 > Übersicht > Matrix Vektor Multiplikation > Mandelbrotmenge / Apfelmännchen berechnen > Kantendetektion

Mehr

OpenCL Implementierung von OpenCV Funktionen

OpenCL Implementierung von OpenCV Funktionen Multi-Core Architectures and Programming OpenCL Implementierung von OpenCV Funktionen julian.mueller@e-technik.stud.uni-erlangen.de Hardware/Software Co-Design August 18, 2011 1 Table of content 1 OpenCL

Mehr

Moderne parallele Rechnerarchitekturen

Moderne parallele Rechnerarchitekturen Seminar im WS0708 Moderne parallele Rechnerarchitekturen Prof. Sergei Gorlatch Dipl.-Inf. Maraike Schellmann schellmann@uni-muenster.de Einsteinstr. 62, Raum 710, Tel. 83-32744 Dipl.-Inf. Philipp Kegel

Mehr

Yilmaz, Tolga MatNr: Mesaud, Elias MatNr:

Yilmaz, Tolga MatNr: Mesaud, Elias MatNr: Yilmaz, Tolga MatNr: 157317 Mesaud, Elias MatNr: 151386 1. Aufbau und Funktionsweise einer Grafikkarte 2. CPU vs. GPU 3. Software 4. Beispielprogramme Kompilierung und Vorführung 5. Wo wird Cuda heutzutage

Mehr

General Purpose Computation on GPUs

General Purpose Computation on GPUs General Purpose Computation on GPUs Matthias Schneider, Robert Grimm Universität Erlangen-Nürnberg {matthias.schneider, robert.grimm}@informatik.stud.uni-erlangen.de M. Schneider, R. Grimm 1 Übersicht

Mehr

Staff. Tim Conrad. Zeitplan. Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2013. Tim Conrad

Staff. Tim Conrad. Zeitplan. Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2013. Tim Conrad Blockseminar: Verteiltes Rechnen und Parallelprogrammierung Sommer Semester 2013 Tim Conrad Staff Tim Conrad AG Computational Proteomics email: conrad@math.fu-berlin.de Telefon: 838-51445 Büro: Raum 138,

Mehr

> Heterogenität in verteilten Rechensystemen Seminar im SS 2012 Prof. Sergei Gorlatch, Philipp Kegel, Dominique Meiländer 27.

> Heterogenität in verteilten Rechensystemen Seminar im SS 2012 Prof. Sergei Gorlatch, Philipp Kegel, Dominique Meiländer 27. > Heterogenität in verteilten Rechensystemen Seminar im SS 2012 Prof. Sergei Gorlatch, Philipp Kegel, Dominique Meiländer 27. Januar 2012 Parallele und verteilte Systeme, Westfälische Wilhelms-Universität

Mehr

Masterpraktikum Scientific Computing

Masterpraktikum Scientific Computing Masterpraktikum Scientific Computing High-Performance Computing Thomas Auckenthaler Wolfgang Eckhardt Prof. Dr. Michael Bader Technische Universität München, Germany Outline Organisatorisches Entwicklung

Mehr

Evaluation. Einleitung. Implementierung Integration. Zusammenfassung Ausblick

Evaluation. Einleitung. Implementierung Integration. Zusammenfassung Ausblick Christopher Schleiden Bachelor Kolloquium 15.09.2009 Einleitung Evaluation Implementierung Integration Zusammenfassung Ausblick Einleitung laperf Lineare Algebra Bibliothek für C++ Möglichkeit zur Integration

Mehr

Projektseminar Parallele Programmierung

Projektseminar Parallele Programmierung HTW Dresden WS 2014/2015 Organisatorisches Praktikum, 4 SWS Do. 15:00-18:20 Uhr, Z136c, 2 Doppelstunden o.g. Termin ist als Treffpunkt zu verstehen Labore Z 136c / Z 355 sind Montag und Donnerstag 15:00-18:20

Mehr

Verbesserung der Programmierbarkeit und Performance-Portabilität von Manycore-Prozessoren 1

Verbesserung der Programmierbarkeit und Performance-Portabilität von Manycore-Prozessoren 1 Steffen Hölldobler et. al. (Hrsg.): Ausgezeichnete Informatikdissertationen 2015, Lecture Notes in Informatics (LNI), Gesellschaft für Informatik, Bonn 2016 269 Verbesserung der Programmierbarkeit und

Mehr

Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern

Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern Institut für Betriebssysteme und Rechnerverbund TU Braunschweig 25.10., 26.10.

Mehr

Compute Unified Device Architecture CUDA

Compute Unified Device Architecture CUDA Compute Unified Device Architecture 06. Februar 2012 1 / 13 Gliederung 2 / 13 : Compute Unified Device Architecture entwickelt von Nvidia Corporation spezifiziert Software- und Hardwareeigenschaften Ziel:

Mehr

Parallele Rechnerarchitekturen

Parallele Rechnerarchitekturen Bachelor Parallele en Informatik 3 ( ) Prof. Dietmar Fey Ziel des s Paralleles Rechnen Keine akademische Nische mehr Vielmehr Allgemeingut für den Beruf des Informatikers Bedingt durch Multikern- (und

Mehr

PRIP-Preis. Effizientes Object Tracking durch Programmierung von Mehrkernprozessoren und Grafikkarten

PRIP-Preis. Effizientes Object Tracking durch Programmierung von Mehrkernprozessoren und Grafikkarten Masterarbeit @ PRIP-Preis Effizientes Object Tracking durch Programmierung von Mehrkernprozessoren und Grafikkarten Michael Rauter Pattern Recognition and Image Processing Group Institute of Computer Aided

Mehr

Entwicklung algorithmischer Skelette für CUDA am Beispiel von Affintiy Propagation

Entwicklung algorithmischer Skelette für CUDA am Beispiel von Affintiy Propagation Entwicklung algorithmischer Skelette für CUDA am Beispiel von Affintiy Propagation Christoph Winter Fakultät für Informatik und Mathematik Ostbayerische Technische Hochschule Regensburg 93049 Regensburg

Mehr

Seminar im WS 2011/12: Technische Aspekte des Cloud- Computings. Prof. Sergei Gorlatch, Dominik Meiländer, Michel Steuwer

Seminar im WS 2011/12: Technische Aspekte des Cloud- Computings. Prof. Sergei Gorlatch, Dominik Meiländer, Michel Steuwer Seminar im WS 2011/12: Technische Aspekte des Cloud- Computings Prof. Sergei Gorlatch, Dominik Meiländer, Michel Steuwer Fachbereich Mathematik und Informatik Arbeitsgruppe Parallele und Verteilte Systeme

Mehr

GPGPU-Programming. Constantin Timm Informatik 12 TU Dortmund 2012/04/09. technische universität dortmund. fakultät für informatik informatik 12

GPGPU-Programming. Constantin Timm Informatik 12 TU Dortmund 2012/04/09. technische universität dortmund. fakultät für informatik informatik 12 12 GPGPU-Programming Constantin Timm Informatik 12 TU Dortmund 2012/04/09 Diese Folien enthalten Graphiken mit Nutzungseinschränkungen. Das Kopieren der Graphiken ist im Allgemeinen nicht erlaubt. Motivation

Mehr

Diplomarbeit. Neue Möglichkeiten durch programmierbare Shader. Unter der Leitung von: Prof. Dr.-Ing. Detlef Krömker

Diplomarbeit. Neue Möglichkeiten durch programmierbare Shader. Unter der Leitung von: Prof. Dr.-Ing. Detlef Krömker Diplomarbeit 5HDO7LPH6SHFLDO (IIHFWV Neue Möglichkeiten durch programmierbare Shader Unter der Leitung von: Prof. Dr.-Ing. Detlef Krömker Betreut von: Paul Grimm, Ralf Dörner Beginn: 01.04.02 Abgabe: 30.09.02

Mehr

Von der Theorie zur Praxis: Echtzeitplanung in der Informatikausbildung

Von der Theorie zur Praxis: Echtzeitplanung in der Informatikausbildung Von der Theorie zur Praxis: Echtzeitplanung in der Informatikausbildung Fachtagung des GI/GMA/ITG-Fachausschuss Echtzeitsysteme 2016 Institut für Softwaretechnik, Arbeitsgruppe Echtzeitsysteme astahlhofen@uni-koblenz.de

Mehr

Software-Praktikum. Überblick und Zeitplan

Software-Praktikum. Überblick und Zeitplan Standort Hagen Fachbereich Technische Betriebswirtschaft Software-Praktikum Überblick und Zeitplan Andreas de Vries und Volker Weiß Version: 26. September 2016 Inhaltsverzeichnis 1 Einführung und Überblick

Mehr

Multicore-Architekturen

Multicore-Architekturen Universität Erlangen- Nürnberg Technische Universität München Universität Stuttgart Multicore-Architekturen Vortrag im Rahmen der Ferienakademie 2009 Kurs 1: Programmierkonzepte für Multi-Core Rechner

Mehr

Grundlagen der Parallelisierung

Grundlagen der Parallelisierung Grundlagen der Parallelisierung Philipp Kegel, Sergei Gorlatch AG Parallele und Verteilte Systeme Institut für Informatik Westfälische Wilhelms-Universität Münster 3. Juli 2009 Inhaltsverzeichnis 1 Einführung

Mehr

Parallele Algorithmen mit OpenCL. Universität Osnabrück, Henning Wenke,

Parallele Algorithmen mit OpenCL. Universität Osnabrück, Henning Wenke, Parallele Algorithmen mit OpenCL Universität Osnabrück, Henning Wenke, 2013-04-17 Kapitel I OpenCL Einführung Allgemeines Open Compute Language: API für einheitliche parallele Programmierung heterogener

Mehr

CUDA. (Compute Unified Device Architecture) Thomas Trost. May 31 th 2016

CUDA. (Compute Unified Device Architecture) Thomas Trost. May 31 th 2016 CUDA (Compute Unified Device Architecture) Thomas Trost May 31 th 2016 Introduction and Overview platform and API for parallel computing on GPUs by NVIDIA relatively straightforward general purpose use

Mehr

Games with Cellular Automata auf Parallelen Rechnerarchitekturen

Games with Cellular Automata auf Parallelen Rechnerarchitekturen Bachelor Games with Cellular Automata auf Parallelen en ( ) Dipl.-Inf. Marc Reichenbach Prof. Dietmar Fey Ziel des s Paralleles Rechnen Keine akademische Nische mehr Vielmehr Allgemeingut für den Beruf

Mehr

FPGA Beschleuniger. Your Name. Armin Jeyrani Mamegani Your Organization (Line #2)

FPGA Beschleuniger. Your Name. Armin Jeyrani Mamegani Your Organization (Line #2) FPGA Beschleuniger 15.12.2008 Armin Jeyrani Mamegani Your Name HAW Hamburg Your Title Department Your Organization Informatik (Line #1) Your Organization (Line #2) Einleitung Wiederholung aus AW1: Handy

Mehr

Motivation (GP)GPU CUDA Zusammenfassung. CUDA und Python. Christian Wilms. Integriertes Seminar Projekt Bildverarbeitung

Motivation (GP)GPU CUDA Zusammenfassung. CUDA und Python. Christian Wilms. Integriertes Seminar Projekt Bildverarbeitung CUDA und Python Christian Wilms Integriertes Seminar Projekt Bildverarbeitung Universität Hamburg WiSe 2013/14 12. Dezember 2013 Christian CUDA und Python 1 Gliederung 1 Motivation 2 (GP)GPU 3 CUDA 4 Zusammenfassung

Mehr

Using Elastic Cloud Computing for Soft Real-Time Online Service Provisioning

Using Elastic Cloud Computing for Soft Real-Time Online Service Provisioning Using Elastic Cloud Computing for Soft Real-Time Online Service Provisioning Dominik Meiländer, Alexander Ploß, Prof. Sergei Gorlatch Arbeitsgruppe Parallele und Verteilte Systeme Projektseminar SS 2010

Mehr

GPGPU-Architekturen CUDA Programmiermodell Beispielprogramm. Einführung CUDA. Ralf Seidler. Friedrich-Alexander-Universität Erlangen-Nürnberg

GPGPU-Architekturen CUDA Programmiermodell Beispielprogramm. Einführung CUDA. Ralf Seidler. Friedrich-Alexander-Universität Erlangen-Nürnberg Einführung CUDA Friedrich-Alexander-Universität Erlangen-Nürnberg PrakParRA, 18.11.2010 Outline 1 GPGPU-Architekturen 2 CUDA Programmiermodell 3 Beispielprogramm Outlook 1 GPGPU-Architekturen 2 CUDA Programmiermodell

Mehr

Automatische OpenCL-Code-Analyse zur Bestimmung von Speicherzugriffsmustern

Automatische OpenCL-Code-Analyse zur Bestimmung von Speicherzugriffsmustern Automatische OpenCL-Code-Analyse zur Bestimmung von Speicherzugriffsmustern Bachelorarbeit Moritz Lüdecke 8. Juli 2014 INSTITUT FÜR TECHNISCHE INFORMATIK - LEHRSTUHL FÜR RECHNERARCHITEKTUR UND PARALLELVERARBEITUNG

Mehr

Prototypvortrag. Exploiting Cloud and Infrastructure as a Service (IaaS) Solutions for Online Game Service Provisioning. Projektseminar WS 2009/10

Prototypvortrag. Exploiting Cloud and Infrastructure as a Service (IaaS) Solutions for Online Game Service Provisioning. Projektseminar WS 2009/10 Prototypvortrag Exploiting Cloud and Infrastructure as a Service (IaaS) Solutions for Online Game Service Provisioning Projektseminar WS 2009/10 Eugen Fot, Sebastian Kenter, Michael Surmann AG Parallele

Mehr

Vertiefungsrichtung Rechnerarchitektur

Vertiefungsrichtung Rechnerarchitektur srichtung () ( für ) Prof. Dietmar Fey Ziele der srichtung RA Vertiefen des Verständnis vom Aufbau, Funktionsweise von Rechnern und Prozessoren Modellierung und Entwurf von Rechnern und Prozessoren ()

Mehr

GPUs. Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg

GPUs. Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg GPUs Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg Vorgelegt von: Johannes Coym E-Mail-Adresse: 4coym@informatik.uni-hamburg.de

Mehr

Physikalische Berechnungen mit General Purpose Graphics Processing Units (GPGPUs)

Physikalische Berechnungen mit General Purpose Graphics Processing Units (GPGPUs) Fakultätsname XYZ Fachrichtung XYZ Institutsname XYZ, Professur XYZ Physikalische Berechnungen mit General Purpose Graphics Processing Units (GPGPUs) im Rahmen des Proseminars Technische Informatik Juni

Mehr

OpenCL. OpenCL. Boris Totev, Cornelius Knap

OpenCL. OpenCL. Boris Totev, Cornelius Knap OpenCL OpenCL 1 OpenCL Gliederung Entstehungsgeschichte von OpenCL Was, warum und überhaupt wieso OpenCL CUDA, OpenGL und OpenCL GPUs OpenCL Objekte Work-Units OpenCL Adressbereiche OpenCL API Codebeispiel

Mehr

Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Prof. Dr.-Ing. J. Teich

Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Prof. Dr.-Ing. J. Teich Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Friedrich-Alexander-Universität Erlangen-Nürnberg Prof. Dr.-Ing. J. Teich Rückblick - Großrechner 2 Keine Computer im Haushalt? Ken Olsen, US-amerikanischer

Mehr

Architektur moderner GPUs. W. Sczygiol - M. Lötsch

Architektur moderner GPUs. W. Sczygiol - M. Lötsch Architektur moderner GPUs W. Sczygiol - M. Lötsch Überblick Chipentwicklung Aktuelle Designs Nvidia: NV40 (ATI: R420) Vertex-Shader Pixel-Shader Shader-Programmierung ROP - Antialiasing Ausblick Referenzen

Mehr

Grundlagen von CUDA, Sprachtypische Elemente

Grundlagen von CUDA, Sprachtypische Elemente Grundlagen von CUDA, Sprachtypische Elemente Stefan Maskanitz 03.07.2009 CUDA Grundlagen 1 Übersicht 1. Einleitung 2. Spracheigenschaften a. s, Blocks und Grids b. Speicherorganistion c. Fehlerbehandlung

Mehr

Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2015. Tim Conrad

Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2015. Tim Conrad Blockseminar: Verteiltes Rechnen und Parallelprogrammierung Sommer Semester 2015 Tim Conrad Staff Tim Conrad AG Medical Bioinformatics email: conrad@math.fu-berlin.de Telefon: 838-51445 Büro: Raum 138,

Mehr

Prozessor- und Rechnerarchitekturen (Master)

Prozessor- und Rechnerarchitekturen (Master) Prozessor- und Rechnerarchitekturen (Master) Themen am 28.06.17: Semesterrückblick, Terminplanung Ihrer Vorträge ProRecArc17_V10 Ulrich Schaarschmidt HS Düsseldorf, SS 2017 V1 (5.4.): Termine + mögliche

Mehr

Ein System zur Evaluation der Netzwerkperformance in Online Computerspielen

Ein System zur Evaluation der Netzwerkperformance in Online Computerspielen Ein System zur Evaluation der Netzwerkperformance in Online Computerspielen Alexander Ploss, Prof. Sergei Gorlatch Arbeitsgruppe Parallele und Verteilte Systeme Projektseminar SS 09 Projektaufgabe (1/2)

Mehr

Pioniere der Informatik

Pioniere der Informatik Pioniere der Informatik Seminar im Wintersemester 2009/10 Martin Lange Institut für Informatik, LMU München 20. Oktober 2009 Pioniere der Informatik, M. Lange, IFI/LMU: Organisatorisches 1 Termine Seminar

Mehr

Parallel Computing. Einsatzmöglichkeiten und Grenzen. Prof. Dr. Nikolaus Wulff

Parallel Computing. Einsatzmöglichkeiten und Grenzen. Prof. Dr. Nikolaus Wulff Parallel Computing Einsatzmöglichkeiten und Grenzen Prof. Dr. Nikolaus Wulff Vorüberlegungen Wann ist paralleles Rechnen sinnvoll? Wenn die Performance/Geschwindigkeit steigt. Wenn sich größere Probleme

Mehr

Studienarbeit. Mohammad Athar Januar Verantw. Betreuer : Prof. Dr. Walter F. Tichy Betr. Mitarbeiter : Dipl.-Inform. Marc Schanne

Studienarbeit. Mohammad Athar Januar Verantw. Betreuer : Prof. Dr. Walter F. Tichy Betr. Mitarbeiter : Dipl.-Inform. Marc Schanne Studienarbeit Bewertung von Programmier- und Entwicklungsassistenten am Beispiel eines Eclipse-Plug-Ins für den Entwurf verteilter Systeme mit der EventChannelNetwork- Kommunikationsinfrastruktur Mohammad

Mehr

Grundlagen Rechnerarchitektur und Betriebssysteme

Grundlagen Rechnerarchitektur und Betriebssysteme Grundlagen Rechnerarchitektur und Betriebssysteme Johannes Formann Definition Computer: Eine Funktionseinheit zur Verarbeitung von Daten, wobei als Verarbeitung die Durchführung mathematischer, umformender,

Mehr

RST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck

RST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck RST-Labor WS06/07 GPGPU General Purpose Computation On Graphics Processing Units (Grafikkarten-Programmierung) Von: Marc Blunck Ablauf Einführung GPGPU Die GPU GPU Architektur Die Programmierung Programme

Mehr

Praktikumsvorstellung

Praktikumsvorstellung LUDWIG- MAXIMILIANS- UNIVERSITY MUNICH DEPARTMENT INSTITUTE FOR INFORMATICS DATABASE SYSTEMS GROUP MUNICH NETWORK MANAGEMENT TEAM Veranstaltungsvorschau für das Wintersemester 2009/2010 Praktikumsvorstellung

Mehr

EIDI 1 Einführung in die Informatik 1. PGdP Praktikum Grundlagen der Programmierung. Harald Räcke 2/217

EIDI 1 Einführung in die Informatik 1. PGdP Praktikum Grundlagen der Programmierung. Harald Räcke 2/217 EIDI 1 Einführung in die Informatik 1 PGdP Praktikum Grundlagen der Programmierung Harald Räcke 2/217 Wie löst man Probleme mithilfe von Computern? 0 Harald Räcke 3/217 Inhalte: EIDI 1 1. Was ist das Problem?

Mehr

FPGA Systementwurf. Rosbeh Etemadi. Paderborn University. 29. Mai 2007

FPGA Systementwurf. Rosbeh Etemadi. Paderborn University. 29. Mai 2007 Paderborn Center for Parallel l Computing Paderborn University 29. Mai 2007 Übersicht 1. FPGAs 2. Entwicklungssprache VHDL 3. Matlab/Simulink 4. Entwicklungssprache Handel-C 5. Fazit Übersicht FPGAs 1.

Mehr

Einführung. GPU-Versuch. Andreas Schäfer Friedrich-Alexander-Universität Erlangen-Nürnberg

Einführung. GPU-Versuch. Andreas Schäfer Friedrich-Alexander-Universität Erlangen-Nürnberg GPU-Versuch andreas.schaefer@cs.fau.de Friedrich-Alexander-Universität Erlangen-Nürnberg Praktikum Parallele Rechnerarchitekturen SS2014 Outline 1 Einführung 2 Outlook 1 Einführung 2 Eine kurze Geschichte

Mehr

Transparente Nutzung von Multi-GPU Cluster unter Java/OpenMP

Transparente Nutzung von Multi-GPU Cluster unter Java/OpenMP Transparente Nutzung von Multi-GPU Cluster unter Java/OpenMP Dipl. Inf. Thorsten Blaß Programming Systems Group Martensstraße 3 91058 Erlangen Ausblick Motivation Einführung Java/OpenMP (JaMP) JaMP Sprache

Mehr

Universität Stuttgart Vorstellung der Studiengänge Informatik und Softwaretechnik

Universität Stuttgart Vorstellung der Studiengänge Informatik und Softwaretechnik Vorstellung der Studiengänge Informatik und Softwaretechnik Ilona Heurich Inhalt Worum geht es in der Informatik? Überblick über das Studium Was wird im Studium gelehrt (und was nicht)? Welche Voraussetzungen

Mehr

Das Institut für Theoretische Informatik der Universität zu Lübeck

Das Institut für Theoretische Informatik der Universität zu Lübeck Das Institut für Theoretische Informatik der Universität zu Lübeck Prof. Dr. Rüdiger Reischuk Institutsdirektor Transport- und IT-Netze Untersuchungen zur Effizienz und Sicherheit Forschung erforschen

Mehr

Grafikkarten-Architektur

Grafikkarten-Architektur > Grafikkarten-Architektur Parallele Strukturen in der GPU Name: Sebastian Albers E-Mail: s.albers@wwu.de 2 > Inhalt > CPU und GPU im Vergleich > Rendering-Pipeline > Shader > GPGPU > Nvidia Tesla-Architektur

Mehr

Seminar Ausgewählte Themen der medizinischen Visualisierung

Seminar Ausgewählte Themen der medizinischen Visualisierung 1 Ausgewählte Themen der medizinischen Visualisierung Institut für Informatik 08.07.2011 Arbeitsgruppe Visualisierung und Computergrafik (VisCG) Organisatorisches Veranstalter: Prof. Dr. Klaus Hinrichs,

Mehr

Software Engineering für moderne parallele Plattformen 9. GPGPUs: Grafikkarten als Parallelrechner

Software Engineering für moderne parallele Plattformen 9. GPGPUs: Grafikkarten als Parallelrechner Software Engineering für moderne parallele Plattformen 9. GPGPUs: Grafikkarten als Parallelrechner Dipl.-Inform. Korbinian Molitorisz M. Sc. Luis Manuel Carril Rodriguez KIT Universität des Landes Baden-Württemberg

Mehr

Kick-Off Paralleles Programmieren

Kick-Off Paralleles Programmieren Fakultät Informatik Institut für Software- und Multimediatechnik, Lehrstuhl für Softwaretechnologie Kick-Off Paralleles Programmieren Thomas Kühn Motivation Moore's Law The complexity for minimum component

Mehr

AMTLICHE BEKANNTMACHUNG

AMTLICHE BEKANNTMACHUNG AMTLICHE BEKANNTMACHUNG NUMMER 2017/094 SEITEN 1-6 DATUM 07.04.2017 REDAKTION Sylvia Glaser 3. Ordnung zur Änderung der studiengangspezifischen Prüfungsordnung für den Bachelorstudiengang Informatik der

Mehr

Kapitel 1 Parallele Modelle Wie rechnet man parallel?

Kapitel 1 Parallele Modelle Wie rechnet man parallel? PRAM- PRAM- DAG- R UND R Coles und Kapitel 1 Wie rechnet man parallel? Vorlesung Theorie Paralleler und Verteilter Systeme vom 11. April 2008 der Das DAG- Das PRAM- Das werkmodell Institut für Theoretische

Mehr

Bibliotheks-basierte Virtualisierung

Bibliotheks-basierte Virtualisierung Dr.-Ing. Volkmar Sieh Department Informatik 4 Verteilte Systeme und Betriebssysteme Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2015/2016 V. Sieh Bibliotheks-basierte Virtualisierung (WS15/16)

Mehr

Hardware-unabhängige Beschleunigung von Medizinischer Bildverarbeitung mit OpenCL

Hardware-unabhängige Beschleunigung von Medizinischer Bildverarbeitung mit OpenCL Hardware-unabhängige Beschleunigung von Medizinischer Bildverarbeitung mit OpenCL Christian Siegl 1, Hannes G. Hofmann 1, Benjamin Keck 1, Marcus Prümmer 1, Joachim Hornegger 1,2 1 Lehrstuhl für Mustererkennung,

Mehr

Grundlagen der Programmiersprache C für Studierende der Naturwissenschaften

Grundlagen der Programmiersprache C für Studierende der Naturwissenschaften Grundlagen der Programmiersprache C für Studierende der Naturwissenschaften Teil 7: Matrizen, Vektoren und dynamische Speicherverwaltung Martin Nolte Abteilung für Angewandte Mathematik Universität Freiburg

Mehr

Aktuelle Forschungsprojekte des Distributed Systems Lab

Aktuelle Forschungsprojekte des Distributed Systems Lab Aktuelle Forschungsprojekte des Distributed Systems Lab Bernhard Bauer Programmierung verteilter Systeme Institut für Informatik Universität Augsburg 86135 Augsburg Tel.: +49 821 598-2118 Fax: +49 821

Mehr

Hardware-unabhängige Beschleunigung von Medizinischer Bildverarbeitung mit OpenCL

Hardware-unabhängige Beschleunigung von Medizinischer Bildverarbeitung mit OpenCL Hardware-unabhängige Beschleunigung von Medizinischer Bildverarbeitung mit OpenCL Christian Siegl 1, Hannes G. Hofmann 1, Benjamin Keck 1, Marcus Prümmer 1, Joachim Hornegger 1,2 1 Lehrstuhl für Mustererkennung,

Mehr

Programmiermethodik Vorlesung und Praktikum SS 2001

Programmiermethodik Vorlesung und Praktikum SS 2001 Vorlesung und Praktikum SS 2001 Prof. Dr. W. Effelsberg, G. Kühne, Ch. Kuhmünch Universität Mannheim 1. Einführung 1-1 Inhalt 1. Einführung, Vorstellung der Programmieraufgabe 2. Der Software-Entwicklungszyklus

Mehr

LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610

LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610 LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610 Dominik Weinrich dominik.weinrich@tu-dresden.de Dresden, 30.11.2017 Gliederung Motivation Aufbau und Hardware

Mehr

Grid-Systeme. Betrachtung verschiedener Softwareplattformen zur Realisierung von Grids und Vorstellung des Globus Toolkit. 07.06.2002 Grid Systeme 1

Grid-Systeme. Betrachtung verschiedener Softwareplattformen zur Realisierung von Grids und Vorstellung des Globus Toolkit. 07.06.2002 Grid Systeme 1 Grid-Systeme Betrachtung verschiedener Softwareplattformen zur Realisierung von Grids und Vorstellung des Globus Toolkit 07.06.2002 Grid Systeme 1 Gliederung Vorstellung verschiedener Plattformen Globus

Mehr

Mehrprozessorarchitekturen

Mehrprozessorarchitekturen Mehrprozessorarchitekturen (SMP, UMA/NUMA, Cluster) Arian Bär 12.07.2004 12.07.2004 Arian Bär 1 Gliederung 1. Einleitung 2. Symmetrische Multiprozessoren (SMP) Allgemeines Architektur 3. Speicherarchitekturen

Mehr

Optical Flow im Browser - beschleunigt mit WebGL

Optical Flow im Browser - beschleunigt mit WebGL Optical Flow im Browser - beschleunigt mit WebGL Michael Moese und Marvin Kampf Seminar: Multi-Core Architectures and Programming, SS13 Inhalt 1. Optischer Fluss mit der Census-Transformation 2. Parallele

Mehr

Methodisches Konstruieren

Methodisches Konstruieren Methodisches Konstruieren Informationsveranstaltung Methodisches Konstuieren,10.04.2012 Was passiert in der Informationsveranstaltung und warum besteht Anwesenheitspflicht? Was ist Methodisches Konstruieren??

Mehr

Multi- und Many-Core

Multi- und Many-Core Multi- und Many-Core Benjamin Warnke Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg 2016-12-15 Benjamin

Mehr

Einführung in die Informatik I (autip)

Einführung in die Informatik I (autip) Einführung in die Informatik I (autip) Dr. Stefan Lewandowski Fakultät 5: Informatik, Elektrotechnik und Informationstechnik Abteilung Formale Konzepte Universität Stuttgart 24. Oktober 2007 Was Sie bis

Mehr

WiMa-Praktikum 1. Woche 8

WiMa-Praktikum 1. Woche 8 WiMa-Praktikum 1 Universität Ulm, Sommersemester 2017 Woche 8 Lernziele In diesem Praktikum sollen Sie üben und lernen: Besonderheiten der For-Schleife in Matlab Wiederholung des Umgangs mit Matrizen und

Mehr

Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008

Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008 Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008 Jörg Rödel Virtualization - Whats out there? Virtualisierung hat bereits längere Geschichte auf x86 Startete mit VMware Setzte

Mehr

2. Der ParaNut-Prozessor "Parallel and more than just another CPU core"

2. Der ParaNut-Prozessor Parallel and more than just another CPU core 2. Der ParaNut-Prozessor "Parallel and more than just another CPU core" Neuer, konfigurierbarer Prozessor Parallelität auf Daten- (SIMD) und Thread-Ebene Hohe Skalierbarkeit mit einer Architektur neues

Mehr

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1 Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer

Mehr

StuPro Visualisierung der Ergebnisse von Programmanalysen

StuPro Visualisierung der Ergebnisse von Programmanalysen StuPro Visualisierung der Ergebnisse von Programmanalysen Abteilung Programmiersprachen und Compilerbau Daniel Gerlach, Mikhail Prokharau Universität Stuttgart 15. November 2010 Übersicht Vorstellungsrunde

Mehr

Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Friedrich-Alexander-Universität Erlangen-Nürnberg Prof. Dr.-Ing. J.

Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Friedrich-Alexander-Universität Erlangen-Nürnberg Prof. Dr.-Ing. J. Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) 1 Gliederung Hardware-Software-Co-Design: Entwurf eingebetteter Systeme Beispiele und Anwendungen: wachsende Komplexität zukünftiger elektronischer

Mehr

PROJEKT- UND HAUPTSEMINAR SSE

PROJEKT- UND HAUPTSEMINAR SSE PROJEKT- UND HAUPTSEMINAR SSE Einführungstermin Veranstaltung im Wintersemester 2010 FG System- und Softwareengineering i Prof. Dr.-Ing. Armin Zimmermann, Dr.-Ing. Volker Zerbe Ablauf Heute Organisatorisches

Mehr

Projekt im Sommersemester 2008. Complex and Distributed IT-Systems TU Berlin

Projekt im Sommersemester 2008. Complex and Distributed IT-Systems TU Berlin Virtuelle Systeme Projekt im Sommersemester 2008 Complex and Distributed IT-Systems TU Berlin Beispiel: VMWare 24.10.2007 CIT, Einführung Projekt Virtualisierung 2 Virtualisierung 24.10.2007 CIT, Einführung

Mehr

Einfu hrende Betrachtung des USB und Mo glichkeiten der Integration in das Rainbow-Betriebssystem. Georg Gottleuber 23. Juni 2010 Verteilte Systeme

Einfu hrende Betrachtung des USB und Mo glichkeiten der Integration in das Rainbow-Betriebssystem. Georg Gottleuber 23. Juni 2010 Verteilte Systeme Einfu hrende Betrachtung des USB und Mo glichkeiten der Integration in das Rainbow-Betriebssystem Georg Gottleuber 23. Juni 2010 Verteilte Systeme Seite 2 G. Gottleuber USB und Rainbow 23. Juni 2010 Inhaltsverzeichnis

Mehr

Seminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit OpenMP 4.5 und OpenACC 2.5 im Vergleich

Seminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit OpenMP 4.5 und OpenACC 2.5 im Vergleich Seminarvortrag: Direktivenbasierte Programmierung von Beschleunigern mit Direktivenbasierte Programmierung von Beschleunigern mit Agenda Einführung / Motivation Überblick zu OpenMP und OpenACC Asynchronität

Mehr

PGI Accelerator Model

PGI Accelerator Model PGI Accelerator Model Philip Höhlein, Nils Werner Supervision: R. Membarth, P. Kutzer, F. Hannig Hardware-Software-Co-Design Universität Erlangen-Nürnberg Philip Höhlein, Nils Werner 1 Übersicht Motivation

Mehr

Einführung in die Informatik

Einführung in die Informatik Einführung in die Informatik Einleitung Organisatorisches, Motivation, Herangehensweise Wolfram Burgard 1.1 Vorlesung Zeit und Ort: Mittwochs 14.00 16.00 Uhr Gebäude 101 HS 00-026 Informationen zur Vorlesung,

Mehr

Vorstellung der Fachgebiete

Vorstellung der Fachgebiete Fakultät Informatik, Institut für Technische Informatik, Professur Rechnerarchitektur Vorstellung der Fachgebiete Institut für Technische Informatik Zellescher Weg 12 Nöthnitzer Straße 46 Willers-Bau A

Mehr

Lehrveranstaltungen WS 2017/2018

Lehrveranstaltungen WS 2017/2018 Lehrveranstaltungen WS 2017/2018 Grundlagenmodule der Informatik (1. - 4. Fachsemester Bachelor) Programmierung Leistungspunkte: 10 Aufnahmekapazität für Studium Universale: 10 Teilnehmer / 2 ECP's Vorlesung:

Mehr

Methodisches Konstruieren

Methodisches Konstruieren Methodisches Konstruieren Informationsveranstaltung Methodisches Konstuieren,18.10.2011 Was passiert in der Informationsveranstaltung und warum besteht??????????? Anwesenheitspflicht? Was ist Methodisches

Mehr

OpenMP. Viktor Styrbul

OpenMP. Viktor Styrbul OpenMP Viktor Styrbul Inhaltsverzeichnis Was ist OpenMP Warum Parallelisierung Geschichte Merkmale von OpenMP OpenMP-fähige Compiler OpenMP Ausführungsmodell Kernelemente von OpenMP Zusammenfassung Was

Mehr

Protected User-Level DMA in SCI Shared Memory Umgebungen

Protected User-Level DMA in SCI Shared Memory Umgebungen Protected User-Level DMA in SCI Shared Memory Umgebungen Mario Trams University of Technology Chemnitz, Chair of Computer Architecture 6. Halle Chemnitz Seminar zu Parallelverarbeitung und Programmiersprachen

Mehr