Linux-Cluster mit Raspberry Pi. Dr. René Richter Sächsische Studienakademie Dresden

Größe: px
Ab Seite anzeigen:

Download "Linux-Cluster mit Raspberry Pi. Dr. René Richter Sächsische Studienakademie Dresden rene.richter@ba-dresden rene.richter@namespace-cpp."

Transkript

1 Linux-Cluster mit Raspberry Pi Dr. René Richter Sächsische Studienakademie Dresden Lange Nacht der Wissenschaften 2013

2 Moore s Law Moore s Law (1965) Transistorzahl pro Chip verdoppelt sich aller Monate Taktfrequenz... Andy Groove, Robert Noyce, Gordon Moore (1978) Free Lunch Gordon [Moore] gives, Bill [Gates] takes away. Free Lunch Is Over The Free Lunch Is Over Dr. Dobb s Journal, 30(3), March 2005 Herb Sutter ISO C++ Standard Komitee

3 Amdahl s Law Parallelverarbeitung sequenziell: t s =1=s + p parallel: t p = s + p/n Amdahl s Law (1967) Beschleunigung t s /t p =1/(s + p/n) Amdahl s Law Kommunikation: Synchronisation + Datenaustausch t s /t p =1/(s + p/n + n k) Beschleunigung./. Prozessorzahl

4 OpenMP Open MP #define N int main() { int i, a[n]; //... #pragma omp parallel for for (i = 0; i < N; i++) { a[i]= 2 * i; } } Shared Memory Multi-Processing nutzt mehrere CPUs GPGPU General Purpose GPU Programming Compute Unified Device Architecture ATI Stream Open CL

5 GPGPU Massiv-parallele Verarbeitung OpenMPI Open MPI Message Passing Interface Verteiltes System Kommunikation über TCP/IP-Netz:

6 OpenMPI Grundwissen Informatiker Verteilte Systeme Netze: TCP/IP Socket-Programmierung Kryptographie passwortlose SSH-Verbindung Public-Key-Kryptographie RSA-Verschlüsselung OpenMPI -----BEGIN RSA PRIVATE KEY----- MIIEpQIBAAKCAQEA1KRrgBpph8Rik0C0vY9VnNCRFNAnYbV0L18Olxjs6JdW7ukx 9XyWVejcgRmK8h2Tq92zNJ6Rgv2e3b0x5F1qfphAl2n2cRGMVK7wpjWbZvW258rD SRrJ23FBofFezm9OavC0wvdy9jmhiWIAnFmzqmFpIL1H7WqVMlIPJAGxSnejczZT TGirISMYGTLIT8PfPk8DnwttzSHfkHVeaOnISvsXHyfbAzIyvUGnCJSjcX2G+4vv u7iwev1vwzjk+c44j5em2bpknczuahoqnasumurzqpf0pjx0d1pde+scmqliffzs z0wvriyyzuyeoomfjlsecvtm5aovmt6tskwktwidaqabaoibaqchyasjoy0/cdru ZgrsiR5Luao04xW/qqQvKMkEQBVNPFVXxFZPYiPgzGHfO+Dvpw8GpB7dSHuCN3D2 4eaq6yLLOKoe/JKviCmdHMgQOh8XnSb3Smus1oZf1SqhLShcLBd0FI4xdxPVWfnT mvailkxdu0mqwhi6qnp+cco9lwph6tvv0esgy/6qibhbufnsir4uwwajnufiqlgk WtVI5Z3Mv5oWeSgp+EuJ2vdysuRUbyUTFSDUZbnL+HRHlUDHzXVgfM1S/j22QbrS UvW9gfgiVoE1Cd4zAfmZzAfHBtte15mLs2w5KxI/rpzyFkB8qHcM5xH7w5qVj1fs RgRypW8ZAoGBAPtczASrOomUCuc5XeoMuyjwhYIJlDpaum7tHZ2IC1R3+U2Kyurf 3j+6jgPId7HcEBTrat4iqx5Bcjl+BXm72n3HPmNjBFT2kBqD35Q1Yu8Ie9mwRdM2 UobYyTxbW8bf1McLoGiAlihaRJM9FsWJwR+hbXjYPCQYmioqnOBGARL9AoGBANiQ vp1hwjchghviy+vz5cmfgyend9wmlvielptuhthr66cym8pb17divgknhqqrxwx5 j9gx7dxeogvot5+ewvzqkipcnf3bvjqglx1c6hr3few/ktd2devpcf99uokgq3uc 6DVULn9h80WtApVITxJJBOw285iGiT9KWlNlcqTDAoGBAOGYmJb8Is6Fav+5cft0 r6l/rsnxe4ygd0etwo4gwqjubvc8qqbqkesigqeom7csnfbylzkgpppdo0pmqhfo rltetk8e+c1vgwjixxaalg+ymqd22erhnexgtt2p1r/5ldulkm2b0skmuxm4wa6z Avxjgn/5+oge+IYttpxm1+H1AoGBAMQNHRKayNnOAx1ZiCQGSCAypVVqDP72bi9v 8gdF8vwbiF8FCnWCb8erkz/caDsdcVr8tvS4jO2lqctdaB+PkU1FGVdvZNTG2GQQ WTaTOJ8eofh4gVadXhOFqLBrXzdkpszKCe8lO0bEJJgiDKGaKULzaYpyIMommR77 r5op1krdaogadxtctzdqrz3jljuuhmeveqlzusain4tkklzptqxiskgqncc0ivtz 9xip0enW9YMdhX/mMa5EqcPikdGjWpuMqWWqO9nrB5kSMPLZ9l3hURywTHyKktOi VBMXDN+W9jLNyNdPnwLBLDRW0QdIBnPD9XcCF8qo+HN1j9fogtIOLOU= -----END RSA PRIVATE KEY-----

7 Supercomputer University of Southampton (Sept 2012) Prof. Simon Cox et al. 64 Raspberry Pi + Lego < 5000 britische Pfund Stromverbrauch 13 A Raspberry Pi Raspberry Pi Einplatinenrechner ARM 700 Mhz 0,175 Giga-Flops 2GB SD-Karte Raspian Linux als Bastelrechner konzipiert

8 Raspberry Pi Eigenbau μpi 3 Raspberry Pi + Lego < 150 EUR Anleitung: Uni Southampton Raspberry Pi Schema

9 Quellen / weiterführende Informationen: Lange Nacht der Wissenschaften 2013

Kick-Off Paralleles Programmieren

Kick-Off Paralleles Programmieren Fakultät Informatik Institut für Software- und Multimediatechnik, Lehrstuhl für Softwaretechnologie Kick-Off Paralleles Programmieren Thomas Kühn Motivation Moore's Law The complexity for minimum component

Mehr

Moderne parallele Rechnerarchitekturen

Moderne parallele Rechnerarchitekturen Seminar im WS0708 Moderne parallele Rechnerarchitekturen Prof. Sergei Gorlatch Dipl.-Inf. Maraike Schellmann schellmann@uni-muenster.de Einsteinstr. 62, Raum 710, Tel. 83-32744 Dipl.-Inf. Philipp Kegel

Mehr

Computergrundlagen Moderne Rechnerarchitekturen

Computergrundlagen Moderne Rechnerarchitekturen Computergrundlagen Moderne Rechnerarchitekturen Axel Arnold Institut für Computerphysik Universität Stuttgart Wintersemester 2010/11 Aufbau eines modernen Computers DDR3- Speicher Prozessor Prozessor PEG

Mehr

Nutzung paralleler Prozesse bei der Umweltsimulation

Nutzung paralleler Prozesse bei der Umweltsimulation Nutzung paralleler Prozesse bei der Umweltsimulation RALF Wieland rwieland@zalf.de ZALF/LSA Nutzung paralleler Prozesse bei der Umweltsimulation p. 1 Warum parallele Prozesse? Die Steigerung der Taktfrequenz

Mehr

Programmierung von Multicore-Rechnern

Programmierung von Multicore-Rechnern Programmierung von Multicore-Rechnern Prof. Dr.-Ing. habil. Peter Sobe HTW Dresden, Fakultät Informatik/Mathematik www.informatik.htw-dresden.de Gliederung: Ein Blick auf Multicore-Prozessoren/ und -Rechner

Mehr

Computergrundlagen Moderne Rechnerarchitekturen

Computergrundlagen Moderne Rechnerarchitekturen Aufbau eines modernen Computers Computergrundlagen Moderne Rechnerarchitekturen Axel Arnold Institut für Computerphysik Universität Stuttgart DDR3- Speicher Prozessor Prozessor PEG Graphikkarte(n) weitere

Mehr

Parallele Programmierung mit OpenMP

Parallele Programmierung mit OpenMP Parallele Programmierung mit OpenMP - Eine kurze Einführung - 11.06.2003 RRZN Kolloquium SS 2003 1 Gliederung 1. Grundlagen 2. Programmiermodell 3. Sprachkonstrukte 4. Vergleich MPI und OpenMP 11.06.2003

Mehr

C C. Hochleistungsrechnen (HPC) auf dem Windows Compute Cluster des RZ der RWTH Aachen. 1 WinHPC 2006 - Einführung Center. 31.

C C. Hochleistungsrechnen (HPC) auf dem Windows Compute Cluster des RZ der RWTH Aachen. 1 WinHPC 2006 - Einführung Center. 31. Hochleistungsrechnen (HP) auf dem Windows ompute luster des RZ der RWTH Aachen 31. Mai 2006 hristian Terboven Dieter an Mey {terboven anmey}@rz.rwth-aachen.de 1 WinHP 2006 - Einführung enter SunFire V40z

Mehr

RST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck

RST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck RST-Labor WS06/07 GPGPU General Purpose Computation On Graphics Processing Units (Grafikkarten-Programmierung) Von: Marc Blunck Ablauf Einführung GPGPU Die GPU GPU Architektur Die Programmierung Programme

Mehr

Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern

Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern Institut für Betriebssysteme und Rechnerverbund TU Braunschweig 25.10., 26.10.

Mehr

Seminar GPU-Programmierung/Parallelverarbeitung

Seminar GPU-Programmierung/Parallelverarbeitung Seite iv Literaturverzeichnis 1) Bengel, G.; et al.: Masterkurs Parallele und Verteilte Systeme. Vieweg + Teubner, Wiesbaden, 2008. 2) Breshears, C.: The Art of Concurrency - A Thread Monkey's Guide to

Mehr

Compute Unified Device Architecture CUDA

Compute Unified Device Architecture CUDA Compute Unified Device Architecture 06. Februar 2012 1 / 13 Gliederung 2 / 13 : Compute Unified Device Architecture entwickelt von Nvidia Corporation spezifiziert Software- und Hardwareeigenschaften Ziel:

Mehr

OpenMP. Viktor Styrbul

OpenMP. Viktor Styrbul OpenMP Viktor Styrbul Inhaltsverzeichnis Was ist OpenMP Warum Parallelisierung Geschichte Merkmale von OpenMP OpenMP-fähige Compiler OpenMP Ausführungsmodell Kernelemente von OpenMP Zusammenfassung Was

Mehr

Raspberry Pi. Einführung Pi and More 5 Nico Maas

Raspberry Pi. Einführung Pi and More 5 Nico Maas Raspberry Pi Einführung Pi and More 5 Nico Maas Zur Person Nico Maas IT Systemelektroniker (RZ UNI SB) Praktische Informatik (HTW SB) mail@nico-maas.de www.nico-maas.de @nmaas87 29.05.2014 Nico Maas /

Mehr

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Scientific Computing 07. Oktober 2009 Siegfried Benkner Wilfried Gansterer Fakultät für Informatik Universität Wien www.cs.univie.ac.at

Mehr

Computational Biology: Bioelektromagnetismus und Biomechanik

Computational Biology: Bioelektromagnetismus und Biomechanik Computational Biology: Bioelektromagnetismus und Biomechanik Implementierung Gliederung Wiederholung: Biomechanik III Statische Elastomechanik Finite Elemente Diskretisierung Finite Differenzen Diskretisierung

Mehr

Praktikum: Paralleles Programmieren für Geowissenschaftler

Praktikum: Paralleles Programmieren für Geowissenschaftler Praktikum: Paralleles Programmieren für Geowissenschaftler Prof. Thomas Ludwig, Hermann Lenhart, Nathanael Hübbe hermann.lenhart@zmaw.de MPI Einführung I: Hardware Voraussetzung zur Parallelen Programmierung

Mehr

27. Parallel Programming I

27. Parallel Programming I The Free Lunch 27. Parallel Programming I Moore s Law und The Free Lunch, Hardware Architekturen, Parallele Ausführung, Klassifikation nach Flynn, Multi-Threading, Parallelität und Nebenläufigkeit, Skalierbarkeit:

Mehr

27. Parallel Programming I

27. Parallel Programming I 771 27. Parallel Programming I Moore s Law und The Free Lunch, Hardware Architekturen, Parallele Ausführung, Klassifikation nach Flynn, Multi-Threading, Parallelität und Nebenläufigkeit, Skalierbarkeit:

Mehr

Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation

Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation Dr. Jan Eitzinger Regionales Rechenzentrum (RRZE) der Universität Erlangen-Nürnberg

Mehr

General Purpose Computation on GPUs

General Purpose Computation on GPUs General Purpose Computation on GPUs Matthias Schneider, Robert Grimm Universität Erlangen-Nürnberg {matthias.schneider, robert.grimm}@informatik.stud.uni-erlangen.de M. Schneider, R. Grimm 1 Übersicht

Mehr

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1 Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer

Mehr

2 Rechnerarchitekturen

2 Rechnerarchitekturen 2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf

Mehr

Rheinisch-Westfälische Technische Hochschule Aachen. Seminararbeit

Rheinisch-Westfälische Technische Hochschule Aachen. Seminararbeit Rheinisch-Westfälische Technische Hochschule Aachen Seminararbeit Analyse von General Purpose Computation on Graphics Processing Units Bibliotheken in Bezug auf GPU-Hersteller. Gregori Kerber Matrikelnummer

Mehr

GPGPU mit NVIDIA CUDA

GPGPU mit NVIDIA CUDA 01.07.12 GPGPU mit NVIDIA CUDA General-Purpose on Formatvorlagecomputing des Graphics Processing durch Units Untertitelmasters mit KlickenCompute bearbeiten NVIDIA Unified Device Architecture Gliederung

Mehr

Leihmaterialien des FSR Informatik der Technische Universität Dresden

Leihmaterialien des FSR Informatik der Technische Universität Dresden Leihmaterialien des FSR Informatik der Technische Universität Dresden 29. Januar 2015 Inhaltsverzeichnis 1 Elektronische Geräte 2 1.1 Gigabit-Switch.............................................. 2 1.2

Mehr

CUDA. Moritz Wild, Jan-Hugo Lupp. Seminar Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg

CUDA. Moritz Wild, Jan-Hugo Lupp. Seminar Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg CUDA Seminar Multi-Core Architectures and Programming 1 Übersicht Einleitung Architektur Programmierung 2 Einleitung Computations on GPU 2003 Probleme Hohe Kenntnisse der Grafikprogrammierung nötig Unterschiedliche

Mehr

27. Parallel Programming I

27. Parallel Programming I 771 27. Parallel Programming I Moore s Law und The Free Lunch, Hardware Architekturen, Parallele Ausführung, Klassifikation nach Flynn, Multi-Threading, Parallelität und Nebenläufigkeit, Skalierbarkeit:

Mehr

Rechnernetze an der HS-Harz. Dipl.-Inf. Michael Wilhelm. Dipl.-Ing. May

Rechnernetze an der HS-Harz. Dipl.-Inf. Michael Wilhelm. Dipl.-Ing. May Rechnernetze an der HS-Harz Dipl.-Inf. Michael Wilhelm Dipl.-Ing. May FB Automatisierung und Informatik 1 Konzept HS-Harz: Netzwerk-PC Server 120 Rechner in mehreren Räumen / Häusern Programme lokal installiert

Mehr

Projektseminar Parallele Programmierung

Projektseminar Parallele Programmierung HTW Dresden WS 2014/2015 Organisatorisches Praktikum, 4 SWS Do. 15:00-18:20 Uhr, Z136c, 2 Doppelstunden o.g. Termin ist als Treffpunkt zu verstehen Labore Z 136c / Z 355 sind Montag und Donnerstag 15:00-18:20

Mehr

Physikalische Berechnungen mit General Purpose Graphics Processing Units (GPGPUs)

Physikalische Berechnungen mit General Purpose Graphics Processing Units (GPGPUs) Fakultätsname XYZ Fachrichtung XYZ Institutsname XYZ, Professur XYZ Physikalische Berechnungen mit General Purpose Graphics Processing Units (GPGPUs) im Rahmen des Proseminars Technische Informatik Juni

Mehr

Raspberry Pi. Einführung Pi and More 6 Nico Maas

Raspberry Pi. Einführung Pi and More 6 Nico Maas Raspberry Pi Einführung Pi and More 6 Nico Maas Zur Person Nico Maas IT Systemelektroniker (RZ UNI SB) Bachelor of Science (HTW SB) mail@nico-maas.de www.nico-maas.de @nmaas87 28.01.2015 Nico Maas / www.nico-maas.de

Mehr

Hochleistungsrechnen Hybride Parallele Programmierung. Prof. Dr. Thomas Ludwig Universität Hamburg Informatik Wissenschaftliches Rechnen

Hochleistungsrechnen Hybride Parallele Programmierung. Prof. Dr. Thomas Ludwig Universität Hamburg Informatik Wissenschaftliches Rechnen Hochleistungsrechnen Hybride Parallele Programmierung Prof. Dr. Thomas Ludwig Universität Hamburg Informatik Wissenschaftliches Rechnen Inhaltsübersicht Einleitung und Motivation Programmiermodelle für

Mehr

27. Parallel Programming I

27. Parallel Programming I 760 27. Parallel Programming I Moore s Law und The Free Lunch, Hardware Architekturen, Parallele Ausführung, Klassifikation nach Flynn, Multi-Threading, Parallelität und Nebenläufigkeit, Skalierbarkeit:

Mehr

27. Parallel Programming I

27. Parallel Programming I The Free Lunch 27. Parallel Programming I Moore s Law und The Free Lunch, Hardware Architekturen, Parallele Ausführung, Klassifikation nach Flynn, Multi-Threading, Parallelität und Nebenläufigkeit, Skalierbarkeit:

Mehr

Einführung in die Parallele Programmierung

Einführung in die Parallele Programmierung Einführung in die Parallele Programmierung K. Benkert 1, A. Stock 2 1 High Performance Computing Centre Stuttgart www.hlrs.de Universität Stuttgart 2 Institut für Aerodynamik und Gasdynamik (IAG) www.iag.uni-stuttgart.de

Mehr

Super rechnen ohne Superrechner Oder: Was hat das Grid mit Monte Carlo zu tun?

Super rechnen ohne Superrechner Oder: Was hat das Grid mit Monte Carlo zu tun? Super rechnen ohne Superrechner Oder: Was hat das Grid mit Monte Carlo zu tun? Marius Mertens 20.02.2015 Super rechnen ohne Superrechner? Warum? Algorithmik und Parallelisierung Wie? Alternative Architekturen

Mehr

Seminar SS 09 Amdahl`s Law and Cloud-Computing

Seminar SS 09 Amdahl`s Law and Cloud-Computing Seminar SS 09 Amdahl`s Law and Cloud-Computing Prof. G. Bengel Fakultät für Informatik SEMB 7IBW 8IB Raum HO609 Mo 9:45-11:15 1. Teil: Amdahl sches Gesetz 1. Vortrag Das Gesetz von Amdahl und Gustafson

Mehr

Konzepte der parallelen Programmierung

Konzepte der parallelen Programmierung Fakultät Informatik, Institut für Technische Informatik, Professur Rechnerarchitektur Konzepte der parallelen Programmierung Parallele Programmiermodelle Nöthnitzer Straße 46 Raum 1029 Tel. +49 351-463

Mehr

High-Performance Bildverarbeitung (nicht nur) mit JAVA. Prof. Dr.Thomas Netzsch - Hochschule Darmstadt - University of Applied Sciences

High-Performance Bildverarbeitung (nicht nur) mit JAVA. Prof. Dr.Thomas Netzsch - Hochschule Darmstadt - University of Applied Sciences High-Performance Bildverarbeitung (nicht nur) mit JAVA 1 High-Performance Bildverarbeitung (nicht nur) mit JAVA Fragen: wie kann ein typisches BV-Unternehmen wirtschaftlich an der aktuellen Hardwareentwicklung

Mehr

Masterpraktikum Scientific Computing

Masterpraktikum Scientific Computing Masterpraktikum Scientific Computing High-Performance Computing Thomas Auckenthaler Wolfgang Eckhardt Prof. Dr. Michael Bader Technische Universität München, Germany Outline Organisatorisches Entwicklung

Mehr

Einige Grundlagen zu OpenMP

Einige Grundlagen zu OpenMP Einige Grundlagen zu OpenMP Stephanie Friedhoff, Martin Lanser Mathematisches Institut Universität zu Köln 22. Juni 2016 Überblick Was ist OpenMP? Basics Das OpenMP fork-join-modell Kompilieren und Ausführen

Mehr

Parallelisierung auf MPSoC-Plattformen

Parallelisierung auf MPSoC-Plattformen Anwendungen 1 Parallelisierung auf MPSoC-Plattformen MINF 1, WiSe2011 Anwendungen 1 17.11.2011 Betreuer: Prof. Dr. Schwarz Übersicht 1. 2. 3. 4. 5. Einleitung Multiprozessor- Architekturen SMP im Linux

Mehr

Klausur zu High Performance Computing 09. Juli 2011, SS 2011

Klausur zu High Performance Computing 09. Juli 2011, SS 2011 Alexander Vondrous, Britta Nestler, Fakultät IWI, Hochschule Karlsruhe Klausur zu High Performance Computing 09. Juli 2011, SS 2011 Es sind keine Hilfsmittel zugelassen. Bearbeitungszeit: 90 Minuten Aufgabe

Mehr

Ausarbeitung Seminarvortrag High-Performance-Computing WS 2011/2012

Ausarbeitung Seminarvortrag High-Performance-Computing WS 2011/2012 Ausarbeitung Seminarvortrag High-Performance-Computing WS 2011/2012 Matthias Bott 9. Januar 2012 2 VOM PC ZUM HPC 2 1 Movtivation Auf die Frage, wofür Computer in der Kernphysik benötigt werden, gibt es

Mehr

OpenCL. OpenCL. Boris Totev, Cornelius Knap

OpenCL. OpenCL. Boris Totev, Cornelius Knap OpenCL OpenCL 1 OpenCL Gliederung Entstehungsgeschichte von OpenCL Was, warum und überhaupt wieso OpenCL CUDA, OpenGL und OpenCL GPUs OpenCL Objekte Work-Units OpenCL Adressbereiche OpenCL API Codebeispiel

Mehr

Making the Internet of Things

Making the Internet of Things DARIUSH FOROUHER ITI Uni Lübeck DANIEL LOOS 3. Sem. MLS Making the Internet of Things EIN ÜBERBLICK ÜBER PHYSICAL COMPUTING PLATTFORMS Das Internet der Dinge Inhalt Übersicht Arduino Raspberry PI Andere

Mehr

Aufbau und Funktionsweise eines Computers

Aufbau und Funktionsweise eines Computers Aufbau und Funktionsweise eines Computers Thomas Röfer Hardware und Software von Neumann Architektur Schichtenmodell der Software Zahlsysteme Repräsentation von Daten im Computer Hardware Prozessor (CPU)

Mehr

TSM 5.2 Experiences Lothar Wollschläger Zentralinstitut für Angewandte Mathematik Forschungszentrum Jülich

TSM 5.2 Experiences Lothar Wollschläger Zentralinstitut für Angewandte Mathematik Forschungszentrum Jülich TSM 5.2 Experiences Lothar Wollschläger Zentralinstitut für Angewandte Mathematik Forschungszentrum Jülich L.Wollschlaeger@fz-juelich.de Contents TSM Test Configuration Supercomputer Data Management TSM-HSM

Mehr

Die Marvel, ein gedrosselter Supercomputer

Die Marvel, ein gedrosselter Supercomputer Die Marvel, ein gedrosselter Supercomputer Warum ist die Marvel so schnell? Warum ist die Marvel so langsam? Erfahrungen mit dem Softwaresupport Warum ist die Marvel so schnell? Hardware Z.Cvetanovic,

Mehr

Staff. Tim Conrad. Zeitplan. Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2013. Tim Conrad

Staff. Tim Conrad. Zeitplan. Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2013. Tim Conrad Blockseminar: Verteiltes Rechnen und Parallelprogrammierung Sommer Semester 2013 Tim Conrad Staff Tim Conrad AG Computational Proteomics email: conrad@math.fu-berlin.de Telefon: 838-51445 Büro: Raum 138,

Mehr

Masterpraktikum Scientific Computing

Masterpraktikum Scientific Computing Masterpraktikum Scientific Computing High-Performance Computing Thomas Auckenthaler Wolfgang Eckhardt Technische Universität München, Germany Outline Entwicklung General Purpose GPU Programming (GPGPU)

Mehr

Gliederung. Problemstellung Motivation Multi-Agenten Simulation GPU Programmierung Stand der Technik Abgrenzung

Gliederung. Problemstellung Motivation Multi-Agenten Simulation GPU Programmierung Stand der Technik Abgrenzung Philipp Kayser Gliederung Problemstellung Motivation Multi-Agenten Simulation GPU Programmierung Stand der Technik Abgrenzung Multi-Agenten Simulation (MAS) simuliert durch eine Vielzahl von Agenten Die

Mehr

USB-Tokens. Technik und Einsatzgebiete

USB-Tokens. Technik und Einsatzgebiete USB-Tokens Technik und Einsatzgebiete Vortrag im Rahmen der Lehrveranstaltung Chipkartensysteme und E-Payment im SS05 an der Fachhochschule Bonn-Rhein-Sieg Outline Passwortmanager PKI Smartcards USB-Tokens

Mehr

Strukturelemente von Parallelrechnern

Strukturelemente von Parallelrechnern Strukturelemente von Parallelrechnern Parallelrechner besteht aus einer Menge von Verarbeitungselementen, die in einer koordinierten Weise, teilweise zeitgleich, zusammenarbeiten, um eine Aufgabe zu lösen

Mehr

Die Vision Landschaft und was sie mit Moore s Gesetz zu tun hat

Die Vision Landschaft und was sie mit Moore s Gesetz zu tun hat Die Vision Landschaft und was sie mit Moore s Gesetz zu tun hat Horst A. Mattfeldt Produkt Manager Matrix Vision GmbH V1.0 10/2010 MATRIX VISION GmbH 1 Inhalt/Content: Vom Vision Sensor über Atom Boxen

Mehr

Paralleler Cuckoo-Filter. Seminar: Implementierungstechniken für Hauptspeicherdatenbanksysteme Jeremias Neth München, 21.

Paralleler Cuckoo-Filter. Seminar: Implementierungstechniken für Hauptspeicherdatenbanksysteme Jeremias Neth München, 21. Paralleler Cuckoo-Filter Seminar: Implementierungstechniken für Hauptspeicherdatenbanksysteme Jeremias Neth München, 21. November 2017 1 Paralleler Cuckoo-Filter Cuckoo-Hashtabelle Serieller Cuckoo-Filter

Mehr

Entwicklung algorithmischer Skelette für CUDA am Beispiel von Affintiy Propagation

Entwicklung algorithmischer Skelette für CUDA am Beispiel von Affintiy Propagation Entwicklung algorithmischer Skelette für CUDA am Beispiel von Affintiy Propagation Christoph Winter Fakultät für Informatik und Mathematik Ostbayerische Technische Hochschule Regensburg 93049 Regensburg

Mehr

OpenCL. Programmiersprachen im Multicore-Zeitalter. Tim Wiersdörfer

OpenCL. Programmiersprachen im Multicore-Zeitalter. Tim Wiersdörfer OpenCL Programmiersprachen im Multicore-Zeitalter Tim Wiersdörfer Inhaltsverzeichnis 1. Was ist OpenCL 2. Entwicklung von OpenCL 3. OpenCL Modelle 1. Plattform-Modell 2. Ausführungs-Modell 3. Speicher-Modell

Mehr

Multi-threaded Programming with Cilk

Multi-threaded Programming with Cilk Multi-threaded Programming with Cilk Hobli Taffame Institut für Informatik Ruprecht-Karls Universität Heidelberg 3. Juli 2013 1 / 27 Inhaltsverzeichnis 1 Einleitung Warum Multithreading? Ziele 2 Was ist

Mehr

OpenCL Implementierung von OpenCV Funktionen

OpenCL Implementierung von OpenCV Funktionen Multi-Core Architectures and Programming OpenCL Implementierung von OpenCV Funktionen julian.mueller@e-technik.stud.uni-erlangen.de Hardware/Software Co-Design August 18, 2011 1 Table of content 1 OpenCL

Mehr

GPGPU-Programmierung

GPGPU-Programmierung 12 GPGPU-Programmierung 2013/04/25 Diese Folien enthalten Graphiken mit Nutzungseinschränkungen. Das Kopieren der Graphiken ist im Allgemeinen nicht erlaubt. Motivation (1) General Purpose Computing on

Mehr

Master-Thread führt Programm aus, bis durch die Direktive

Master-Thread führt Programm aus, bis durch die Direktive OpenMP seit 1998 Standard (www.openmp.org) für die Shared-Memory Programmierung; (Prä-)Compiler für viele Systeme kommerziell oder frei (z.b. Omni von phase.hpcc.jp/omni) verfügbar Idee: automatische Generierung

Mehr

Integrationsseminar und Projekt: IoT und Embedded-Workshop mit Raspberry Pi

Integrationsseminar und Projekt: IoT und Embedded-Workshop mit Raspberry Pi Integrationsseminar und Projekt: IoT und Embedded-Workshop mit Raspberry Pi Embedded und IoT-Devices im Alltag Kurzer Einblick in die Geschichte Vorstellung gängiger Hardwareplattformen Fallbeispiel für

Mehr

Excel beschleunigen mit dem mit Windows HPC Server 2008 R2

Excel beschleunigen mit dem mit Windows HPC Server 2008 R2 Excel beschleunigen mit dem mit Windows HPC Server 2008 R2 Steffen Krause Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/steffenk Haftungsausschluss Microsoft kann für die Richtigkeit

Mehr

Parallele Rechnerarchitekturen

Parallele Rechnerarchitekturen Bachelor Parallele en Informatik 3 ( ) Prof. Dietmar Fey Ziel des s Paralleles Rechnen Keine akademische Nische mehr Vielmehr Allgemeingut für den Beruf des Informatikers Bedingt durch Multikern- (und

Mehr

Raiffeisen News Unsere aktuellen Angebote im Januar 2014

Raiffeisen News Unsere aktuellen Angebote im Januar 2014 richten sich an Anleger, die ein richten sich an Anleger, die ein richten sich an Anleger, die ein richten sich an Anleger, die ein richten sich an Anleger, die ein richten sich an Anleger, die ein richten

Mehr

Universität Karlsruhe (TH)

Universität Karlsruhe (TH) Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Parallelism in curricula An international survey November 7, 2008 Stuttgart, Germany David Meder Dr. Victor Pankratius For comments: multicore-systems@ipd.uni-karlsruhe.de

Mehr

PGI Accelerator Model

PGI Accelerator Model PGI Accelerator Model Philip Höhlein, Nils Werner Supervision: R. Membarth, P. Kutzer, F. Hannig Hardware-Software-Co-Design Universität Erlangen-Nürnberg Philip Höhlein, Nils Werner 1 Übersicht Motivation

Mehr

VAX2go ein Projekt der Gruppe Damn small VAX

VAX2go ein Projekt der Gruppe Damn small VAX VAX2go ein Projekt der Gruppe Damn small VAX Fachbereich Informatik, Technische Universität Darmstadt, Oliver Bach (bach@decfreak.de) Foto: Bernd Ulmann 27-APR-2010 FB Informatik, TU Darmstadt Oliver Bach,

Mehr

Projektseminar Parallele Programmierung

Projektseminar Parallele Programmierung HTW Dresden WS 2017/2018 Organisatorisches Praktikum, 4 SWS Do. 15:10-18:30 Uhr, Z136c, 2 Doppelstunden Labor Z 136c ist Donnerstag 15:10-18:30 reserviert, gemeinsam mit anderen Projektseminaren Selbständige

Mehr

Transparente Nutzung von Multi-GPU Cluster unter Java/OpenMP

Transparente Nutzung von Multi-GPU Cluster unter Java/OpenMP Transparente Nutzung von Multi-GPU Cluster unter Java/OpenMP Dipl. Inf. Thorsten Blaß Programming Systems Group Martensstraße 3 91058 Erlangen Ausblick Motivation Einführung Java/OpenMP (JaMP) JaMP Sprache

Mehr

Grundlagen der Anwendung und Programmierung des ESP8266. Dennis Hoffmann Mittwoch, :30 Uhr Schulungsraum SW23/147

Grundlagen der Anwendung und Programmierung des ESP8266. Dennis Hoffmann Mittwoch, :30 Uhr Schulungsraum SW23/147 Grundlagen der Anwendung und Programmierung des ESP8266 Dennis Hoffmann Mittwoch, 11.01.2017 08:30 Uhr Schulungsraum SW23/147 Inhalt Mikrocontroller ESP8266 Entwicklungsumgebung Firmware Beispiele Projekte

Mehr

Energieeffiziente Empfänger in Sensornetzwerken

Energieeffiziente Empfänger in Sensornetzwerken Fakultät Informatik, Institut für Angewandte Informatik, Professur für Technische Informationssysteme Energieeffiziente Empfänger in Sensornetzwerken Dresden, 09.01.2012 Motivation Wie kann man alle Geräte

Mehr

Christopher Schleiden

Christopher Schleiden Christopher Schleiden 5.6.2009 Ganz allgemein: Parallele Ausführung von Code 1 Prozess Gesamtaufgabe Ergebnis 4 Prozesse / Threads Gesamtaufgabe Teilaufgaben Einzelberechnung Ergebnis 5 Shared Processor

Mehr

GNUBLIN, die offene EmbeddedPlattform für die Ausbildung

GNUBLIN, die offene EmbeddedPlattform für die Ausbildung GNUBLIN, die offene EmbeddedPlattform für die Ausbildung Benedikt Sauter Linuxtag Berlin 23.05.2013 Zur Person Benedikt Sauter Informatiker Interessen: Mikrocontroller, Linux, Web Diverse Open-Source Projekte

Mehr

11. Mehrrechner-DBMSe / Datenbankmaschinen

11. Mehrrechner-DBMSe / Datenbankmaschinen 11. Mehrrechner-e / Datenbankmaschinen In der Vergangenheit DB-Maschinen oft auf Basis von Spezial-HW-/SW Schnittstelle Anwendungsprogramm - DB-Maschine oft "nicht hoch" genug Interaktion und Integration

Mehr

Multicore-Architekturen

Multicore-Architekturen Universität Erlangen- Nürnberg Technische Universität München Universität Stuttgart Multicore-Architekturen Vortrag im Rahmen der Ferienakademie 2009 Kurs 1: Programmierkonzepte für Multi-Core Rechner

Mehr

Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP)

Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP) Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP) @wefinet Werner Fischer, Thomas-Krenn.AG Webinar, 17. Oktober 2017 Intel Xeon Scalable Performance _ Das ist NEU: Neue

Mehr

Kunst der Spieleprogrammierung. The END. Playful Design. (c) 2013, Peter Sturm, Universität Trier

Kunst der Spieleprogrammierung. The END. Playful Design. (c) 2013, Peter Sturm, Universität Trier The END Playful Design 1 Gamification bzw. Playful Design Motivation Bedienungsfreundlichkeit ZENTRALES Element der Spieleentwicklung Software wird meist freiwillig genutzt J Spiele waren immer wichtig

Mehr

Vorlesung 11: Netze. Sommersemester 2001. Peter B. Ladkin ladkin@rvs.uni-bielefeld.de

Vorlesung 11: Netze. Sommersemester 2001. Peter B. Ladkin ladkin@rvs.uni-bielefeld.de Vorlesung 11: Netze Sommersemester 2001 Peter B. Ladkin ladkin@rvs.uni-bielefeld.de Vielen Dank an Andrew Tanenbaum der Vrije Universiteit Amsterdam für die Bilder Andrew Tanenbaum, Computer Networks,

Mehr

Parallel Computing in der industriellen Bildverarbeitung

Parallel Computing in der industriellen Bildverarbeitung SOLUTIONS FOR MACHINE VISION Parallel Computing in der industriellen Bildverarbeitung Dipl.-Inform. Alexander Piaseczki Research and Development Sirius Advanced Cybernetics GmbH Tools & Solutions für die

Mehr

Mathematik Physik - Informatik

Mathematik Physik - Informatik Mathematik Physik - Informatik IF ANYTHING CAN GO WRONG, IT WILL. (Murphy) Differenzierungsangebot in der Sekundarstufe 1 R. Faßbender 1 Inhalt Informatik als Schwerpunkt Warum sollte ich Informatik wählen?

Mehr

Beispiel: Schleifenparallelisierung

Beispiel: Schleifenparallelisierung Beispiel: Schleifenparallelisierung for (i = 0; i high) { printf ( Exiting during iteration %d\n,i); break; for (j=low;j

Mehr

Einführung in das parallele Programmieren mit MPI und Java

Einführung in das parallele Programmieren mit MPI und Java Einführung in das parallele Programmieren mit und Java Seite 1 Übersicht Parallele Prozesse und Erste Schritte mit Kollektive Kommunikation Weitere Möglichkeiten Seite 2 Literatur (1) Homepage des 2-Forums

Mehr

Klausur zu High Performance Computing 12. Juli 2013

Klausur zu High Performance Computing 12. Juli 2013 Britta Nestler, Alexander Vondrous, Fakultät IWI, Hochschule Karlsruhe Klausur zu High Performance Computing 12. Juli 2013 Es sind keine Hilfsmittel zugelassen. Bearbeitungszeit: 90 Minuten Aufgabe 1:

Mehr

Vorschlag einer Architektur für Software Defined Networks

Vorschlag einer Architektur für Software Defined Networks Zentrum für Informationsdienste und Hochleistungsrechnen TU Dresden Vorschlag einer Architektur für Software Defined s DFN-Forum 2013 Andy Georgi 04. Juni 2013 Nöthnitzer Straße 46 01187 Dresden Telefon:

Mehr

Multi- und Many-Core

Multi- und Many-Core Multi- und Many-Core Benjamin Warnke Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg 2016-12-15 Benjamin

Mehr

RTEMS- Echtzeitbetriebssystem

RTEMS- Echtzeitbetriebssystem RTEMS- Echtzeitbetriebssystem Name: Hussein Hammoud Matrikel- Nr.: 230768 Studiengang: Technische Informatik Fach: Projekt Eingebettete Kommunikation Technische Universität Berlin Sommersemester 2006 RTEMS-

Mehr

Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Prof. Dr.-Ing. J. Teich

Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Prof. Dr.-Ing. J. Teich Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Friedrich-Alexander-Universität Erlangen-Nürnberg Prof. Dr.-Ing. J. Teich Rückblick - Großrechner 2 Keine Computer im Haushalt? Ken Olsen, US-amerikanischer

Mehr

Raspberry Pi. Einführung Pi and More 8 Nico Maas

Raspberry Pi. Einführung Pi and More 8 Nico Maas Raspberry Pi Einführung Pi and More 8 Nico Maas Zur Person Nico Maas IT Systemelektroniker Bachelor of Science mail@nico-maas.de www.nico-maas.de @nmaas87 14.01.2016 Nico Maas / www.nico-maas.de / mail@nico-maas.de

Mehr

Beispiel Parallelisierung 2D Laplace. Lagrange Formulierung/Hyperelastisches Material. Finite Differenzen Diskretisierung

Beispiel Parallelisierung 2D Laplace. Lagrange Formulierung/Hyperelastisches Material. Finite Differenzen Diskretisierung Simulation von physikalischen Feldern im menschlichen Körper Implementierung Gliederung Gliederung Wiederholung: Biomechanik III Statische elastomechanische Probleme Finite Elemente Diskretisierung Finite

Mehr

Anleitung für zwei C++ - Openmp - Beispiele auf der NWZSuperdome

Anleitung für zwei C++ - Openmp - Beispiele auf der NWZSuperdome Anleitung für zwei C++ - Openmp - Beispiele auf der NWZSuperdome (Timo Heinrich, t_hein03@uni-muenster.de) Inhaltsverzeichnis: 0.Einleitung 1.Teil: Helloworldprogramm 1.1 Quellcode: Helloworld.cpp 1.2

Mehr

Quarto Solver. Mark Blacher

Quarto Solver. Mark Blacher Quarto Solver Mark Blacher Was ist Quarto deterministisches Zwei-Personen-Nullsummenspiel mit perfekter Information Spielbaum besteht aus 1,13409 10 27 Knoten 08.02.2018 Algorithm Engineering Lab 2 Codierung

Mehr

Parallele Rechenmodelle

Parallele Rechenmodelle Organisatorisches und Themenvorstellung, 21. Oktober 2016 Henning Meyerhenke, Moritz von Looz, Roland Glantz 1 Meyerhenke, Looz, Glantz: Institute for Theoretical Computer www.kit.edu Science Termine Bis

Mehr

Suggestion for an extension of the VLBI field system

Suggestion for an extension of the VLBI field system Suggestion for an extension of the VLBI field system Dr. (FESG) neidhardt@fs.wettzell.de Martin Ettl (FESG), Christian Plötz (BKG), Walter Alef (MPIfR), Helge Rottmann (MPIfR) 1 The idea remote control

Mehr

Verteidigung der Bachelorarbeit, Willi Mentzel

Verteidigung der Bachelorarbeit, Willi Mentzel Verteidigung der Bachelorarbeit, Willi Mentzel Motivation U.S. Energy Consumption Breakdown 3x Durchschnittliche Leistungsaufnahme 114 Millionen kw Hohes Optimierungspotential 2 Ziele für Energieoptimierung

Mehr

Farbe des Covers Intel Celeron M 370 (1 MB, 1,5 GHz, 400 MHz FSB)

Farbe des Covers Intel Celeron M 370 (1 MB, 1,5 GHz, 400 MHz FSB) K1-222EG Stromverbrauch Intel Celeron M 370 (1 MB, 1,5 GHz, 400 MHz FSB) 60 GB P-ATA (4.200 rpm) Intel Pro/ 2200BG (802.11 b/g) : Abmessungen: (B x T x H) mm ** 330 x 275 x 25 Gewicht mit 6 Zellen ***

Mehr