Linux-Cluster mit Raspberry Pi. Dr. René Richter Sächsische Studienakademie Dresden
|
|
- Moritz Neumann
- vor 8 Jahren
- Abrufe
Transkript
1 Linux-Cluster mit Raspberry Pi Dr. René Richter Sächsische Studienakademie Dresden Lange Nacht der Wissenschaften 2013
2 Moore s Law Moore s Law (1965) Transistorzahl pro Chip verdoppelt sich aller Monate Taktfrequenz... Andy Groove, Robert Noyce, Gordon Moore (1978) Free Lunch Gordon [Moore] gives, Bill [Gates] takes away. Free Lunch Is Over The Free Lunch Is Over Dr. Dobb s Journal, 30(3), March 2005 Herb Sutter ISO C++ Standard Komitee
3 Amdahl s Law Parallelverarbeitung sequenziell: t s =1=s + p parallel: t p = s + p/n Amdahl s Law (1967) Beschleunigung t s /t p =1/(s + p/n) Amdahl s Law Kommunikation: Synchronisation + Datenaustausch t s /t p =1/(s + p/n + n k) Beschleunigung./. Prozessorzahl
4 OpenMP Open MP #define N int main() { int i, a[n]; //... #pragma omp parallel for for (i = 0; i < N; i++) { a[i]= 2 * i; } } Shared Memory Multi-Processing nutzt mehrere CPUs GPGPU General Purpose GPU Programming Compute Unified Device Architecture ATI Stream Open CL
5 GPGPU Massiv-parallele Verarbeitung OpenMPI Open MPI Message Passing Interface Verteiltes System Kommunikation über TCP/IP-Netz:
6 OpenMPI Grundwissen Informatiker Verteilte Systeme Netze: TCP/IP Socket-Programmierung Kryptographie passwortlose SSH-Verbindung Public-Key-Kryptographie RSA-Verschlüsselung OpenMPI -----BEGIN RSA PRIVATE KEY----- MIIEpQIBAAKCAQEA1KRrgBpph8Rik0C0vY9VnNCRFNAnYbV0L18Olxjs6JdW7ukx 9XyWVejcgRmK8h2Tq92zNJ6Rgv2e3b0x5F1qfphAl2n2cRGMVK7wpjWbZvW258rD SRrJ23FBofFezm9OavC0wvdy9jmhiWIAnFmzqmFpIL1H7WqVMlIPJAGxSnejczZT TGirISMYGTLIT8PfPk8DnwttzSHfkHVeaOnISvsXHyfbAzIyvUGnCJSjcX2G+4vv u7iwev1vwzjk+c44j5em2bpknczuahoqnasumurzqpf0pjx0d1pde+scmqliffzs z0wvriyyzuyeoomfjlsecvtm5aovmt6tskwktwidaqabaoibaqchyasjoy0/cdru ZgrsiR5Luao04xW/qqQvKMkEQBVNPFVXxFZPYiPgzGHfO+Dvpw8GpB7dSHuCN3D2 4eaq6yLLOKoe/JKviCmdHMgQOh8XnSb3Smus1oZf1SqhLShcLBd0FI4xdxPVWfnT mvailkxdu0mqwhi6qnp+cco9lwph6tvv0esgy/6qibhbufnsir4uwwajnufiqlgk WtVI5Z3Mv5oWeSgp+EuJ2vdysuRUbyUTFSDUZbnL+HRHlUDHzXVgfM1S/j22QbrS UvW9gfgiVoE1Cd4zAfmZzAfHBtte15mLs2w5KxI/rpzyFkB8qHcM5xH7w5qVj1fs RgRypW8ZAoGBAPtczASrOomUCuc5XeoMuyjwhYIJlDpaum7tHZ2IC1R3+U2Kyurf 3j+6jgPId7HcEBTrat4iqx5Bcjl+BXm72n3HPmNjBFT2kBqD35Q1Yu8Ie9mwRdM2 UobYyTxbW8bf1McLoGiAlihaRJM9FsWJwR+hbXjYPCQYmioqnOBGARL9AoGBANiQ vp1hwjchghviy+vz5cmfgyend9wmlvielptuhthr66cym8pb17divgknhqqrxwx5 j9gx7dxeogvot5+ewvzqkipcnf3bvjqglx1c6hr3few/ktd2devpcf99uokgq3uc 6DVULn9h80WtApVITxJJBOw285iGiT9KWlNlcqTDAoGBAOGYmJb8Is6Fav+5cft0 r6l/rsnxe4ygd0etwo4gwqjubvc8qqbqkesigqeom7csnfbylzkgpppdo0pmqhfo rltetk8e+c1vgwjixxaalg+ymqd22erhnexgtt2p1r/5ldulkm2b0skmuxm4wa6z Avxjgn/5+oge+IYttpxm1+H1AoGBAMQNHRKayNnOAx1ZiCQGSCAypVVqDP72bi9v 8gdF8vwbiF8FCnWCb8erkz/caDsdcVr8tvS4jO2lqctdaB+PkU1FGVdvZNTG2GQQ WTaTOJ8eofh4gVadXhOFqLBrXzdkpszKCe8lO0bEJJgiDKGaKULzaYpyIMommR77 r5op1krdaogadxtctzdqrz3jljuuhmeveqlzusain4tkklzptqxiskgqncc0ivtz 9xip0enW9YMdhX/mMa5EqcPikdGjWpuMqWWqO9nrB5kSMPLZ9l3hURywTHyKktOi VBMXDN+W9jLNyNdPnwLBLDRW0QdIBnPD9XcCF8qo+HN1j9fogtIOLOU= -----END RSA PRIVATE KEY-----
7 Supercomputer University of Southampton (Sept 2012) Prof. Simon Cox et al. 64 Raspberry Pi + Lego < 5000 britische Pfund Stromverbrauch 13 A Raspberry Pi Raspberry Pi Einplatinenrechner ARM 700 Mhz 0,175 Giga-Flops 2GB SD-Karte Raspian Linux als Bastelrechner konzipiert
8 Raspberry Pi Eigenbau μpi 3 Raspberry Pi + Lego < 150 EUR Anleitung: Uni Southampton Raspberry Pi Schema
9 Quellen / weiterführende Informationen: Lange Nacht der Wissenschaften 2013
Kick-Off Paralleles Programmieren
Fakultät Informatik Institut für Software- und Multimediatechnik, Lehrstuhl für Softwaretechnologie Kick-Off Paralleles Programmieren Thomas Kühn Motivation Moore's Law The complexity for minimum component
MehrModerne parallele Rechnerarchitekturen
Seminar im WS0708 Moderne parallele Rechnerarchitekturen Prof. Sergei Gorlatch Dipl.-Inf. Maraike Schellmann schellmann@uni-muenster.de Einsteinstr. 62, Raum 710, Tel. 83-32744 Dipl.-Inf. Philipp Kegel
MehrComputergrundlagen Moderne Rechnerarchitekturen
Computergrundlagen Moderne Rechnerarchitekturen Axel Arnold Institut für Computerphysik Universität Stuttgart Wintersemester 2010/11 Aufbau eines modernen Computers DDR3- Speicher Prozessor Prozessor PEG
MehrNutzung paralleler Prozesse bei der Umweltsimulation
Nutzung paralleler Prozesse bei der Umweltsimulation RALF Wieland rwieland@zalf.de ZALF/LSA Nutzung paralleler Prozesse bei der Umweltsimulation p. 1 Warum parallele Prozesse? Die Steigerung der Taktfrequenz
MehrProgrammierung von Multicore-Rechnern
Programmierung von Multicore-Rechnern Prof. Dr.-Ing. habil. Peter Sobe HTW Dresden, Fakultät Informatik/Mathematik www.informatik.htw-dresden.de Gliederung: Ein Blick auf Multicore-Prozessoren/ und -Rechner
MehrComputergrundlagen Moderne Rechnerarchitekturen
Aufbau eines modernen Computers Computergrundlagen Moderne Rechnerarchitekturen Axel Arnold Institut für Computerphysik Universität Stuttgart DDR3- Speicher Prozessor Prozessor PEG Graphikkarte(n) weitere
MehrParallele Programmierung mit OpenMP
Parallele Programmierung mit OpenMP - Eine kurze Einführung - 11.06.2003 RRZN Kolloquium SS 2003 1 Gliederung 1. Grundlagen 2. Programmiermodell 3. Sprachkonstrukte 4. Vergleich MPI und OpenMP 11.06.2003
MehrC C. Hochleistungsrechnen (HPC) auf dem Windows Compute Cluster des RZ der RWTH Aachen. 1 WinHPC 2006 - Einführung Center. 31.
Hochleistungsrechnen (HP) auf dem Windows ompute luster des RZ der RWTH Aachen 31. Mai 2006 hristian Terboven Dieter an Mey {terboven anmey}@rz.rwth-aachen.de 1 WinHP 2006 - Einführung enter SunFire V40z
MehrRST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck
RST-Labor WS06/07 GPGPU General Purpose Computation On Graphics Processing Units (Grafikkarten-Programmierung) Von: Marc Blunck Ablauf Einführung GPGPU Die GPU GPU Architektur Die Programmierung Programme
MehrPraxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern
Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern Institut für Betriebssysteme und Rechnerverbund TU Braunschweig 25.10., 26.10.
MehrSeminar GPU-Programmierung/Parallelverarbeitung
Seite iv Literaturverzeichnis 1) Bengel, G.; et al.: Masterkurs Parallele und Verteilte Systeme. Vieweg + Teubner, Wiesbaden, 2008. 2) Breshears, C.: The Art of Concurrency - A Thread Monkey's Guide to
MehrCompute Unified Device Architecture CUDA
Compute Unified Device Architecture 06. Februar 2012 1 / 13 Gliederung 2 / 13 : Compute Unified Device Architecture entwickelt von Nvidia Corporation spezifiziert Software- und Hardwareeigenschaften Ziel:
MehrOpenMP. Viktor Styrbul
OpenMP Viktor Styrbul Inhaltsverzeichnis Was ist OpenMP Warum Parallelisierung Geschichte Merkmale von OpenMP OpenMP-fähige Compiler OpenMP Ausführungsmodell Kernelemente von OpenMP Zusammenfassung Was
MehrRaspberry Pi. Einführung Pi and More 5 Nico Maas
Raspberry Pi Einführung Pi and More 5 Nico Maas Zur Person Nico Maas IT Systemelektroniker (RZ UNI SB) Praktische Informatik (HTW SB) mail@nico-maas.de www.nico-maas.de @nmaas87 29.05.2014 Nico Maas /
MehrOrientierungsveranstaltungen 2009 Informatikstudien der Universität Wien
Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Scientific Computing 07. Oktober 2009 Siegfried Benkner Wilfried Gansterer Fakultät für Informatik Universität Wien www.cs.univie.ac.at
MehrComputational Biology: Bioelektromagnetismus und Biomechanik
Computational Biology: Bioelektromagnetismus und Biomechanik Implementierung Gliederung Wiederholung: Biomechanik III Statische Elastomechanik Finite Elemente Diskretisierung Finite Differenzen Diskretisierung
MehrPraktikum: Paralleles Programmieren für Geowissenschaftler
Praktikum: Paralleles Programmieren für Geowissenschaftler Prof. Thomas Ludwig, Hermann Lenhart, Nathanael Hübbe hermann.lenhart@zmaw.de MPI Einführung I: Hardware Voraussetzung zur Parallelen Programmierung
Mehr27. Parallel Programming I
The Free Lunch 27. Parallel Programming I Moore s Law und The Free Lunch, Hardware Architekturen, Parallele Ausführung, Klassifikation nach Flynn, Multi-Threading, Parallelität und Nebenläufigkeit, Skalierbarkeit:
Mehr27. Parallel Programming I
771 27. Parallel Programming I Moore s Law und The Free Lunch, Hardware Architekturen, Parallele Ausführung, Klassifikation nach Flynn, Multi-Threading, Parallelität und Nebenläufigkeit, Skalierbarkeit:
MehrEine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation
Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation Dr. Jan Eitzinger Regionales Rechenzentrum (RRZE) der Universität Erlangen-Nürnberg
MehrGeneral Purpose Computation on GPUs
General Purpose Computation on GPUs Matthias Schneider, Robert Grimm Universität Erlangen-Nürnberg {matthias.schneider, robert.grimm}@informatik.stud.uni-erlangen.de M. Schneider, R. Grimm 1 Übersicht
MehrEin kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1
Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer
Mehr2 Rechnerarchitekturen
2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf
MehrRheinisch-Westfälische Technische Hochschule Aachen. Seminararbeit
Rheinisch-Westfälische Technische Hochschule Aachen Seminararbeit Analyse von General Purpose Computation on Graphics Processing Units Bibliotheken in Bezug auf GPU-Hersteller. Gregori Kerber Matrikelnummer
MehrGPGPU mit NVIDIA CUDA
01.07.12 GPGPU mit NVIDIA CUDA General-Purpose on Formatvorlagecomputing des Graphics Processing durch Units Untertitelmasters mit KlickenCompute bearbeiten NVIDIA Unified Device Architecture Gliederung
MehrLeihmaterialien des FSR Informatik der Technische Universität Dresden
Leihmaterialien des FSR Informatik der Technische Universität Dresden 29. Januar 2015 Inhaltsverzeichnis 1 Elektronische Geräte 2 1.1 Gigabit-Switch.............................................. 2 1.2
MehrCUDA. Moritz Wild, Jan-Hugo Lupp. Seminar Multi-Core Architectures and Programming. Friedrich-Alexander-Universität Erlangen-Nürnberg
CUDA Seminar Multi-Core Architectures and Programming 1 Übersicht Einleitung Architektur Programmierung 2 Einleitung Computations on GPU 2003 Probleme Hohe Kenntnisse der Grafikprogrammierung nötig Unterschiedliche
Mehr27. Parallel Programming I
771 27. Parallel Programming I Moore s Law und The Free Lunch, Hardware Architekturen, Parallele Ausführung, Klassifikation nach Flynn, Multi-Threading, Parallelität und Nebenläufigkeit, Skalierbarkeit:
MehrRechnernetze an der HS-Harz. Dipl.-Inf. Michael Wilhelm. Dipl.-Ing. May
Rechnernetze an der HS-Harz Dipl.-Inf. Michael Wilhelm Dipl.-Ing. May FB Automatisierung und Informatik 1 Konzept HS-Harz: Netzwerk-PC Server 120 Rechner in mehreren Räumen / Häusern Programme lokal installiert
MehrProjektseminar Parallele Programmierung
HTW Dresden WS 2014/2015 Organisatorisches Praktikum, 4 SWS Do. 15:00-18:20 Uhr, Z136c, 2 Doppelstunden o.g. Termin ist als Treffpunkt zu verstehen Labore Z 136c / Z 355 sind Montag und Donnerstag 15:00-18:20
MehrPhysikalische Berechnungen mit General Purpose Graphics Processing Units (GPGPUs)
Fakultätsname XYZ Fachrichtung XYZ Institutsname XYZ, Professur XYZ Physikalische Berechnungen mit General Purpose Graphics Processing Units (GPGPUs) im Rahmen des Proseminars Technische Informatik Juni
MehrRaspberry Pi. Einführung Pi and More 6 Nico Maas
Raspberry Pi Einführung Pi and More 6 Nico Maas Zur Person Nico Maas IT Systemelektroniker (RZ UNI SB) Bachelor of Science (HTW SB) mail@nico-maas.de www.nico-maas.de @nmaas87 28.01.2015 Nico Maas / www.nico-maas.de
MehrHochleistungsrechnen Hybride Parallele Programmierung. Prof. Dr. Thomas Ludwig Universität Hamburg Informatik Wissenschaftliches Rechnen
Hochleistungsrechnen Hybride Parallele Programmierung Prof. Dr. Thomas Ludwig Universität Hamburg Informatik Wissenschaftliches Rechnen Inhaltsübersicht Einleitung und Motivation Programmiermodelle für
Mehr27. Parallel Programming I
760 27. Parallel Programming I Moore s Law und The Free Lunch, Hardware Architekturen, Parallele Ausführung, Klassifikation nach Flynn, Multi-Threading, Parallelität und Nebenläufigkeit, Skalierbarkeit:
Mehr27. Parallel Programming I
The Free Lunch 27. Parallel Programming I Moore s Law und The Free Lunch, Hardware Architekturen, Parallele Ausführung, Klassifikation nach Flynn, Multi-Threading, Parallelität und Nebenläufigkeit, Skalierbarkeit:
MehrEinführung in die Parallele Programmierung
Einführung in die Parallele Programmierung K. Benkert 1, A. Stock 2 1 High Performance Computing Centre Stuttgart www.hlrs.de Universität Stuttgart 2 Institut für Aerodynamik und Gasdynamik (IAG) www.iag.uni-stuttgart.de
MehrSuper rechnen ohne Superrechner Oder: Was hat das Grid mit Monte Carlo zu tun?
Super rechnen ohne Superrechner Oder: Was hat das Grid mit Monte Carlo zu tun? Marius Mertens 20.02.2015 Super rechnen ohne Superrechner? Warum? Algorithmik und Parallelisierung Wie? Alternative Architekturen
MehrSeminar SS 09 Amdahl`s Law and Cloud-Computing
Seminar SS 09 Amdahl`s Law and Cloud-Computing Prof. G. Bengel Fakultät für Informatik SEMB 7IBW 8IB Raum HO609 Mo 9:45-11:15 1. Teil: Amdahl sches Gesetz 1. Vortrag Das Gesetz von Amdahl und Gustafson
MehrKonzepte der parallelen Programmierung
Fakultät Informatik, Institut für Technische Informatik, Professur Rechnerarchitektur Konzepte der parallelen Programmierung Parallele Programmiermodelle Nöthnitzer Straße 46 Raum 1029 Tel. +49 351-463
MehrHigh-Performance Bildverarbeitung (nicht nur) mit JAVA. Prof. Dr.Thomas Netzsch - Hochschule Darmstadt - University of Applied Sciences
High-Performance Bildverarbeitung (nicht nur) mit JAVA 1 High-Performance Bildverarbeitung (nicht nur) mit JAVA Fragen: wie kann ein typisches BV-Unternehmen wirtschaftlich an der aktuellen Hardwareentwicklung
MehrMasterpraktikum Scientific Computing
Masterpraktikum Scientific Computing High-Performance Computing Thomas Auckenthaler Wolfgang Eckhardt Prof. Dr. Michael Bader Technische Universität München, Germany Outline Organisatorisches Entwicklung
MehrEinige Grundlagen zu OpenMP
Einige Grundlagen zu OpenMP Stephanie Friedhoff, Martin Lanser Mathematisches Institut Universität zu Köln 22. Juni 2016 Überblick Was ist OpenMP? Basics Das OpenMP fork-join-modell Kompilieren und Ausführen
MehrParallelisierung auf MPSoC-Plattformen
Anwendungen 1 Parallelisierung auf MPSoC-Plattformen MINF 1, WiSe2011 Anwendungen 1 17.11.2011 Betreuer: Prof. Dr. Schwarz Übersicht 1. 2. 3. 4. 5. Einleitung Multiprozessor- Architekturen SMP im Linux
MehrKlausur zu High Performance Computing 09. Juli 2011, SS 2011
Alexander Vondrous, Britta Nestler, Fakultät IWI, Hochschule Karlsruhe Klausur zu High Performance Computing 09. Juli 2011, SS 2011 Es sind keine Hilfsmittel zugelassen. Bearbeitungszeit: 90 Minuten Aufgabe
MehrAusarbeitung Seminarvortrag High-Performance-Computing WS 2011/2012
Ausarbeitung Seminarvortrag High-Performance-Computing WS 2011/2012 Matthias Bott 9. Januar 2012 2 VOM PC ZUM HPC 2 1 Movtivation Auf die Frage, wofür Computer in der Kernphysik benötigt werden, gibt es
MehrOpenCL. OpenCL. Boris Totev, Cornelius Knap
OpenCL OpenCL 1 OpenCL Gliederung Entstehungsgeschichte von OpenCL Was, warum und überhaupt wieso OpenCL CUDA, OpenGL und OpenCL GPUs OpenCL Objekte Work-Units OpenCL Adressbereiche OpenCL API Codebeispiel
MehrMaking the Internet of Things
DARIUSH FOROUHER ITI Uni Lübeck DANIEL LOOS 3. Sem. MLS Making the Internet of Things EIN ÜBERBLICK ÜBER PHYSICAL COMPUTING PLATTFORMS Das Internet der Dinge Inhalt Übersicht Arduino Raspberry PI Andere
MehrAufbau und Funktionsweise eines Computers
Aufbau und Funktionsweise eines Computers Thomas Röfer Hardware und Software von Neumann Architektur Schichtenmodell der Software Zahlsysteme Repräsentation von Daten im Computer Hardware Prozessor (CPU)
MehrTSM 5.2 Experiences Lothar Wollschläger Zentralinstitut für Angewandte Mathematik Forschungszentrum Jülich
TSM 5.2 Experiences Lothar Wollschläger Zentralinstitut für Angewandte Mathematik Forschungszentrum Jülich L.Wollschlaeger@fz-juelich.de Contents TSM Test Configuration Supercomputer Data Management TSM-HSM
MehrDie Marvel, ein gedrosselter Supercomputer
Die Marvel, ein gedrosselter Supercomputer Warum ist die Marvel so schnell? Warum ist die Marvel so langsam? Erfahrungen mit dem Softwaresupport Warum ist die Marvel so schnell? Hardware Z.Cvetanovic,
MehrStaff. Tim Conrad. Zeitplan. Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2013. Tim Conrad
Blockseminar: Verteiltes Rechnen und Parallelprogrammierung Sommer Semester 2013 Tim Conrad Staff Tim Conrad AG Computational Proteomics email: conrad@math.fu-berlin.de Telefon: 838-51445 Büro: Raum 138,
MehrMasterpraktikum Scientific Computing
Masterpraktikum Scientific Computing High-Performance Computing Thomas Auckenthaler Wolfgang Eckhardt Technische Universität München, Germany Outline Entwicklung General Purpose GPU Programming (GPGPU)
MehrGliederung. Problemstellung Motivation Multi-Agenten Simulation GPU Programmierung Stand der Technik Abgrenzung
Philipp Kayser Gliederung Problemstellung Motivation Multi-Agenten Simulation GPU Programmierung Stand der Technik Abgrenzung Multi-Agenten Simulation (MAS) simuliert durch eine Vielzahl von Agenten Die
MehrUSB-Tokens. Technik und Einsatzgebiete
USB-Tokens Technik und Einsatzgebiete Vortrag im Rahmen der Lehrveranstaltung Chipkartensysteme und E-Payment im SS05 an der Fachhochschule Bonn-Rhein-Sieg Outline Passwortmanager PKI Smartcards USB-Tokens
MehrStrukturelemente von Parallelrechnern
Strukturelemente von Parallelrechnern Parallelrechner besteht aus einer Menge von Verarbeitungselementen, die in einer koordinierten Weise, teilweise zeitgleich, zusammenarbeiten, um eine Aufgabe zu lösen
MehrDie Vision Landschaft und was sie mit Moore s Gesetz zu tun hat
Die Vision Landschaft und was sie mit Moore s Gesetz zu tun hat Horst A. Mattfeldt Produkt Manager Matrix Vision GmbH V1.0 10/2010 MATRIX VISION GmbH 1 Inhalt/Content: Vom Vision Sensor über Atom Boxen
MehrParalleler Cuckoo-Filter. Seminar: Implementierungstechniken für Hauptspeicherdatenbanksysteme Jeremias Neth München, 21.
Paralleler Cuckoo-Filter Seminar: Implementierungstechniken für Hauptspeicherdatenbanksysteme Jeremias Neth München, 21. November 2017 1 Paralleler Cuckoo-Filter Cuckoo-Hashtabelle Serieller Cuckoo-Filter
MehrEntwicklung algorithmischer Skelette für CUDA am Beispiel von Affintiy Propagation
Entwicklung algorithmischer Skelette für CUDA am Beispiel von Affintiy Propagation Christoph Winter Fakultät für Informatik und Mathematik Ostbayerische Technische Hochschule Regensburg 93049 Regensburg
MehrOpenCL. Programmiersprachen im Multicore-Zeitalter. Tim Wiersdörfer
OpenCL Programmiersprachen im Multicore-Zeitalter Tim Wiersdörfer Inhaltsverzeichnis 1. Was ist OpenCL 2. Entwicklung von OpenCL 3. OpenCL Modelle 1. Plattform-Modell 2. Ausführungs-Modell 3. Speicher-Modell
MehrMulti-threaded Programming with Cilk
Multi-threaded Programming with Cilk Hobli Taffame Institut für Informatik Ruprecht-Karls Universität Heidelberg 3. Juli 2013 1 / 27 Inhaltsverzeichnis 1 Einleitung Warum Multithreading? Ziele 2 Was ist
MehrOpenCL Implementierung von OpenCV Funktionen
Multi-Core Architectures and Programming OpenCL Implementierung von OpenCV Funktionen julian.mueller@e-technik.stud.uni-erlangen.de Hardware/Software Co-Design August 18, 2011 1 Table of content 1 OpenCL
MehrGPGPU-Programmierung
12 GPGPU-Programmierung 2013/04/25 Diese Folien enthalten Graphiken mit Nutzungseinschränkungen. Das Kopieren der Graphiken ist im Allgemeinen nicht erlaubt. Motivation (1) General Purpose Computing on
MehrMaster-Thread führt Programm aus, bis durch die Direktive
OpenMP seit 1998 Standard (www.openmp.org) für die Shared-Memory Programmierung; (Prä-)Compiler für viele Systeme kommerziell oder frei (z.b. Omni von phase.hpcc.jp/omni) verfügbar Idee: automatische Generierung
MehrIntegrationsseminar und Projekt: IoT und Embedded-Workshop mit Raspberry Pi
Integrationsseminar und Projekt: IoT und Embedded-Workshop mit Raspberry Pi Embedded und IoT-Devices im Alltag Kurzer Einblick in die Geschichte Vorstellung gängiger Hardwareplattformen Fallbeispiel für
MehrExcel beschleunigen mit dem mit Windows HPC Server 2008 R2
Excel beschleunigen mit dem mit Windows HPC Server 2008 R2 Steffen Krause Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/steffenk Haftungsausschluss Microsoft kann für die Richtigkeit
MehrParallele Rechnerarchitekturen
Bachelor Parallele en Informatik 3 ( ) Prof. Dietmar Fey Ziel des s Paralleles Rechnen Keine akademische Nische mehr Vielmehr Allgemeingut für den Beruf des Informatikers Bedingt durch Multikern- (und
MehrRaiffeisen News Unsere aktuellen Angebote im Januar 2014
richten sich an Anleger, die ein richten sich an Anleger, die ein richten sich an Anleger, die ein richten sich an Anleger, die ein richten sich an Anleger, die ein richten sich an Anleger, die ein richten
MehrUniversität Karlsruhe (TH)
Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Parallelism in curricula An international survey November 7, 2008 Stuttgart, Germany David Meder Dr. Victor Pankratius For comments: multicore-systems@ipd.uni-karlsruhe.de
MehrPGI Accelerator Model
PGI Accelerator Model Philip Höhlein, Nils Werner Supervision: R. Membarth, P. Kutzer, F. Hannig Hardware-Software-Co-Design Universität Erlangen-Nürnberg Philip Höhlein, Nils Werner 1 Übersicht Motivation
MehrVAX2go ein Projekt der Gruppe Damn small VAX
VAX2go ein Projekt der Gruppe Damn small VAX Fachbereich Informatik, Technische Universität Darmstadt, Oliver Bach (bach@decfreak.de) Foto: Bernd Ulmann 27-APR-2010 FB Informatik, TU Darmstadt Oliver Bach,
MehrProjektseminar Parallele Programmierung
HTW Dresden WS 2017/2018 Organisatorisches Praktikum, 4 SWS Do. 15:10-18:30 Uhr, Z136c, 2 Doppelstunden Labor Z 136c ist Donnerstag 15:10-18:30 reserviert, gemeinsam mit anderen Projektseminaren Selbständige
MehrTransparente Nutzung von Multi-GPU Cluster unter Java/OpenMP
Transparente Nutzung von Multi-GPU Cluster unter Java/OpenMP Dipl. Inf. Thorsten Blaß Programming Systems Group Martensstraße 3 91058 Erlangen Ausblick Motivation Einführung Java/OpenMP (JaMP) JaMP Sprache
MehrGrundlagen der Anwendung und Programmierung des ESP8266. Dennis Hoffmann Mittwoch, :30 Uhr Schulungsraum SW23/147
Grundlagen der Anwendung und Programmierung des ESP8266 Dennis Hoffmann Mittwoch, 11.01.2017 08:30 Uhr Schulungsraum SW23/147 Inhalt Mikrocontroller ESP8266 Entwicklungsumgebung Firmware Beispiele Projekte
MehrEnergieeffiziente Empfänger in Sensornetzwerken
Fakultät Informatik, Institut für Angewandte Informatik, Professur für Technische Informationssysteme Energieeffiziente Empfänger in Sensornetzwerken Dresden, 09.01.2012 Motivation Wie kann man alle Geräte
MehrChristopher Schleiden
Christopher Schleiden 5.6.2009 Ganz allgemein: Parallele Ausführung von Code 1 Prozess Gesamtaufgabe Ergebnis 4 Prozesse / Threads Gesamtaufgabe Teilaufgaben Einzelberechnung Ergebnis 5 Shared Processor
MehrGNUBLIN, die offene EmbeddedPlattform für die Ausbildung
GNUBLIN, die offene EmbeddedPlattform für die Ausbildung Benedikt Sauter Linuxtag Berlin 23.05.2013 Zur Person Benedikt Sauter Informatiker Interessen: Mikrocontroller, Linux, Web Diverse Open-Source Projekte
Mehr11. Mehrrechner-DBMSe / Datenbankmaschinen
11. Mehrrechner-e / Datenbankmaschinen In der Vergangenheit DB-Maschinen oft auf Basis von Spezial-HW-/SW Schnittstelle Anwendungsprogramm - DB-Maschine oft "nicht hoch" genug Interaktion und Integration
MehrMulticore-Architekturen
Universität Erlangen- Nürnberg Technische Universität München Universität Stuttgart Multicore-Architekturen Vortrag im Rahmen der Ferienakademie 2009 Kurs 1: Programmierkonzepte für Multi-Core Rechner
MehrNeue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP)
Neue Dual-CPU Server mit Intel Xeon Scalable Performance (Codename Purley/Skylake-SP) @wefinet Werner Fischer, Thomas-Krenn.AG Webinar, 17. Oktober 2017 Intel Xeon Scalable Performance _ Das ist NEU: Neue
MehrKunst der Spieleprogrammierung. The END. Playful Design. (c) 2013, Peter Sturm, Universität Trier
The END Playful Design 1 Gamification bzw. Playful Design Motivation Bedienungsfreundlichkeit ZENTRALES Element der Spieleentwicklung Software wird meist freiwillig genutzt J Spiele waren immer wichtig
MehrVorlesung 11: Netze. Sommersemester 2001. Peter B. Ladkin ladkin@rvs.uni-bielefeld.de
Vorlesung 11: Netze Sommersemester 2001 Peter B. Ladkin ladkin@rvs.uni-bielefeld.de Vielen Dank an Andrew Tanenbaum der Vrije Universiteit Amsterdam für die Bilder Andrew Tanenbaum, Computer Networks,
MehrParallel Computing in der industriellen Bildverarbeitung
SOLUTIONS FOR MACHINE VISION Parallel Computing in der industriellen Bildverarbeitung Dipl.-Inform. Alexander Piaseczki Research and Development Sirius Advanced Cybernetics GmbH Tools & Solutions für die
MehrMathematik Physik - Informatik
Mathematik Physik - Informatik IF ANYTHING CAN GO WRONG, IT WILL. (Murphy) Differenzierungsangebot in der Sekundarstufe 1 R. Faßbender 1 Inhalt Informatik als Schwerpunkt Warum sollte ich Informatik wählen?
MehrBeispiel: Schleifenparallelisierung
Beispiel: Schleifenparallelisierung for (i = 0; i high) { printf ( Exiting during iteration %d\n,i); break; for (j=low;j
MehrEinführung in das parallele Programmieren mit MPI und Java
Einführung in das parallele Programmieren mit und Java Seite 1 Übersicht Parallele Prozesse und Erste Schritte mit Kollektive Kommunikation Weitere Möglichkeiten Seite 2 Literatur (1) Homepage des 2-Forums
MehrKlausur zu High Performance Computing 12. Juli 2013
Britta Nestler, Alexander Vondrous, Fakultät IWI, Hochschule Karlsruhe Klausur zu High Performance Computing 12. Juli 2013 Es sind keine Hilfsmittel zugelassen. Bearbeitungszeit: 90 Minuten Aufgabe 1:
MehrVorschlag einer Architektur für Software Defined Networks
Zentrum für Informationsdienste und Hochleistungsrechnen TU Dresden Vorschlag einer Architektur für Software Defined s DFN-Forum 2013 Andy Georgi 04. Juni 2013 Nöthnitzer Straße 46 01187 Dresden Telefon:
MehrMulti- und Many-Core
Multi- und Many-Core Benjamin Warnke Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg 2016-12-15 Benjamin
MehrRTEMS- Echtzeitbetriebssystem
RTEMS- Echtzeitbetriebssystem Name: Hussein Hammoud Matrikel- Nr.: 230768 Studiengang: Technische Informatik Fach: Projekt Eingebettete Kommunikation Technische Universität Berlin Sommersemester 2006 RTEMS-
MehrLehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Prof. Dr.-Ing. J. Teich
Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Friedrich-Alexander-Universität Erlangen-Nürnberg Prof. Dr.-Ing. J. Teich Rückblick - Großrechner 2 Keine Computer im Haushalt? Ken Olsen, US-amerikanischer
MehrRaspberry Pi. Einführung Pi and More 8 Nico Maas
Raspberry Pi Einführung Pi and More 8 Nico Maas Zur Person Nico Maas IT Systemelektroniker Bachelor of Science mail@nico-maas.de www.nico-maas.de @nmaas87 14.01.2016 Nico Maas / www.nico-maas.de / mail@nico-maas.de
MehrBeispiel Parallelisierung 2D Laplace. Lagrange Formulierung/Hyperelastisches Material. Finite Differenzen Diskretisierung
Simulation von physikalischen Feldern im menschlichen Körper Implementierung Gliederung Gliederung Wiederholung: Biomechanik III Statische elastomechanische Probleme Finite Elemente Diskretisierung Finite
MehrAnleitung für zwei C++ - Openmp - Beispiele auf der NWZSuperdome
Anleitung für zwei C++ - Openmp - Beispiele auf der NWZSuperdome (Timo Heinrich, t_hein03@uni-muenster.de) Inhaltsverzeichnis: 0.Einleitung 1.Teil: Helloworldprogramm 1.1 Quellcode: Helloworld.cpp 1.2
MehrQuarto Solver. Mark Blacher
Quarto Solver Mark Blacher Was ist Quarto deterministisches Zwei-Personen-Nullsummenspiel mit perfekter Information Spielbaum besteht aus 1,13409 10 27 Knoten 08.02.2018 Algorithm Engineering Lab 2 Codierung
MehrParallele Rechenmodelle
Organisatorisches und Themenvorstellung, 21. Oktober 2016 Henning Meyerhenke, Moritz von Looz, Roland Glantz 1 Meyerhenke, Looz, Glantz: Institute for Theoretical Computer www.kit.edu Science Termine Bis
MehrSuggestion for an extension of the VLBI field system
Suggestion for an extension of the VLBI field system Dr. (FESG) neidhardt@fs.wettzell.de Martin Ettl (FESG), Christian Plötz (BKG), Walter Alef (MPIfR), Helge Rottmann (MPIfR) 1 The idea remote control
MehrVerteidigung der Bachelorarbeit, Willi Mentzel
Verteidigung der Bachelorarbeit, Willi Mentzel Motivation U.S. Energy Consumption Breakdown 3x Durchschnittliche Leistungsaufnahme 114 Millionen kw Hohes Optimierungspotential 2 Ziele für Energieoptimierung
MehrFarbe des Covers Intel Celeron M 370 (1 MB, 1,5 GHz, 400 MHz FSB)
K1-222EG Stromverbrauch Intel Celeron M 370 (1 MB, 1,5 GHz, 400 MHz FSB) 60 GB P-ATA (4.200 rpm) Intel Pro/ 2200BG (802.11 b/g) : Abmessungen: (B x T x H) mm ** 330 x 275 x 25 Gewicht mit 6 Zellen ***
Mehr