Kick-Off Paralleles Programmieren
|
|
|
- Greta Schenck
- vor 9 Jahren
- Abrufe
Transkript
1 Fakultät Informatik Institut für Software- und Multimediatechnik, Lehrstuhl für Softwaretechnologie Kick-Off Paralleles Programmieren Thomas Kühn
2 Motivation Moore's Law The complexity for minimum component costs has increased at a rate of roughly a factor of two per year. G. Moore [1] Physikalische Grenze der Prozessorgeschwindigkeit erreicht Taktfrequenz Leistung (Energieverbrauch) Trend geht zu Mehrkern- und Co-Prozessorarchitekturen Mehrkern CPU's CPU und GPU in einem Chip Abbildung 1: Intel CPU Introductions [2] Moore's Law gilt weiterhin! 2 / 12
3 Motivation The Free Lunch is Over Software is getting slower more rapidly than hardware becomes faster. N. Wirth [3] Programme profitieren direkt von schnelleren Prozessoren indirekt von Optimierungen des Compilers für bestimmte Prozessortypen Programme profitieren nicht direkt von mehr Kernen im Computer indirekt von Spezial-Prozessoren (z.b. GPUs) Nicht jedes Programm ist parallelisierbar [4] Parallelisierung unentscheidbar für Compiler Programmiersprachen müssen Konzepte bereitstellen um paralleles Programmieren zu ermöglichen 3 / 12
4 Motivation Anforderungen an Programmiersprachen Welche Konzepte moderner Programmiersprachen erleichtern die Entwicklung von parallelen Anwendungen? Abbildung 2: Programmierung der ENIAC [U. S. Army Photo] Unterstützen des Objekt-orientierten Paradigmas Bereitstellen einfacher Konzepte für Parallelität Unterstützen von Synchronisationsmechanismen 4 / 12
5 Themenvorschläge Erlang von Ericsson C# zusammen mit Rx von Microsoft Eiffel SCOOP von Bertrand Meyer Concurrent Haskell von Simon Peyton Jones et. al. Go von Google Corperation Rust von Mozilla Research ParaSail von Tucker Taft B von Mark S. Miller, Dan Bornstein Weitere Vorschläge... 5 / 12
6 Szenario: SequentialBank 6 / 12
7 Szenario: SequentialBank Muster Role Object Pattern Abbildung 3: Strukture des Role Object Patterns [5] 7 / 12
8 Szenario: ParallelBank Abbildung 3: Titan HPC [Courtesy of Oak Ridge National Laboratory, U.S. Dept. of Energy] Implementierung einer parallelen Bankanwendung Implementieren der SequentialBank Parallelisierung der Anwendung mit modernen Sprachkonzepten Anforderungen Transaktionen werden zu jeder Zeit (parallel) durchgeführt Überweisungen können zu jeder Zeit durchgeführt werden Jede Transaktion wird irgendwann ausgeführt (fairness) 8 / 12
9 Aufgabenstellung Auswahl einer Programmiersprache Einzelne Bearbeitung der Themen Implementierung des Szenarios mit der gewählten Sprache Präsentation der Programmiersprache 45 min. Vortrag Sprachfeatures für Parallelität / Nebenläufigkeit Implementierung des Szenarios Schriftliche Ausarbeitung 7-9 Seiten Erstellt mit Hilfe von Latex Style Lecture Notes On Computer Science (LNCS) Sprachfeatures für Parallelität / Nebenläufigkeit Implementierung des Szenarios 9 / 12
10 Organisation Nächster Termin Themenauswahl Kurze Beschreibung der Sprache (5 min) Weitere Organisation Weitere Plannung Einreichen der Inhaltsangabe und Gliederung Anfang Dezember Abgabe des schriftlichen Teils im Anfang Januar Gemeinsamer Reviewprozess der Arbeiten mit EasyChair.org Vorträge in (einer) Blockveranstaltung im Ende Januar 10 / 12
11 Referenzen [1] Cramming more Components onto Integrated Circuits Gordon E. Moore Electronics Magazine (1965) [2] The Free Lunch Is Over: A Fundamental Turn Toward Concurrency in Software Herberd Sutter Dr. Dobb's Journal (2005) [3] A Plea for Lean Software Niklaus Wirth Computer 28.2 (1995) [4] Limits to Parallel Computation: P-completeness Theory Raymond Greenlaw, H. James Hoover, and Walter L. Ruzzo. Oxford university press (1995) [5] The Role Object Pattern Dirk Bäumer, et al. Washington University Dept. of Computer Science (1998) 11 / 12
12 Kick-Off Paralleles Programmieren Ende 12 / 12
LMU München LFE Medieninformatik Mensch-Maschine Interaktion (Prof. Dr. Florian Alt) SS2016. Mensch-Maschine-Interaktion
LMU München LFE Medieninformatik Mensch-Maschine Interaktion (Prof. Dr. Florian Alt) SS2016 1 Mensch-Maschine-Interaktion Kapitel 6 - Technische Rahmenbedingungen Visuelle Darstellung Räumliche Auflösung
Linux-Cluster mit Raspberry Pi. Dr. René Richter Sächsische Studienakademie Dresden rene.richter@ba-dresden rene.richter@namespace-cpp.
Linux-Cluster mit Raspberry Pi Dr. René Richter Sächsische Studienakademie Dresden rene.richter@ba-dresden [email protected] Lange Nacht der Wissenschaften 2013 Moore s Law Moore s Law (1965)
Software-Engineering Seminar, Summer AG Softech FB Informatik TU Kaiserslautern
Software-Engineering Seminar, Summer 2016 AG Softech FB Informatik TU Kaiserslautern Studenten Fragen: Studienfach? Software-Entwicklung 3 gehört? Erfahrungen in Programmierung mit Nebenläufigkeit? Zum
Moore's Law. Mitja Schmakeit
Moore's Law Mitja Schmakeit 6. Juni 2013 Inhaltsverzeichnis 1 Einleitung 2 2 Das Gesetz 2 2.1 Ursprung............................. 2 2.2 Etablierte Fassung........................ 2 3 Einhaltung des Gesetzes
Programmiersprachen Proseminar
Programmiersprachen Proseminar Prof. Dr. Manfred Schmidt-Schauß Künstliche Intelligenz/Softwaretechnologie Programmiersprachen Proseminar SS 2005 p.1/25 Personen Prof. Dr. Manfred Schmidt-Schauß, Zimmer
HFWU Nürtingen-Geislingen, Automobilwirtschaft (B.A.) Digitale Revolution. Nikolaj Lunze, M.Sc.
HFWU Nürtingen-Geislingen, Automobilwirtschaft (B.A.) Dozent: Digitale Revolution, M.Sc. Digitale Revolution Durch die Erfindung des Microchips ausgelöster Umbruch, der seit Ende des 20. Jahrhunderts einen
Multi-threaded Programming with Cilk
Multi-threaded Programming with Cilk Hobli Taffame Institut für Informatik Ruprecht-Karls Universität Heidelberg 3. Juli 2013 1 / 27 Inhaltsverzeichnis 1 Einleitung Warum Multithreading? Ziele 2 Was ist
Proseminar: Parallele Algorithmen
Proseminar: Parallele Algorithmen Von Theorie zu Praxis Peter Sanders, Jochen Speck, Daniel Funke 19. April 2016 INSTITUT FU R THEORETISCHE INFORMATIK KIT University of the State of Baden-Wuerttemberg
(Pro-)Seminar - Data Mining
(Pro-)Seminar - Data Mining Vorbesprechung SCCS, Fakultät für Informatik Technische Universität München SS 2018 Data Mining: Beispiele (1) Hausnummererkennung (Klassikation) Source: http://arxiv.org/abs/1312.6082
Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern
Praxiseinheit: Realisierung einer hardwarebeschleunigten Disparitätenberechnung zur automatischen Auswertung von Stereobildern Institut für Betriebssysteme und Rechnerverbund TU Braunschweig 25.10., 26.10.
Kapitel Grundlagen zur Parallelverarbeitung
Kapitel 4.2 - Grundlagen zur Parallelverarbeitung SWT I Sommersemester 2010 Walter F. Tichy, Andreas Höfer, Korbinian Molitorisz IPD Tichy, Fakultät für Informatik KIT die Kooperation von Forschungszentrum
Staff. Tim Conrad. Zeitplan. Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2013. Tim Conrad
Blockseminar: Verteiltes Rechnen und Parallelprogrammierung Sommer Semester 2013 Tim Conrad Staff Tim Conrad AG Computational Proteomics email: [email protected] Telefon: 838-51445 Büro: Raum 138,
Memory Models Frederik Zipp
Memory Models Frederik Zipp Seminar: Programmiersprachen für Parallele Programmierung (SS 2010) Fakultät für Informatik - IPD SNELTING LEHRSTUHL PROGRAMMIERPARADIGMEN 1
PRIP-Preis. Effizientes Object Tracking durch Programmierung von Mehrkernprozessoren und Grafikkarten
Masterarbeit @ PRIP-Preis Effizientes Object Tracking durch Programmierung von Mehrkernprozessoren und Grafikkarten Michael Rauter Pattern Recognition and Image Processing Group Institute of Computer Aided
III.1 Prinzipien der funktionalen Programmierung - 1 -
1. Prinzipien der funktionalen Programmierung 2. Deklarationen 3. Ausdrücke 4. Muster (Patterns) 5. Typen und Datenstrukturen 6. Funktionale Programmiertechniken III.1 Prinzipien der funktionalen Programmierung
CUDA Workshop. Ausblick. Daniel Tenbrinck
CUDA Workshop Ausblick Daniel Tenbrinck Computer Vision and Pattern Recognition Group Institut für Informatik Westfälische Wilhelms-Universität Münster 03.Juli 2009 Folie: 1 / 10 Daniel Tenbrinck CUDA
Parallel Computing. Einsatzmöglichkeiten und Grenzen. Prof. Dr. Nikolaus Wulff
Parallel Computing Einsatzmöglichkeiten und Grenzen Prof. Dr. Nikolaus Wulff Parallel Architekturen Flynn'sche Klassifizierung: SISD: single Instruction, single Data Klassisches von-neumann sequentielles
Ideen der Informatik. Eine Vorlesung für Hörer aller Fakultäten. Kurt Mehlhorn und Adrian Neumann
Ideen der Informatik Eine Vorlesung für Hörer aller Fakultäten Kurt Mehlhorn und Adrian Neumann Unsere drei Ziele Grundbegriffe der Informatik: Was ist ein Computer (Hardware, Software)? Sind alle Computer
Instrumentation von Android Anwendungen mit ExplorViz
Instrumentation von Android Anwendungen mit ExplorViz Jan Witzany 28. September 2016 Jan Witzany Instrumentation von Android Anwendungen mit ExplorViz 28. September 2016 1 / 19 Gliederung 1. Motivation
Funktionale Programmiersprachen
Funktionale Programmiersprachen An den Beispielen Haskell und Erlang Übersicht Programmiersprachen λ-kalkül Syntax, Definitionen Besonderheiten von funktionalen Programmiersprache, bzw. Haskell Objektorientierte
Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Prof. Dr.-Ing. J. Teich
Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Friedrich-Alexander-Universität Erlangen-Nürnberg Prof. Dr.-Ing. J. Teich Rückblick - Großrechner 2 Keine Computer im Haushalt? Ken Olsen, US-amerikanischer
CE-Bachelor Studiengang
CE-Bachelor Studiengang Vertiefungsrichtung Informatik M.Sc. Stefan Kurowski 21.02.2012 Vertiefungsrichtung Informatik 1 Studienplan CE (Bachelor) Semester 5-6 5 Fachrichtungen Semester 1-4 Gemeinsame
2. Der ParaNut-Prozessor "Parallel and more than just another CPU core"
2. Der ParaNut-Prozessor "Parallel and more than just another CPU core" Neuer, konfigurierbarer Prozessor Parallelität auf Daten- (SIMD) und Thread-Ebene Hohe Skalierbarkeit mit einer Architektur neues
Chancen und Risiken von Multi-Core. Matthias Pruksch
Chancen und Risiken von Multi-Core Matthias Pruksch Wozu Security? Auf Alles von Überall zugreifen: [5] BYOD - Bring Your Own Device Industry 4.0 CPS - Cyber Physical Systems [6] IoT - Internet of Things
RST-Labor WS06/07 GPGPU. General Purpose Computation On Graphics Processing Units. (Grafikkarten-Programmierung) Von: Marc Blunck
RST-Labor WS06/07 GPGPU General Purpose Computation On Graphics Processing Units (Grafikkarten-Programmierung) Von: Marc Blunck Ablauf Einführung GPGPU Die GPU GPU Architektur Die Programmierung Programme
Eine Vorlesung für Hörer aller Fakultäten
Ideen der Informatik Eine Vorlesung für Hörer aller Fakultäten Kurt Mehlhorn Meine drei Ziele Grundbegriffe der Informatik: Was ist ein Computer (Hardware, Software)? Sind alle Computer gleich? Was ist
Performanceoptimierung von parallelen Programmen Die Formel 1 der Informatik. Philipp Gschwandtner, Universität Innsbruck, 28.
Performanceoptimierung von parallelen Programmen Die Formel 1 der Informatik Philipp Gschwandtner, Universität Innsbruck, Was ist Hochleistungsrechnen? Englisch HPC High Performance Computing Wikipedia:
Gliederung. Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo
Gliederung Was ist CUDA? CPU GPU/GPGPU CUDA Anwendungsbereiche Wirtschaftlichkeit Beispielvideo Was ist CUDA? Nvidia CUDA ist eine von NvidiaGPGPU-Technologie, die es Programmierern erlaubt, Programmteile
Computergrundlagen Computergestützte Physik
Computergrundlagen Computergestützte Physik Maria Fyta Institut für Computerphysik Universität Stuttgart Wintersemester 2017/18 Computerphysik? Ein Werkzeug das komplexe Probleme der Physik numerisch lösen
Gliederung. n Teil I: Einleitung und Grundbegriffe. n Teil II: Imperative und objektorientierte Programmierung
Gliederung n Teil I: Einleitung und Grundbegriffe l 1. Organisatorisches l 2. Grundlagen von Programmiersprachen n Teil II: Imperative und objektorientierte Programmierung l 1. Grundelemente der Programmierung
Grundlagen der Programmierung 2 (1.A)
Grundlagen der Programmierung 2 (1.A) Einführung Prof. Dr. Manfred Schmidt-Schauß Sommersemester 2017 Grundlagen der Programmierung 2 Geplanter Inhalt der ersten Hälfte: Programmieren in Haskell Definitionen;
Programmiersprachenkonzepte
Seminar Programmiersprachenkonzepte Michael Duvigneau 1. 4. 2004 p. 1/12 Programmiersprachenkonzepte Seminar 18.410; Sommersemester 2004 Donnerstags 10 12 Uhr; D-220 Michael Duvigneau, Daniel Moldt Universität
Verteidigung der Bachelorarbeit, Willi Mentzel
Verteidigung der Bachelorarbeit, Willi Mentzel Motivation U.S. Energy Consumption Breakdown 3x Durchschnittliche Leistungsaufnahme 114 Millionen kw Hohes Optimierungspotential 2 Ziele für Energieoptimierung
Der Evolution mit Hochleistungsrechnern auf der Spur. Alexandros Stamatakis Scientific Computing Group HITS
Der Evolution mit Hochleistungsrechnern auf der Spur Alexandros Stamatakis Scientific Computing Group HITS Fragen Bitte stellen Sie Fragen! Berechnung molekularer Stammbäume Stammbäume: Eingabe AAGGCCCCT
Tutorium Softwaretechnik I
Tutorium Softwaretechnik I Moritz Klammler 11. Juli 2017 Fakultät für Informatik, IPD Tichy Titelfoto: Copyright (C) 2010 Multimotyl CC BY-SA 3.0 1 11. Juli 2017 Moritz Klammler - Tutorium Softwaretechnik
Vorlesung Ausgewählte Kapitel aus dem Übersetzerbau
Vorlesung Ausgewählte Kapitel aus dem Übersetzerbau Dr. Sabine Glesner Universität Karlsruhe http://www.info.uni-karlsruhe.de/lehre/2005ss/uebau2/ Übung zur Vorlesung Ausgewählte Kapitel aus dem Übersetzerbau
Dynamische Programmierung. Problemlösungsstrategie der Informatik
als Problemlösungsstrategie der Informatik und ihre Anwedung in der Diskreten Mathematik und Graphentheorie Fabian Cordt Enisa Metovic Wissenschaftliche Arbeiten und Präsentationen, WS 2010/2011 Gliederung
Multi- und Many-Core
Multi- und Many-Core Benjamin Warnke Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg 2016-12-15 Benjamin
Dipl. Ing. (FH) Ehrenfried Stuhlpfarrer
Dipl. Ing. (FH) Ehrenfried Stuhlpfarrer Die Geschichte der Rechenmaschinen 1100 v. Chr. Abakus Ein Abakus ist ein mehr als 3000 Jahre altes einfaches mechanisches Rechenhilfsmittel. Der Abakus enthält
OpenCL. Programmiersprachen im Multicore-Zeitalter. Tim Wiersdörfer
OpenCL Programmiersprachen im Multicore-Zeitalter Tim Wiersdörfer Inhaltsverzeichnis 1. Was ist OpenCL 2. Entwicklung von OpenCL 3. OpenCL Modelle 1. Plattform-Modell 2. Ausführungs-Modell 3. Speicher-Modell
27. Parallel Programming I
771 27. Parallel Programming I Moore s Law und The Free Lunch, Hardware Architekturen, Parallele Ausführung, Klassifikation nach Flynn, Multi-Threading, Parallelität und Nebenläufigkeit, Skalierbarkeit:
Gemeinsames TUM-LMU Seminar
Gemeinsames TUM-LMU Seminar Einführungsveranstaltung zum Hauptseminar Akzeleratoren und ihr Einsatz im Hochleistungsrechnen (LMU) Akzeleratorarchitekturen (TUM) Prof. Dr. Dieter Kranzlmüller Dr. Karl Fürlinger
Einführung in die Programmierung
Einleitung Gliederung Einführung in die Programmierung Wintersemester 2017/18 Zum Begriff Informatik Zum Begriff Algorithmus Zum Begriff Programmieren Prof. Dr. Günter Rudolph Lehrstuhl für Algorithm Engineering
Stream Processing und High- Level GPGPU Sprachen
Stream Processing und High- Level GPGPU Sprachen Seminar Programmierung von Grafikkarten Jens Breitbart Problem 5000% 4000% 3000% 2000% Rechenleistung: +71% pro Jahr Bandbreite: +25% pro Jahr Zugriffszeit:
Parallel Computing. Einsatzmöglichkeiten und Grenzen. Prof. Dr. Nikolaus Wulff
Parallel Computing Einsatzmöglichkeiten und Grenzen Prof. Dr. Nikolaus Wulff Vorüberlegungen Wann ist paralleles Rechnen sinnvoll? Wenn die Performance/Geschwindigkeit steigt. Wenn sich größere Probleme
Lehrstuhl 1 / Fakultät für Informatik. Haskell. Karsten Lettow
Lehrstuhl 1 / Haskell Jobausschreibung 2 Definition der Fibonacci Folge n Ν f(0) = 0 f(1) = 1 f(n) = f(n-1) + f(n-2) 3 Fibonacci Folge in Java implementiert public class fbonacci { public static void main(string[]
I Grundlagen der parallelen Programmierung 1
vii I Grundlagen der parallelen Programmierung 1 1 Einführung...... 3 1.1 Paradigmenwechsel in der Softwareentwicklung..... 4 1.2 Anwendungsbereiche...... 5 1.3 Parallelität in der Hardware..... 5 1.3.1
Kapitel 4 Grundlagen zur Parallelverarbeitung
Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Kapitel 4 Grundlagen zur Parallelverarbeitung SWT I Sommersemester 2009 Prof. Dr. Walter F. Tichy Dipl.-Inform. David J. Meder Warum Parallelverarbeitung?
Beispiel: Hamming-Folge Erzeuge eine Folge X = x 0,x 2,... mit folgenden Eigenschaften: 1. x i+1 > x i für alle i
Beispiel: Hamming-Folge Erzeuge eine Folge X = x 0,x 2,... mit folgenden Eigenschaften: 1. x i+1 > x i für alle i FP-8.7 2. x 0 = 1 3. Falls x in der Folge X auftritt, dann auch 2x, 3x und 5x. 4. Nur die
Performance Engineering: Forschung und Dienstleistung für HPC-Kunden. Dirk Schmidl
Performance Engineering: Forschung und Dienstleistung für HPC-Kunden Hardware Komplexität GPU KNL MPI L U S T R E SMP Claix NVMe HOME Storage OPA Die Komplexität moderner HPC Systeme erfordert Optimierung
Cell and Larrabee Microarchitecture
Cell and Larrabee Microarchitecture Benjamin Grund Dominik Wolfert Universität Erlangen-Nürnberg 1 Übersicht Einleitung Herkömmliche Prozessorarchitekturen Motivation für Entwicklung neuer Architekturen
LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610
LEISTUNGSVERGLEICH VON FPGA, GPU UND CPU FÜR ALGORITHMEN ZUR BILDBEARBEITUNG PROSEMINAR INF-B-610 Dominik Weinrich [email protected] Dresden, 30.11.2017 Gliederung Motivation Aufbau und Hardware
Aufbau und Funktionsweise eines Computers
Aufbau und Funktionsweise eines Computers Thomas Röfer Hardware und Software von Neumann Architektur Schichtenmodell der Software Zahlsysteme Repräsentation von Daten im Computer Praktische Informatik
Patrick Scharpfenecker May 23, Proseminar Algorithmen Organisatorisches & Themen
Patrick Scharpfenecker May 23, 2015 Proseminar Algorithmen Organisatorisches & Themen Page 2 Proseminar Algorithmen Organisatorisches & Themen Scharpfenecker May 23, 2015 Allgemeines Was ist ein Seminar?
Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien
Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Scientific Computing 07. Oktober 2009 Siegfried Benkner Wilfried Gansterer Fakultät für Informatik Universität Wien www.cs.univie.ac.at
HW/SW Codesign 5 - Performance
HW/SW Codesign 5 - Performance Martin Lechner e1026059 Computer Technology /29 Inhalt Was bedeutet Performance? Methoden zur Steigerung der Performance Einfluss der Kommunikation Hardware vs. Software
General Purpose Computation on GPUs
General Purpose Computation on GPUs Matthias Schneider, Robert Grimm Universität Erlangen-Nürnberg {matthias.schneider, robert.grimm}@informatik.stud.uni-erlangen.de M. Schneider, R. Grimm 1 Übersicht
FPGA-Based Architecture for Pattern Recognition
Institut für Technik der Informationsverarbeitung FPGA-Based Architecture for Pattern Recognition Institut für Prozessdatenverarbeitung und Elektronik - IPE, KIT University of the State of Baden-Wuerttemberg
Objektorientiertes Programmieren
JL Ute Claussen Objektorientiertes Programmieren Mit Beispielen und Übungen in C++ Zweite, überarbeitete und erweiterte Auflage Mit 24 Abbildungen Springer Inhaltsverzeichnis 1 Einleitung 1 1.1 Was ist
Komponentenbasierter
Komponentenbasierter Taschenrechner mit CORBA Silke Kugelstadt Torsten Steinert Inhalt Motivation Demonstration des Taschenrechners Grobarchitektur Implementierung des Clients Implementierung der Komponenten
Computer-Generationen
(K.Zuses Z3, 1941) (Vorschlag) Generation Beispiel Technologie Geschw./Speich. Software Vorgeneration Z3 Elektro- 0,0002 MIPS Verdrahtet 1941-1944 Mark1 mechanik 1.Generation ENIAC, Z22 Elektronen- 0,02
Einführung in die Programmierung
Einleitung Gliederung Einführung in die Programmierung Wintersemester 08/09 Zum Begriff Informatik Zum Begriff Algorithmus Zum Begriff Programmieren Prof. Dr. Günter Rudolph Lehrstuhl für Algorithm Engineering
