Algorithmen 2. Kapitel: Approximationsalgorithmen. Thomas Worsch. Fakultät für Informatik Karlsruher Institut für Technologie
|
|
- Fanny Hermann
- vor 6 Jahren
- Abrufe
Transkript
1 Algorithmen 2 Algorithmen 2 Kapitel: Approximationsalgorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2017/ / 40
2 Einleitung Überblick Einleitung NP-harte Probleme Job Scheduling Allgemeines TSP nur schwer a-approximierbar Metrisches TSP ist leicht approximierbar knapsack 2 / 40
3 Einleitung Suchprobleme für jede Probleminstanz I M I gibt es Menge M S (I) möglicher Lösungen S M S (I) Zielfunktion f : I M I M S (I) R + Minimierungsproblem: für jedes I M I existiere f (I) = min{f (S) S M S (I)} gegeben: I gesucht: S mit f (S) = f (I) Maximierungspoblem: analog 3 / 40
4 Einleitung Approximation bei Suchproblemen Lösungen S mit f (S) = f (I) sind oft schwer zu finden z. B. NP-schwer Auswege: naiv: alle möglichen Lösungen betrachten oft zu aufwändig ad-hoc Heuristiken Qualität der Antwort eventuell unklar Approximationsalgorithmus A f (A(I)) «möglichst nahe an» f (I) Optimierungsaufgabe gerne polynomielle Laufzeit mit Garantie für Lösungsgüte 4 / 40
5 Einleitung Approximation bei «Zählproblemen» für jede Probleminstanz I M I gibt es Menge M S (I) möglicher Lösungen S M S (I) gesucht: Algorithmus A mit A(I) «möglichst nahe an» MS (I), der die Anzahl der Lösungen annähert Beispiel: bestimme die Anzahl perfekter Matchings eines bipartiten Graphen nicht in dieser Vorlesung 5 / 40
6 Einleitung NP-harte Probleme Turing-Reduzierbarkeit Das kam in «Theoretische Grundlagen der Informatik» vor: Suchproblem Π NP-schwer oder NP-hart, falls ein NP-vollständiges Entscheidungsproblem L existiert mit L p T Π. das heißt: es gibt Orakel-Turingmaschine für L mit Orakel für Π, jede Befragung des Orakels braucht 1 Schritt die polynomielle Laufzeit hat, Turing-Reduktion in Polynomialzeit das heißt: wenn Π in Polynomialzeit lösbar, dann auch L 6 / 40
7 Job Scheduling Überblick Einleitung Job Scheduling Allgemeines TSP nur schwer a-approximierbar Metrisches TSP ist leicht approximierbar knapsack 7 / 40
8 Job Scheduling Job Scheduling: Aufgabenstellung Problem: Job Shop Scheduling oder Makespan Scheduling Maschinen M 1,..., M m Jobs J 1,..., J n Job Jj benötigt Zeit t j 0 Lösung S : {1,..., n} {1,... m} Last von Maschine i: L i = S(j)=i t j Zielfunktion: minimiere Makespan L max = max i L i Wann ist die letzte Maschine fertig? einfacher Fall identische Maschinen unabhängige Jobs Problem ist NP-hart 8 / 40
9 Job Scheduling naheliegender Algorithmus: listscheduling 9 / 40
10 Job Scheduling naheliegender Algorithmus: listscheduling 1 listscheduling(n, m, t 1...n ) 2 each L i 0 load of machine i, 1 i m 3 each S j 0 machine for job j, 1 j n 4 for each j in range(1, n) 5 do pick k from {i L i is currently minimal } 6 S j k 7 L k L k + t j 8 return S im folgenden kurz LS statt listscheduling 9 / 40
11 Job Scheduling Eigenschaften des Algorithmus (1) Lemma Es sei T = j t j. Für jede Lösung S des Algorithmus gilt: Wenn J l ein Job ist, der zuletzt fertig wird, dann ist L max T m + m 1 m t l Beweis t = L max t l Startzeitpunkt von J l 10 / 40
12 Job Scheduling Eigenschaften des Algorithmus (1) Lemma Es sei T = j t j. Für jede Lösung S des Algorithmus gilt: Wenn J l ein Job ist, der zuletzt fertig wird, dann ist Beweis t = L max t l L max T m + m 1 m t l Startzeitpunkt von J l bis hierhin alle beschäftigt, mit Jobs J l, also mt T t l, also L max = t + t l T m t l m + t l 10 / 40
13 Job Scheduling Approximationsfaktor Approximationsalgorithmus A für Minimierungsproblem mit Zielfunktion f erzielt Approximationsfaktor ρ, falls für alle Probleminstanzen I M i gilt: f (A(I)) f (I) ρ ρ = 1: A liefert stets eine optimale Lösung 11 / 40
14 Job Scheduling Eigenschaften des Algorithmus (2) Satz LS erzielt Aproximationsfaktor ρ 2 1 m. Beweis stets: f (I) T/m und für jedes j: f (I) t j sei I beliebig: f (LS(I)) f (I) T/m f (I) + m 1 m T/m T/m + m 1 m t l f (I) t l = 2 1 t l m 12 / 40
15 Job Scheduling Eigenschaften des Algorithmus (3) Lemma LS erzielt Aproximationsfaktor ρ 2 1 m. Beweis 13 / 40
16 Job Scheduling Eigenschaften des Algorithmus (3) Lemma LS erzielt Aproximationsfaktor ρ 2 1 m. Beweis Probleminstanzen bei denen f (LS(I)) = 2m 1 und f (I) = m: m(m 1) Jobs mit t1 = = t n 1 = 1 letzter Job mit tn = m LS: alle m Maschinen bis t = m 1 nur Minijobs, dann der große L max = m 1 + m = 2m 1 optimal: eine Maschine nur den großen Job, m 1 machen je m Minijobs L max = m 13 / 40
17 Allgemeines TSP nur schwer a-approximierbar Überblick Einleitung Job Scheduling Allgemeines TSP nur schwer a-approximierbar Metrisches TSP ist leicht approximierbar knapsack 14 / 40
18 Allgemeines TSP nur schwer a-approximierbar Erinnerung: TSP-Suchproblem Probleminstanz vollständiger Graph G = (V, E = V V) und Längenfunktion c : E Z+ für Permutation π von V: f (π) = n 1 i=1 c(π(i), π(i + 1)) + c(π(n), π(1)) f (G, c) = min π f (π) gesucht: Permutation π mit minimalem f (π) = f (G, c) 15 / 40
19 Allgemeines TSP nur schwer a-approximierbar TSP-a-Approximations-Suchproblem gegeben: a 1 Probleminstanz vollständiger Graph G = (V, E = V V) und Längenfunktion c : E Z+ für Permutation π von V: f (π) = n 1 i=1 c(π(i), π(i + 1)) + c(π(n), π(1)) gesucht: Permutation π mit f (π) a f (G, c) kurz a-approxtsp 16 / 40
20 Allgemeines TSP nur schwer a-approximierbar Erinnerung: Hamiltonkreis (Entscheidungsproblem) Probleminstanz: Graph G = (V, E) Frage: Gibt es einen Hamiltonkreis in G? i. e. Permutation π so, dass (π(1), π(2), π(n), π(1)) Kreis hamiltoniancircuit ist NP-vollständig 17 / 40
21 Allgemeines TSP nur schwer a-approximierbar Schwere Approximierbarkeit des TSP Satz Für jede Konstante a 1 ist das TSP-a-Approximations-Suchproblem NP-hart. Beweisidee 18 / 40
22 Allgemeines TSP nur schwer a-approximierbar Schwere Approximierbarkeit des TSP Satz Für jede Konstante a 1 ist das TSP-a-Approximations-Suchproblem NP-hart. Beweisidee zeige: wenn a-approxtsp in Polynomialzeit lösbar, dann auch hamiltoniancircuit 18 / 40
23 Allgemeines TSP nur schwer a-approximierbar Schwere Approximierbarkeit des TSP: Konstruktion gegeben: G = (V, E) mit n = V definiere: G = (V, V V) und Längenfunktion c 19 / 40
24 Allgemeines TSP nur schwer a-approximierbar Schwere Approximierbarkeit des TSP: Konstruktion gegeben: G = (V, E) mit n = V definiere: G = (V, V V) und Längenfunktion c mit { 1, falls (u, v) E c(u, v) = an + 1, sonst sei aatsp Algorithmus für a-approxtsp Suchproblem 19 / 40
25 Allgemeines TSP nur schwer a-approximierbar Schwere Approximierbarkeit des TSP: Konstruktion gegeben: G = (V, E) mit n = V definiere: G = (V, V V) und Längenfunktion c mit { 1, falls (u, v) E c(u, v) = an + 1, sonst sei aatsp Algorithmus für a-approxtsp Suchproblem wenn G Hamiltonkreis hat, dann hat G Kreis der Länge n 19 / 40
26 Allgemeines TSP nur schwer a-approximierbar Schwere Approximierbarkeit des TSP: Konstruktion gegeben: G = (V, E) mit n = V definiere: G = (V, V V) und Längenfunktion c mit { 1, falls (u, v) E c(u, v) = an + 1, sonst sei aatsp Algorithmus für a-approxtsp Suchproblem wenn G Hamiltonkreis hat, dann hat G Kreis der Länge n aatsp(g, c) liefert Lösung an 19 / 40
27 Allgemeines TSP nur schwer a-approximierbar Schwere Approximierbarkeit des TSP: Konstruktion gegeben: G = (V, E) mit n = V definiere: G = (V, V V) und Längenfunktion c mit { 1, falls (u, v) E c(u, v) = an + 1, sonst sei aatsp Algorithmus für a-approxtsp Suchproblem wenn G Hamiltonkreis hat, dann hat G Kreis der Länge n aatsp(g, c) liefert Lösung an wenn G keinen Hamiltonkreis hat, dann hat jeder Kreis von G Länge an n 1 > an 19 / 40
28 Allgemeines TSP nur schwer a-approximierbar Schwere Approximierbarkeit des TSP: Konstruktion gegeben: G = (V, E) mit n = V definiere: G = (V, V V) und Längenfunktion c mit { 1, falls (u, v) E c(u, v) = an + 1, sonst sei aatsp Algorithmus für a-approxtsp Suchproblem wenn G Hamiltonkreis hat, dann hat G Kreis der Länge n aatsp(g, c) liefert Lösung an wenn G keinen Hamiltonkreis hat, dann hat jeder Kreis von G Länge an n 1 > an aatsp(g, c) liefert Lösung > an 19 / 40
29 Metrisches TSP ist leicht approximierbar Überblick Einleitung Job Scheduling Allgemeines TSP nur schwer a-approximierbar Metrisches TSP ist leicht approximierbar knapsack 20 / 40
30 Metrisches TSP ist leicht approximierbar metrictsp wie bei TSP, aber zusätzlich wird verlangt, dass c der Dreiecksungleichung genügt: für alle x, y, z V: c(x, y) + c(y, z) c(x, z) metrische «Vervollständigung» mv(g, c) von (G, c): mv(g, c) = (G, c ) mit c (x, y) = Länge kürzester Wege von x nach y «Vervollständigung» hier irreführendes Wort woher kommt das wohl? Konstruktion eben: Dreiecksungleichung im allgemeinen verletzt 21 / 40
31 Metrisches TSP ist leicht approximierbar Satz Für Instanzen des metrictsp Suchproblems kann man in Polynomialzeit eine 2-Approximation berechnen. Beweisidee 1 metrictspapprox(g, c) 2 T MST(G, c) w(t) f (G, c) 3 T T with every edge doubled w(t ) 2f (G, c) 4 T eulertour(t ) w(t ) 2f (G, c) 5 S remove duplicate nodes from T w(s) 2f (G, c) 6 return S 22 / 40
32 knapsack Überblick Einleitung Job Scheduling Allgemeines TSP nur schwer a-approximierbar Metrisches TSP ist leicht approximierbar knapsack Algorithmen mit pseudopolynomieller Laufzeit knapsack Suchproblem Ein FPTAS für Knapsack 23 / 40
33 knapsack Algorithmen mit pseudopolynomieller Laufzeit Pseudopolynomielle Laufzeit Wovon hängt die Laufzeit eines Algorithmus ab? Laufzeit t(i) eines Algorithmus für eine Eingabe I abhängig von Größe n(i) der Repräsentation von I üblich: n(i) ist Anzahl n 2 (I) der Bits um I binär zu codieren Codierung von k N+ braucht Θ(log 2 k) Bits polynomielle Laufzeit t(n): exisitert Polynom p(n) für alle I gilt: t(i) p(n 2 (I)) alternativ: n(i) ist Anzahl n 1 (I) der Bits um I unär zu codieren Codierung von k N+ braucht k Bits pseudopolynomielle Laufzeit t(n): exisitert Polynom p(n) für alle I gilt: t(i) p(n 1 (I)) 24 / 40
34 knapsack Algorithmen mit pseudopolynomieller Laufzeit Zwei kleine Warnungen Algorithmus mit pseudopolynomieller Laufzeit: tatsächliche Form der Eingabe? pseudopolynomielle Laufzeit nicht verwechseln mit quasipolynomieller Laufzeit: für eine Konstante c > 0 Beispiel: c = 2 n log n t(n) = 2 O((log n)c ) 25 / 40
35 knapsack knapsack Suchproblem knapsack Suchproblem Probleminstanzen endliche Menge M = {1,..., n} von Gegenständen Maximalgröße W N + «Rucksackgröße» Größen w i N + o. B. d. A. jedes w i W Profite p i N + Lösungen Teilmenge M M mit w(m ) = i M w i W gesucht Teilmengen mit möglichst großem Profit Zielfunktion f (M ) = p(m ) = i M p i Maximierungsproblem o. B. d. A. f (I) max p i 26 / 40
36 knapsack knapsack Suchproblem knapsack: Codierungen der Eingabe Teil T von I u 2 (T) u 1 (T) {1,..., n} log n n W log W W w 1,..., w n n log W nw p 1,..., p n n log ˆP nˆp insgesamt Θ(n log W + n log ˆP) Θ(nW + nˆp) wobei ˆP = i p i 27 / 40
37 knapsack knapsack Suchproblem Schwere des knapsack Suchproblems NP-schwer bei «normaler» Messung der Eingabegröße also Polynomialzeit-Algorithmen unbekannt aber: pseudopolynomielle Laufzeit erreichbar solche Probleme heißen schwach NP-schwer 28 / 40
38 knapsack knapsack Suchproblem knapsack: pseudopolynomielle Laufzeit mit dynamischer Programmierung es sei C(i, P) = min{w(m ) M {1,..., i} p(m ) P} falls eine solche Teilmenge M existiert, und sonst. Beobachtung: C(1, P) = { w 1,, sonst falls p 1 P C(i + 1, P) = min( C(i, P), w i+1 + C(i, P p i+1 ) ) 29 / 40
39 knapsack knapsack Suchproblem knapsack: pseudopolynomielle Laufzeit 1 dynprogknapsack(n, W, w 1,..., w n, p 1,..., p n ) 2 for P 1 to ˆP do 3 C(1, P)... 4 for i 1 to n 1 do 5 for P 1 to ˆP do 6 C(i + 1, P) min( C(i, P), w i+1 + C(i, P p i+1 ) 7 return max{p C(n, P) W } Erweiterung speichere in C(i, P) auch, welche der Objekte 1,..., i benutzt Lösung: sogar konkrete Teilmenge/Bitvektor x Skalarprodukt p x ist maximaler Profit 30 / 40
40 knapsack Ein FPTAS für Knapsack Polynomielle Approximationsschemata Polynomial Time Approximation Scheme (PTAS) es sei Π ein { } Minimierungs- Maximierungs- Problem es sei A Algorithmus mit Paaren (I, ε) als Eingaben, wobei ε > 0 reell und I Π I ist A polynomielles Approximationsschema (engl. PTAS), wenn für jedes ε > 0 ein Polynom p(n) so existiert, dass für jede Instanz I gilt f (A(I, ε)) ( ) 1 + ε f (I) 1 ε und Laufzeit t(i, ε) p(n 2 (I)) 31 / 40
41 knapsack Ein FPTAS für Knapsack Voll polynomielle Approximationsschemata Fully Polynomial Time Approximation Scheme (FPTAS) { } Minimierungs- es sei Π ein Problem Maximierungs- es sei A mit Paaren (I, ε) als Eingaben, wobei ε > 0 reell und I M I ist A voll polynomielles Approximationsschema (engl. PTAS), wenn ein Polynom p(n, x) so existiert, dass für jede Instanz I und jedes ε > 0 gilt f (A(I, ε)) ( ) 1 + ε f (I) 1 ε und Laufzeit t(i, ε) p(n 2 (I), 1/ε) 32 / 40
42 knapsack Ein FPTAS für Knapsack PTAS versus FPTAS jedes FPTAS ist ein PTAS ( n ε )5 + n 2 + ε 42 aber nicht umgekehrt: PTAS- aber nicht FPTAS-Laufzeiten z. B. n + 2 1/ε n 1/ε 2 log n log ε 33 / 40
43 knapsack Ein FPTAS für Knapsack Von pseudopolynomieller zu polynomieller Laufzeit n 2 (I) Θ(n log W + n log ˆP) pseudopolynomielle Laufzeit Θ(nˆP) 34 / 40
44 knapsack Ein FPTAS für Knapsack Von pseudopolynomieller zu polynomieller Laufzeit n 2 (I) Θ(n log W + n log ˆP) pseudopolynomielle Laufzeit Θ(nˆP) polynomielle Laufzeit, wenn die Profite kleine Werte sind, z. B. für konstantes k, ˆP O(n) 2 k z. B. jedes 0 < pi < 2 k 34 / 40
45 knapsack Ein FPTAS für Knapsack FPTAS für knapsack Schreibweise p = p 1,..., p n, etc. 1 epsapproxknapsack(ε, n, W, w, p) 2 P max i p i 3 K εp/n 4 each p i p i/k 5 x dynprogknapsack(n, W, w, p ) 6 return x 35 / 40
46 knapsack Ein FPTAS für Knapsack FPTAS für knapsack Schreibweisen x optimale Lösung für ursprüngliches p x optimale Lösung für p dann p x = p i = maximaler Profit des Originalproblems i,xi =1 Frage: Wie gut ist p x im Vergleich zu p x? 36 / 40
47 knapsack Ein FPTAS für Knapsack epsapproxknapsack ist FPTAS Satz epsapproxknapsack ist ein voll polynomielles Approximationsschema für knapsack. Lemma Mit den Bezeichnungen wie bisher p x (1 ε)p x 37 / 40
48 knapsack Ein FPTAS für Knapsack epsapproxknapsack ist FPTAS: Approximation K = εp/n und p i = p i/k, also Kp i p i p x Kp x Kp x weil x optimal für p pi = K K i x ( pi ) K K 1 = p i K i x i x i x p x nk = p x εp p x εp x = (1 ε)p x weil Optimum max p i = P 38 / 40
49 knapsack Ein FPTAS für Knapsack epsapproxknapsack ist FPTAS: Polynomialzeit Lemma Die Laufzeit von epsapproxknapsack ist in O(n 3 1 ε ). dynamischen Programmierung für p -Problem dominiert: Laufzeit n ˆP es ist (mit P = max i p i ) n ˆP = n i p i n2 max i p i = n2 P K = n 2 Pn εp n 3 1 ε 39 / 40
50 knapsack Ein FPTAS für Knapsack Varianten von Approximation: zwei Beispiele bestes bekanntes FPTAS linear in n in der Praxis erreicht man «fast Linearzeit» 40 / 40
Approximationsalgorithmen
Ausarbeitung zum Thema Approximationsalgorithmen im Rahmen des Fachseminars 24. Juli 2009 Robert Bahmann robert.bahmann@gmail.com FH Wiesbaden Erstellt von: Robert Bahmann Zuletzt berarbeitet von: Robert
MehrApproximationsalgorithmen: Klassiker I. Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling
Approximationsalgorithmen: Klassiker I Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling VO Approximationsalgorithmen WiSe 2011/12 Markus Chimani
MehrApproximationsalgorithmen
Makespan-Scheduling Kapitel 4: Approximationsalgorithmen (dritter Teil) (weitere Beispiele und Illustrationen an der Tafel) Hilfreiche Literatur: Vazarani: Approximation Algorithms, Springer Verlag, 2001.
MehrEinführung in Approximative Algorithmen und Parametrisierte Komplexität
Einführung in Approximative Algorithmen und Parametrisierte Komplexität Tobias Lieber 10. Dezember 2010 1 / 16 Grundlegendes Approximationsalgorithmen Parametrisierte Komplexität 2 / 16 Grundlegendes Definition
MehrÜberblick. TSP Vergleich der Lösungen. Das Travelling Salesman Problem. Nearest-Neighbor Heuristik für TSP
Kap..1 Heuristiken Kap.. Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 3. VO DAP SS 008 14. Juli 009 Überblick
MehrLiteratur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS)
Dominating Set 59 Literatur Dominating Set Grundlagen 60 Dominating Set (DS) M. V. Marathe, H. Breu, H.B. Hunt III, S. S. Ravi, and D. J. Rosenkrantz: Simple Heuristics for Unit Disk Graphs. Networks 25,
MehrApproximations- und Online-Algorithmen
Approximations- und Online-Algorithmen Wie komme ich mit Unfähigkeit und Unwissen zurecht? Rob van Stee 14. April 2010 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der
MehrNP-vollständig - Was nun?
Kapitel 4 NP-vollständig - Was nun? Wurde von einem Problem gezeigt, dass es NP-vollständig ist, ist das Problem damit nicht gelöst oder aus der Welt geschafft. In der Praxis muss es trotzdem gelöst werden.
MehrAlgorithmen zum Lösen von Vertex und Set Cover Instanzen zur Planung von Angriffen auf Netzwerke
Algorithmen zum Lösen von Vertex und Set Cover Instanzen zur Planung von Angriffen auf Netzwerke Steve Göring 13.07.2012 1/18 Gliederung Einleitung Grundlagen Vertex-Cover-Problem Set-Cover-Problem Lösungsalgorithmen
MehrOptimierungsprobleme. B. Langfeld, M. Ritter, B. Wilhelm Diskrete Optimierung: Fallstudien aus der Praxis
Optimierungsprobleme Instanz eines Optimierungsproblems zulässiger Bereich (meist implizit definiert) Zielfunktion Optimierungsrichtung opt {max, min} Optimierungsproblem Menge von Instanzen meist implizit
MehrDer Approximationsalgorithmus von Christofides
Der Approximationsalgorithms on Christofides Problem: Traeling Salesman Inpt: Ein Graph G = (V, E) mit einer Distanzfnktion d : E Q 0. Afgabe: Finde eine Tor, die alle Knoten des Graphen G gena einmal
MehrApproximation im Sinne der Analysis:
1 Approximation im Sinne der Analysis: Satz von Weierstrass: (1815-1897) Sei f eine stetige Funktion auf [a, b]. Dann gibt es zu jedem ε > 0 ein Polynom P ε mit: max x [a,b] f(x) P ε(x) < ε Numerische
MehrEinführung in Algorithmen und Komplexität
Einführung in Algorithmen und Komplexität SS2004 w u v High Performance = Innovative Computer Systems + Efficient Algorithms Friedhelm Meyer auf der Heide 1 Was haben wir bisher gemacht? - Rechenmodell:
MehrNP-Vollständigkeit. Krautgartner Martin (9920077) Markgraf Waldomir (9921041) Rattensberger Martin (9921846) Rieder Caroline (0020984)
NP-Vollständigkeit Krautgartner Martin (9920077) Markgraf Waldomir (9921041) Rattensberger Martin (9921846) Rieder Caroline (0020984) 0 Übersicht: Einleitung Einteilung in Klassen Die Klassen P und NP
MehrNäherungsalgorithmen (Approximationsalgorithmen) WiSe 2006/07 in Trier. Henning Fernau Universität Trier
Näherungsalgorithmen (Approximationsalgorithmen) WiSe 2006/07 in Trier Henning Fernau Universität Trier fernau@informatik.uni-trier.de 1 Näherungsalgorithmen Gesamtübersicht Organisatorisches Einführung
MehrApproximations-Algorithmen
Approximations-Algorithmen Institut für Computergraphik und Algorithmen Abteilung für Algorithmen und Datenstrukturen 186.102 Sommersemester 2004, 2h VU Motivation: Bereits viele einfache Optimierungsprobleme
MehrApproximations- und Online-Algorithmen
Sanders/van Stee: Approximations- und Online-Algorithmen 1 Approximations- und Online-Algorithmen Peter Sanders und Rob van Stee Wie komme ich mit Unfähigkeit und Unwissen zurecht? Sanders/van Stee: Approximations-
MehrDas Lastverteilungsproblem
Das Lastverteilungsproblem Approximationsalgorithmen Referent Franz Brauße Veranstaltung Proseminar Theoretische Informatik Universität Trier, FB IV Dozent Prof. Dr. Henning Fernau 23.02.2012 Übersicht
Mehr5.4 Das Rucksackproblem
Problemstellung: 5.4 Das Rucksackproblem Eingabe: Ganzzahlige Volumina a 1,..., a n > 0, Nutzenwerte c 1,..., c n > 0, ganzzahlige Volumenschranke b. Aufgabe: Packe die Objekte in einen Rucksack von Volumen
MehrRechnerische Komplexität
Proseminar Effiziente Algorithmen SS 2002 Rechnerische Komplexität Ulrike Krönert (34180) 0. Inhalt 1. Einführung 2. Algorithmen und Komplexität 2.1. Algorithmen 2.2. Laufzeitabschätzung 2.3. Polynomialzeit
Mehr11. Woche: Turingmaschinen und Komplexität Rekursive Aufzählbarkeit, Entscheidbarkeit Laufzeit, Klassen DTIME und P
11 Woche: Turingmaschinen und Komplexität Rekursive Aufzählbarkeit, Entscheidbarkeit Laufzeit, Klassen DTIME und P 11 Woche: Turingmaschinen, Entscheidbarkeit, P 239/ 333 Einführung in die NP-Vollständigkeitstheorie
MehrÜbung zur Vorlesung Berechenbarkeit und Komplexität
RWTH Aachen Lehrgebiet Theoretische Informatik Reidl Ries Rossmanith Sanchez Tönnis WS 2012/13 Übungsblatt 9 10.12.2012 Übung zur Vorlesung Berechenbarkeit und Komplexität Aufgabe T20 Beweisen Sie die
MehrApproximation in Batch and Multiprocessor Scheduling
Approximation in Batch and Multiprocessor Scheduling Tim Nonner IBM Research Albert-Ludwigs-Universität Freiburg 3. Dezember 2010 Scheduling Zeit als Ressource und Beschränkung Formaler Gegeben sind Jobs
Mehr1 Einführung 2 1.1 Zwei Beispiele (MIN JOB SCHEDULING und MAXCUT)... 2 1.2 Notationen und Definitionen... 7 1.3 Übungsaufgaben...
Vorwort v I Approximative Algorithmen 1 1 Einführung 2 1.1 Zwei Beispiele (MIN JOB SCHEDULING und MAXCUT).... 2 1.2 Notationen und Definitionen... 7 1.3 Übungsaufgaben..... 18 2 DieKomplexitätsklassen
Mehrabgeschlossen unter,,,, R,
Was bisher geschah Turing-Maschinen können Sprachen L X akzeptieren entscheiden Funktionen berechnen f : X X (partiell) Menge aller Turing-akzeptierbaren Sprachen genau die Menge aller Chomsky-Typ-0-Sprachen
MehrScheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É.
Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Tardos Janick Martinez Esturo jmartine@techfak.uni-bielefeld.de xx.08.2007 Sommerakademie Görlitz Arbeitsgruppe 5 Gliederung
MehrAlgorithmische Graphentheorie
Algorithmische Graphentheorie WS 2008/2009 Vorlesung: Dr. Felix Brandt, Dr. Jan Johannsen Übung: Markus Brill, Felix Fischer Institut für Informatik LMU München Organisatorisches Vorlesung Donnerstag,
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
MehrEntscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?
Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum
MehrStackelberg Scheduling Strategien
Stackelberg Scheduling Strategien Von Tim Roughgarden Präsentiert von Matthias Ernst Inhaltsübersicht Einleitung Vorbetrachtungen Stackelberg Strategien Ergebnisse Seminar Algorithmische Spieltheorie:
MehrProbeklausur zur Vorlesung Berechenbarkeit und Komplexität
RWTH Aachen Lehrgebiet Theoretische Informatik Reidl Ries Rossmanith Sanchez Tönnis WS 2012/13 Probeklausur 25.01.2013 Probeklausur zur Vorlesung Berechenbarkeit und Komplexität Aufgabe 1 (1+2+6+3 Punkte)
MehrMusterlösung der Hauptklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2012/13
Institut für Kryptographie und Sicherheit Prof. Dr. Jörn Müller-Quade Musterlösung der Hauptklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 22/3 Vorname Nachname Matrikelnummer
MehrWS 2009/10. Diskrete Strukturen
WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910
MehrMusterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 2013/14
Institut für Theoretische Informatik Prof. Dr. Jörn Müller-Quade Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 23/4 Vorname Nachname Matrikelnummer Hinweise Für die
MehrAlgorithmen und Datenstrukturen Kapitel 6 Komplexitätstheorie
Algorithmen und Datenstrukturen Kapitel 6 Komplexitätstheorie Einführung in P und NP Frank Heitmann heitmann@informatik.uni-hamburg.de 11. November 2015 Frank Heitmann heitmann@informatik.uni-hamburg.de
MehrAm Dienstag, den 16. Dezember, ist Eulenfest. 1/48
Am Dienstag, den 16. Dezember, ist Eulenfest. 1/48 Grundbegriffe der Informatik Einheit 12: Erste Algorithmen in Graphen Thomas Worsch Universität Karlsruhe, Fakultät für Informatik Wintersemester 2008/2009
MehrS=[n] Menge von Veranstaltungen J S kompatibel mit maximaler Größe J
Greedy-Strategie Definition Paradigma Greedy Der Greedy-Ansatz verwendet die Strategie 1 Top-down Auswahl: Bestimme in jedem Schritt eine lokal optimale Lösung, so dass man eine global optimale Lösung
MehrKapitel 4. Optimierungsalgorithmen. Technische Universität Wien. Gunnar Klau Technische Universität Wien. Institut für Computergraphik und Algorithmen
Kapitel 4 Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen 1 Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren
MehrAbgabe: (vor der Vorlesung) Aufgabe 2.1 (P) O-Notation Beweisen Sie die folgenden Aussagen für positive Funktionen f und g:
TECHNISCHE UNIVERSITÄT MÜNCHEN FAKULTÄT FÜR INFORMATIK Lehrstuhl für Sprachen und Beschreibungsstrukturen SS 2009 Grundlagen: Algorithmen und Datenstrukturen Übungsblatt 2 Prof. Dr. Helmut Seidl, S. Pott,
MehrAchtung: Groß O definiert keine totale Ordnungsrelation auf der Menge aller Funktionen! Beweis: Es gibt positive Funktionen f und g so, dass
Achtung: Groß O definiert keine totale Ordnungsrelation auf der Menge aller Funktionen! Beweis: Es gibt positive Funktionen f und g so, dass f O g und auch g O f. Wähle zum Beispiel und G. Zachmann Informatik
MehrFerienkurs zur algorithmischen diskreten Mathematik Kapitel 3: Minimal aufspannende Bäume und Matroide
Ferienkurs zur algorithmischen diskreten Mathematik Kapitel 3: Minimal aufspannende Bäume und Matroide Dipl-Math. Wolfgang Kinzner 3.4.2012 Kapitel 3: Minimal aufspannende Bäume und Matroide Minimal aufspannende
MehrNichtdeterministische Platzklassen
Sommerakademie 2010 Rot an der Rot AG 1: Wieviel Platz brauchen Algorithmen wirklich? Nichtdeterministische Platzklassen Ulf Kulau August 23, 2010 1 Contents 1 Einführung 3 2 Nichtdeterminismus allgemein
MehrKomplexität. G. Zachmann Clausthal University, Germany Leistungsverhalten von Algorithmen
lausthal Informatik II Komplexität von Algorithmen. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Leistungsverhalten von Algorithmen Speicherplatzkomplexität: Wird primärer & sekundärer
MehrAlle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)).
8. Untere Schranken für Sortieren Alle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)). Werden nun gemeinsame Eigenschaften dieser Algorithmen untersuchen. Fassen gemeinsame
MehrWiederholung zu Flüssen
Universität Konstanz Methoden der Netzwerkanalyse Fachbereich Informatik & Informationswissenschaft SS 2008 Prof. Dr. Ulrik Brandes / Melanie Badent Wiederholung zu Flüssen Wir untersuchen Flüsse in Netzwerken:
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am 0..0 Minimale Schnitte in Graphen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum
MehrDas Dilemma des Einbrechers Wer die Wahl hat, hat die Qual!
Das Dilemma des Einbrechers Wer die Wahl hat, hat die Qual! 0kg 4000 Euro Luster 5,5 kg, 430.- Laptop 2,0 kg, 000.- Schatulle 3,2 kg, 800.- Uhr 3,5 kg, 70.- Schwert,5 kg, 850.- Bild 3,4 kg, 680.- Besteck
MehrRandomisierte Algorithmen 2. Erste Beispiele
Randomisierte Algorithmen Randomisierte Algorithmen 2. Erste Beispiele Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2016/2017 1 / 35 Randomisierter Identitätstest
Mehr8 Komplexitätstheorie und Kryptologie
8 Komplexitätstheorie und Kryptologie Verschlüsselung, Authentisierung,... müssen schnell berechenbar sein. Formal: polynomiell zeitbeschränkte Funktionen/Algorithmen Angreifer hat beschränkte Ressourcen.
MehrWS 2009/10. Diskrete Strukturen
WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910
MehrLösungsblatt zur Vorlesung. Kryptanalyse WS 2009/2010. Blatt 6 / 23. Dezember 2009 / Abgabe bis spätestens 20. Januar 2010, 10 Uhr (vor der Übung)
Ruhr-Universität Bochum Lehrstuhl für Kryptologie und IT-Sicherheit Prof. Dr. Alexander May Mathias Herrmann, Alexander Meurer Lösungsblatt zur Vorlesung Kryptanalyse WS 2009/2010 Blatt 6 / 23. Dezember
MehrEinführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5)
Einführung 3 Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Univ.-Prof. Dr. Christoph Meinel Hasso-Plattner-Institut Universität Potsdam, Deutschland Hatten den Reduktionsbegriff
MehrAlgorithmen II Vorlesung am 15.11.2012
Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales
MehrAlgorithmen und Datenstrukturen
1 Algorithmen und Datenstrukturen Wintersemester 2014/15 3. Vorlesung Laufzeitanalyse Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I 2 Recap: Diskutieren Sie mit Ihrer NachbarIn! 1. 2. 3. Was sind
MehrKlausuraufgaben. 1. Wir betrachten die folgende Sprache über dem Alphabet {a, b}
Klausuraufgaben 1. Wir betrachten die folgende Sprache über dem Alphabet {a, b} L = {a n b m n > 0, m > 0, n m} a) Ist L kontextfrei? Wenn ja, geben Sie eine kontextfreie Grammatik für L an. Wenn nein,
Mehr4 Greedy-Algorithmen (gierige Algorithmen)
Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen werden oft für die exakte oder approximative Lösung von Optimierungsproblemen verwendet. Typischerweise konstruiert ein Greedy-Algorithmus eine
MehrDas Multi Traveling Salesman Problem
Das Multi Traveling Salesman Problem Harald Voit Seminar Ganzzahlige Optimierung 19. bis 21. Januar 2007 Wallenfels Das Multi Traveling Salesman Problem p.1/26 Übersicht Vom TSP zum ATSP Das Multi Traveling
MehrApproximationsalgorithmen am Beispiel des Traveling Salesman Problem
Approximationsalgorithmen am Beispiel des Traveling Salesman Problem Seminararbeit im Rahmen des Seminars Algorithmentechnik vorgelegt von Leonie Sautter Leiter des Seminars: Juniorprof. Dr. Henning Meyerhenke
Mehr4. Kreis- und Wegeprobleme Abstände in Graphen
4. Kreis- und Wegeprobleme Abstände in Graphen Abstände in Graphen Definition 4.4. Es sei G = (V,E) ein Graph. Der Abstand d(v,w) zweier Knoten v,w V ist die minimale Länge eines Weges von v nach w. Falls
MehrHeuristiken im Kontext von Scheduling
Heuristiken im Kontext von Scheduling Expertenvortrag CoMa SS 09 CoMa SS 09 1/35 Übersicht Motivation Makespan Scheduling Lokale Suche Weitere Metaheuristiken Zusammenfassung Literatur CoMa SS 09 2/35
Mehr6. Übungsblatt zu Algorithmen II im WS 2011/2012
Karlsruher Institut für Technologie Institut für Theoretische Informatik rof. Dr. eter Sanders Moritz Kobitzsch, Dennis Schieferdecker 6. Übungsblatt zu Algorithmen II im WS 011/01 Aufgabe 1 http://algo.iti.kit.edu/algorithmenii.php
MehrVorlesung Berechenbarkeit und Komplexität. Motivation, Übersicht und Organisatorisches
Berechenbarkeit und Komplexität: Motivation, Übersicht und Organisatorisches Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen Berechenbarkeit die absoluten Grenzen
MehrToleranzbasierte Algorithmen für das Travelling Salesman Problem. Gerold Jäger
Toleranzbasierte Algorithmen für das Travelling Salesman Problem Gerold Jäger (Zusammenarbeit mit Jop Sibeyn, Boris Goldengorin) Institut für Informatik Martin-Luther-Universität Halle-Wittenberg gerold.jaeger@informatik.uni-halle.de
MehrInformatik III. Christian Schindelhauer Wintersemester 2006/07 24. Vorlesung 26.01.2007
Informatik III Christian Schindelhauer Wintersemester 26/7 24. Vorlesung 26..27 NP-Vollständigkeit Gegeben ein unbekanntes NP-Problem X, sollte man nicht nur nach einem Algorithmus mit polynomieller Laufzeit
MehrMotivation. Formale Grundlagen der Informatik 1 Kapitel 10. Motivation. Motivation. Bisher haben wir mit TMs. Probleme gelöst/entschieden/berechnet.
bei TMs bei Computern Formale Grundlagen der Informatik 1 Kapitel 10 Frank Heitmann heitmann@informatik.uni-hamburg.de Bisher haben wir mit TMs Probleme gelöst/entschieden/berechnet. Dabei war entscheidbar
MehrDie Komplexitätsklassen P und NP
Die Komplexitätsklassen P und NP Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 3. Dezember 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit und
MehrKonvergenz im quadratischen Mittel und Parsevalsche Gleichung
Konvergenz im quadratischen Mittel und Parsevalsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Prof Dr Picard, gehalten von Helena Malinowski In vorhergehenden Vorträgen und dazugehörigen
MehrDie Klassen P und NP. Dr. Eva Richter. 29. Juni 2012
Die Klassen P und NP Dr. Eva Richter 29. Juni 2012 1 / 35 Die Klasse P P = DTIME(Pol) Klasse der Probleme, die sich von DTM in polynomieller Zeit lösen lassen nach Dogma die praktikablen Probleme beim
MehrSteiner Bäume. Dipl.-Math. Maria Kandyba Lehrstuhl für Algorithm Engineering, LS VO 15. Januar 2007
Steiner Bäume Dipl.-Math. Maria Kandyba Lehrstuhl für Algorithm Engineering, LS11 12 VO 15. Januar 2007 Überblick Einführung Definition und Motivation Komplexität Approximationsalgorithmen Distanznetzwerk
MehrDatenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte
MehrGrundbegriffe der Informatik
Grundbegriffe der Informatik Kapitel 15: Graphen Thomas Worsch KIT, Institut für Theoretische Informatik Wintersemester 2015/2016 GBI Grundbegriffe der Informatik KIT, Institut für Theoretische Informatik
MehrReduktionen. Algorithmen und Datenstrukturen Kapitel 6.2 Komplexitätstheorie. Exkurs: Reduktionen allgemein. Reduktionen: Erläuterungen
en Algorithmen und Datenstrukturen Kapitel 6.2 Komplexitätstheorie P, und C Definition () Seien L 1, L 2 {0, 1} zwei Sprachen. Wir sagen, dass L 1 auf L 2 in polynomialer Zeit reduziert wird, wenn eine
MehrStefan Schmid TU Berlin & T-Labs, Berlin, Germany. Reduktionen in der Berechenbarkeitstheorie
Stefan Schmid TU Berlin & T-Labs, Berlin, Germany Reduktionen in der Berechenbarkeitstheorie Problem: Wie komme ich von hier zum Hamburger Hbf? 2 Beispiel P1 Wie komme ich von hier zum Hamburger Hbf? kann
MehrEin Dieb raubt einen Laden aus; um möglichst flexibel zu sein, hat er für die Beute nur einen Rucksack dabei
7/7/ Das Rucksack-Problem Englisch: Knapsack Problem Das Problem: "Die Qual der Wahl" Ein Dieb raubt einen Laden aus; um möglichst flexibel zu sein, hat er für die Beute nur einen Rucksack dabei Im Ladens
Mehr16. All Pairs Shortest Path (ASPS)
. All Pairs Shortest Path (ASPS) All Pairs Shortest Path (APSP): Eingabe: Gewichteter Graph G=(V,E) Ausgabe: Für jedes Paar von Knoten u,v V die Distanz von u nach v sowie einen kürzesten Weg a b c d e
MehrKostenmaße. F3 03/04 p.188/395
Kostenmaße Bei der TM nur ein Kostenmaß: Ein Schritt (Konfigurationsübergang) kostet eine Zeiteinheit; eine Bandzelle kostet eine Platzeinheit. Bei der RAM zwei Kostenmaße: uniformes Kostenmaß: (wie oben);
MehrAlles zu seiner Zeit Projektplanung heute
Alles zu seiner Zeit Projektplanung heute Nicole Megow Matheon Überblick Projektplanung Planen mit Graphentheorie Maschinenscheduling Ein 1 Mio. $ Problem Schwere & leichte Probleme? Zeitplanungsprobleme?
MehrÜbersicht Datenstrukturen und Algorithmen. Literatur. Algorithmus: Wikipedia Definition. Vorlesung 1: Einführung. Prof. Dr.
Übersicht Datenstrukturen und Vorlesung 1: Prof. Dr. Erika Ábrahám Theorie Hybrider Systeme Informatik 2 http://ths.rwth-aachen.de/teaching/ss-14/ datenstrukturen-und-algorithmen/ Diese Präsentation verwendet
Mehr1. Welche Eigenschaften sollte ein Pseudo-Random Generator haben?
Die Themen 1. Welche Eigenschaften sollte ein Pseudo-Random Generator haben? Er sollte von wirklichen Zufallsgeneratoren nicht unterscheidbar sein?! Eine viel zu starke Forderung: Stattdessen sollte ein
MehrBabeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005. Paradigmen im Algorithmenentwurf
Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005 Paradigmen im Algorithmenentwurf Problemlösen Problem definieren Algorithmus entwerfen
Mehrkontextfreie Grammatiken Theoretische Informatik kontextfreie Grammatiken kontextfreie Grammatiken Rainer Schrader 14. Juli 2009 Gliederung
Theoretische Informatik Rainer Schrader Zentrum für Angewandte Informatik Köln 14. Juli 2009 1 / 40 2 / 40 Beispiele: Aus den bisher gemachten Überlegungen ergibt sich: aus der Chomsky-Hierarchie bleiben
MehrKomplexitätstheorie Einführung und Überblick (Wiederholung)
Literatur C. Papadimitriou UC Berkeley Zum Komplexitätsbegriff Strukturelle Komplexität Average Case Analyse Effiziente Algorithmen Logische Komplexität Beschreibungssprachen: SQL Kolmogorov Komplexität
Mehr2. Optimierungsprobleme 6
6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen
MehrGrundbegriffe der Informatik
Grundbegriffe der Informatik Einheit 11: Graphen Thomas Worsch Karlsruher Institut für Technologie, Fakultät für Informatik Wintersemester 2010/2011 1/59 Graphische Darstellung von Zusammenhängen schon
MehrDaniel Borchmann. Sommerakademie Görlitz September 2007
Einführung in Semidenite Programmierung Daniel Borchmann Sommerakademie Görlitz 2007 12. September 2007 1 Einleitung Lineare Optimierung Semidenite Optimierung 2 MAX-CUT MAX-BISECTION MAX-2SAT Einleitung
MehrKomplexität und Komplexitätsklassen
Dr. Sebastian Bab WiSe 12/13 Theoretische Grundlagen der Informatik für TI Termin: VL 21 vom 21.01.2013 Komplexität und Komplexitätsklassen Die meisten Probleme mit denen wir zu tun haben sind entscheidbar.
MehrDatenstrukturen & Algorithmen
Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Dynamische Programmierung Einführung Ablaufkoordination von Montagebändern Längste gemeinsame Teilsequenz Optimale
Mehr1. Aufgabe [2 Punkte] Seien X, Y zwei nicht-leere Mengen und A(x, y) eine Aussageform. Betrachten Sie die folgenden Aussagen:
Klausur zur Analysis I svorschläge Universität Regensburg, Wintersemester 013/14 Prof. Dr. Bernd Ammann / Dr. Mihaela Pilca 0.0.014, Bearbeitungszeit: 3 Stunden 1. Aufgabe [ Punte] Seien X, Y zwei nicht-leere
MehrAnalysis I - Einige Lösungen und Ergänzungen
Christian-Albrechts-Universität zu Kiel Mathematisch-Naturwissenschaftliche Fakultät Mathematisches Seminar Analysis I - Einige Lösungen und Ergänzungen von Dipl.-Math. Joscha Prochno Dipl.-Math. Dennis
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
MehrLineares Programmieren
Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 03.05.2011 Nachtrag Art Gallery Problem Lässt sich der Triangulierungs-Algorithmus
MehrSingle Source Sortest Path Negative Kreise All-Pair Shortest Path Problem Minimum Mean Cycle Zusammenfassung. Shortest Paths
Shortest Paths Label Correcting Algorithms Florian Reitz Universität Trier Fachbereich IV Fach Informatik Seminar Netzwerkalgorithmen WS 2005/2006 Einleitung: Problemübersicht Eben: Schnelle Algorithmen
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen 7. Random Walks Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2016/2017 1 / 43 Überblick Überblick Ein randomisierter
MehrFlüsse, Schnitte, bipartite Graphen
Flüsse, Schnitte, bipartite Graphen Vlad Popa 08.06.2010 Inhaltsverzeihnis 1. Flussnetzwerke und Flüsse 1.1 Ford- Fulkerson 1.2 Edmond Karp 1.3 Dinic 2. Schnitte 3. Maximaler Fluss bei minimalen Kosten
MehrEinführung in die Informatik I
Einführung in die Informatik I Berechenbarkeit und Komplexität Prof. Dr. Nikolaus Wulff Berechenbarkeit Im Rahmen der Turingmaschine fiel zum ersten Mal der Begriff Berechenbarkeit. Ein Funktion f heißt
MehrDurchschnitt von Matroiden
Durchschnitt von Matroiden Satz von Edmonds Dany Sattler 18. Januar 2007/ Seminar zur ganzzahligen Optimierung / Wallenfels Definition: Unabhängigkeitssystem Definition: Ein Mengensystem (S, J ) nennt
MehrInformatik II Greedy-Algorithmen
7/7/06 lausthal Erinnerung: Dynamische Programmierung Informatik II reedy-algorithmen. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Zusammenfassung der grundlegenden Idee: Optimale Sub-Struktur:
Mehr2. Übungsblatt zu Algorithmen II im WS 2016/2017
Karlsruher Institut für Technologie Institut für Theoretische Informatik Prof. Dr. Peter Sanders Dr. Christian Schulz, Dr. Simon Gog Michael Axtmann. Übungsblatt zu Algorithmen II im WS 016/017 Aufgabe
MehrKombinatorische Optimierung Vorlesung für den Bereich Diplom/Master Informatik
Kombinatorische Optimierung Vorlesung für den Bereich Diplom/Master Informatik Dozent: Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK
MehrDas Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering
Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme
Mehr