Zusammenfassung Approx algorithmen
|
|
- Jürgen Müller
- vor 6 Jahren
- Abrufe
Transkript
1 Zusammenfassung pprox algorithmen. Einleitung Notation: N := {, 2,... }, N 0 := {0,, 2,... } [n] := {, 2,..., n} [n] 0 := {0,, 2,..., n}.3. Grundbegriffe Kanten}, S(G) = {c V c V Knotenfärbung}, f(c V ) = c V (V ), ziel = Definition: χ(g) ist chromatische Zahl von G, χ (G) ist chromatischer Index lgorithmus GreedyCol: : for i =... n do c v (u i ) := 2: for i =... n do 3: c v (u i ) := min N\c v (Γ(u i )) 4: gib c v aus Satz: GreedyCol(G) (G) +. Ferner κ GreedyCol (G) = GreedyCol(G) OPT(G) (G). Definition: kombinatorisches Optimierunsproblem Π charakterisiert durch Menge von Probleminstanzen D, für alle I D: Menge der zu zulässigen Lösungen S(I), Bewertungsfunktion f : S(I) N, ziel {min, max}. Zu I D gesucht: σ opt I S(I) : f(σ opt I ) = ziel{f(σ) σ S(I)}. Definition: t(n)-pprox alg. : Zu Eingabe I D Berechnung in Zeit t( I ) eine usgabe σi S(I). Schreibeweisen: OPT(I) := f(σ opt I ), (I) := f(σi ). 2. pproximation mit absoluter Güte Definition: absolute Güte: κ (I) := (I) OPT(I) absolute worst-case Güte: κ wc (n) := max{κ (I) I D, I n} Garantie einer absoluten Güte: Funktion in N, die obere Schranke für κ wc ist bsolute bweichung: Funktion in N, die für unendlich viele n N untere Schranke für κ wc ist. Weitere Begriffe: Zeugenmenge gegen, Zeuge. 2.. Graphfärbbarkeit Sei G = (V, E) ungerichteter Graph. Menge der Nachbarn von u ist Γ G (u) = {v {u, v} E}. Smbol für Grad von G: (G) := max u V {deg G (u)} Definition: Knotenfärbung, Kantenfärbung: Nachbarn haben jeweils unterschiedliche Farben Beispiel: Knotenfärbung als Opt problem: D = {G G = (V, E) ungerichteter Graph mit Bemerkungen: Knotenfärbung planarer Graphen: i) Mit 6 Farben immer in Polynomzeit mäglich. ii) 4 Farben wären jedoch immer ausreichend. iii) Entscheidungsproblem Mit 3 Farben möglich? NP-vollständig. iv) Entscheidungsproblem Mit 2 Farben möglich? liegt in P. lgorithmus ColPlan: für planaren Graphen G: Teste ob G 2-färbar, wenn nicht: Färbe mit 6 Farben Satz: ColPlan garantiert eine absolute Güte von 3. n einem Knoten eines kantengefärbten Graphen fehlt eine Farbe, wenn alle inzidenten Kanten dort anders gefärbt sind. Lemma: G kantengefärbt mit [ (G) + ], u, v V mit {u, v} E und deg(u), deg(v) < (G). Dann kann G umgefärbt werden, so dass an u und v dieselbe Farbe fehlt. lgorithmus Kantenfärbung: Eingabe: Graph G = (V, E) : E :=, G := (V, E ) 2: while E E do 3: Wähle eine beliebige Kante {u, v} E \ E 4: altergrad := (G ) 5: E := E {{u, v}} 6: if (G ) > altergrad then 7: Färbe die Kante {u, v} mit der kleinstmöglichen an u und v fehlenden Farbe aus {,..., (G) + } 8: else 9: Färbe G um, so daß an u und v dieselbe Farbe c fehlt 0: färbe {u, v} mit c
2 Satz: Für jeden Graph G: (G) χ (G) (G)+. Folgerung: Kantenfärbung garantiert absolute Güte, hat aber auch absolute bweichung von Ein Nicht-pproximationsergebnis Definition: Rucksackproblem Π: D = { n, vol, p, B n, B N und vol, p : [n] N und w [n] : vol(w) B} S( n, vol, p, B ) = { [n] w vol(w) B} f() = w p(w) ziel = Wir schreiben p j := p(j). Satz: Falls P NP, gibt es kein k N, so dass I D : (I) OPT(I) k. 3. pproximation mit relativer Gütegarantie Π Optimierungsproblem, pprox algorithmus. Definition: relative Güte: ρ (I) := max{ (I) OPT(I), OPT(I) (I) } relative worst-case Güte: ρ wc (n) := max{ρ (I) I D, I n} Garantie einer relativen Güte: Funktion in N, die obere Schranke für ρ wc ist relativer Fehler: ɛ (I) := (I) OPT(I) OPT(I) Relative bweichung: Funktion in N, die für unendlich viele n N untere Schranke für ρ wc ist. Weitere Begriffe: Zeugenmenge gegen, Zeuge. Bemerkungen: Bei Max problem: ɛ (I) = ρ (I). Bei Min problemen: ɛ (I) = ρ (I) ρ (I). 3. Das metrische TSP Definition: ls Optimierungsproblem Π: D = { K n, c K n vollständiger Graph auf n > Knoten, c : E N, u, v, w V : c(u, v) c(u, w) + c(w, v)} S( K n, c ) = {C C = (u,..., u n, u ) ist Hamiltonkreis} f(c) = n i= c(u i, u i+ ), wobei u n+ := u. ziel = min. 2 lgorithmus Einfügen: Eingabe: C = (u,..., u n, u ) wie oben, v E : Bestimme i, so dass c(u i, v) + c(v, u i+ ) c(u i, u i+ ) minimal ist 2: Gib (u,..., u i, v, u i+,..., u n, u ) zurück lgorithmus EinfügeHeuristik: (Für TSP) : C := (v, v) für einen beliebigen Knoten v E 2: for j := 2,..., n do 3: v := Knoten, der nicht in C j ist (*) 4: C j := Einfügen(C j, v) Satz: Für jede Einfüge-Heuristik (beachte Wahlmöglichkeit bei (*)) gilt ρ ( K n, c ) log n +. Satz: Wird bei (*) stets der Knoten gewählt, der am nächsten zu einem Knoten in C j liegt, NearIns (nearest insertion) genannt, so gilt ρ NearIns ( K n, c ) 2 2 n. ( Spannbaum- rgument) Definition: Matching M ist Teilgraph mit Grad. Gewicht eines Matching ist Summe der vorkommenden Kanten. Ein perfektes Matching enthält alle Knoten. Ein leichtestes Matching ist ein perfektes Matching mit minimalem Gewicht. Definition: Ein Multigraph erlaubt mehrere Kanten pro Knotenpaar. Eine Euler-Tour ist ein Kreis (u,... u E, u ), in dem jede Kante genau einmal vorkommt. lgorithmus Ch: (Christofides) Eingabe: I = K n, c : T Ch := minimaler Spannbaum 2: S := {v T Ch deg TCh (v) ist ungerade } S ist gerade 3: M Ch := leichtestes Matching auf dem durch S induzierten Teilgraphen von K n 4: E := (u, u 2,... ) Euler-Tour auf T Ch M Ch 5: E := E ohne Wiederholungen von Knoten Satz: ρ Ch ( K n, c ) 3 2 n. Definition: Vertex-Cover: Finde zu einem ungerichteten Graphen G = (V, E) eine minimale Knotenüberdeckung: C V, so dass {u, v} E : {u, v} C. lgorithmus GreedyVC: : C :=, E := E 2: while E = do 3: C := C {u, v}, wobei {u, v} E beliebig 4: E := E \ {e E u e oder v e} 5: Gebe C aus Satz: ρ GreedyVC (G) 2.
3 Definition: Scheduling: n Jobs mit Lasten w,..., w n, m Maschinen. Gesucht: Zuordnung (s,..., s n ) [m] n, so dass max k [m] i [n] s i =k w i minimal wird. Satz: Die Graham-Heuristik, die Jobs greedy sequentiell auf die jeweils am wenigsten ausgelastete Maschine zu verteilen, hat für jede Eingabe relative Güte 2 m. Satz: LPT (least processing time first), der vor der Graham-Heuristik die Jobs nach aufsteigendem Gewicht sortiert, hat relative Güte 4 3 3m. Definition: Set-Cover-Problem: Gegeben endliche Menge X und F P(X) mit S F S = X. Finde kleinstes C F, das X überdeckt. lgorithmus GreedySetCover: : U := X, C := 2: while U do 3: wähle S F, so dass S U maximal 4: U := U \ S 5: C := C {S} Satz: ρ GreedySetCover ( X, F ) H(max S F S ) Definition: Maximum Set-Cover-Problem: Gegeben endliche Menge X, Gewichtsfunktion w : X R, F P(X), k N. Gesucht: C F mit C = k, so dass w(c) := w( S C S) maximiert wird. (w sei dazu kanonisch auf P(X) fortgesetzt.) lgorithmus MSC: : U := X, C := 2: for i :=,..., k do 3: wähle S F, so dass w(s U) maximal 4: U := U \ S 5: C := C {S} Satz: ρ MSC ( X, w, F, k ) ( e ),59. Definition: G = (V, E) Graph, Knotenmenge U V heißt unabhängig, wenn u, v U : {u, v} E. Beim Independent-Set-Problem ist größtmögliche unabhängige Menge zu finden. lgorithmus GreedyIS: : U :=, t := 0, V (0) := V 2: while V (t) do 3: G (t) := der durch V (t) induzierte Graph 4: u t := Knoten mit minimalem Grad in G (t) 5: V (t+) := V (t) \ ({u t } Γ G (t)(u t )) 6: U := U {u t } 7: t := t + 8: return U Satz: ρ GreedyIS (G) E V +. Die relative bweichung ist mindestens 4 ( V ). Satz: Sei G = (V, E) mit k Farben knotenfärbbar. Dann: GreedyIS(G) log k ( V 3 ). Ein verbesserter Greedy-Knotenfärbungsalgorithmus: lgorithmus GreedyCol2: : t :=, V () := V 2: while V (t) do 3: G (t) := der durch V (t) induzierte Graph 4: U (t) := GreedyIS(G (t) ) 5: Färbe alle Knoten in U (t) mit der Farbe t 6: V (t+) := V (t) U (t) 7: t := t + 8: Gib Färbung aus Satz: Sei G = (V, E) mit k Farben knotenfärbbar, n := V. Dann GreedyCol2(G) 3n. Ferner ρ GreedyCol2 (G) = O(n/ log n). log k Satz: Graphen G mit χ(g) 3 können in polynomieller Zeit mit O( V ) Farben gefärbt werden: lgorithmus Spezialfärbung: : while (G) n do 2: Finde v G mit deg G (v) n 3: Färbe durch {v} Γ G (v) induzierten Teilgraph mit 3 Farben 4: G := G ohne {v} Γ G (v) 5: Färbe G mit GreedyCol-lgorithmus mit (G) + Farben 3.3. Ein Nicht-pproximierbarkeitsergebnis für relative Gütegarantie Satz: Wenn TSP mit konstanter relativer Güte approximiert werden kann, gilt P = NP. Satz: Sei L Σ sei NP-vollständig, Π ein Minimierungsproblem. Gibt es zwei in Polynomzeit berechenbare Funktionen f : Σ D und c : Σ N und eine Konstante γ > { 0, so dass x Σ c(x) x L : OPT(f(x)) = c(x) ( + γ) x L, dann gibt es keinen polynomiellen pproximationsalgorithmus der relativen Güte r < +γ, es sei denn P = NP. n 6 3
4 4. pproximationsschemata Definition: Π Opt problem,, pprox algorithmus für Π mit Eingabe bestehend aus Instanz I und ɛ (0, ). PTS: ist polynomielles pprox schema, wenn für alle I D, ɛ (0, ) in Zeit O(poly( I )) eine zulässige Lösung zu I berechnet wird mit ɛ (I, ɛ) ɛ. FPTS: ist streng polynomielles pprox - schema, wenn ein PTS mit Laufzeit O(poly( I, ɛ )) ist. Satz: (F)PTS. Bei Eingabe I sei z(i) obere Schranke für OPT(I). ɛ := z(i)+. Dann ist (I, ɛ ) = OPT(I). Ist ein FPTS, so ist die Laufzeit O(poly( I, z(i))). 4.. Ein pseudopolynomieller exakter lgorithmus für das 0- Rucksackverfahren Sei I = n, vol, p, B Instanz des Rucksackproblems. p max := max i [n] p j. Prädikat F j (α) := inf{vol(r) R [j] and p(r) α}. lgorithmus DynRucksack: : α := 0 2: repeat 3: α := α + 4: for j:=,..., n do 5: F j (α) := min{f j (α), F j (α p j ) + vol(p j )} 6: until B < F n (α) 7: Gib α aus Satz: DynRucksack berechnet zu Eingabe I den Wert OPT(I) in Zeit O(n OPT(I)) = O(n 2 p max ). Definition: Π Optimierungsproblem mit Instanzen aus ausschließlich natürlichen Zahlen. maxnr(i) sei größte in I vorkommende Zahl. lgorithmus heißt pseudopolynomiell, wenn für alle I D seine Laufzeit poly( I, maxnr(i)) ist Ein streng polynomielles pproximationsschema für das 0- Rucksackproblem lgorithmus R k : Eingabe: Instanz I = n, vol, p, B : Ersetze p j durch p j k 4 2: Berechne mittels DynRucksack eine optimale Rucksackfüllung R k auf der Eingabe I red 3: Gib R k aus Satz: ɛ Rk ( n, vol, p, B ) O(n 2 pmax k ). k n p max. Die Laufzeit ist lgorithmus FPTSRucksack: Eingabe: Instanz I = n, vol, p, B, Fehler ɛ : k := ɛ pmax n 2: Rufe R k (I) auf Satz: FPTSRucksack ist ein FPTS für das Rucksackproblem mit Laufzeit O(n 3 ɛ ) Negativergebnisse für pproximationsschemata Satz: Π Optimierungsproblem, k N fest. Falls Π Minimierungsproblem, sei die Frage Ist zur Eingabe I von Π der Wert OPT(I) k? bzw., falls Π Maximierungsproblem ist, die Frage Ist zur Eingabe I von Π der Wert OPT(I) k? NP-vollständig. Gibt es ein FPTS(PTS) für I, dann ist P = NP. Definition: L NP-vollständig. Dann heißt L stark NP-vollständig, wenn es ein Polynom q gibt, so dass L q := {x Σ x L und maxnr(x) q( x )} NPvollständig ist. Gibt es kein solches q, so heißt L schwach NP-vollständig. D. h., für eine NP-vollständige Sprache L gilt, falls P NP: L stark NP-vollständig es gibt keinen pseudopolynomiellen lgorithmus für L Satz: Π Optimierungsproblem. Gibt es ein Polynom q(x, x 2 ) mit OPT(I) q( I, maxnr(i)) für alle I D, dann folgt aus der Existenz eines FPTS für Π die Existenz eines pseudopolynomiellen exakten lgorithmus. Folgerung: Gibt es für eine Optimierungsvariante eines stark NP-vollständigen Problems ein FPTS, so folgt P = NP. 5. Klassen und Hierarchien Definition: Optimierungsproblem Π liegt in NPO, wenn: i) Gültige Instanzen I werden in poly( I ) Zeit erkannt. ii) Es gibt ein Polynom p, so dass σ S(I) : σ p( I ). Ferner y Σ, y p( I ) : y kann in Polynomialzeit in I als Lösung verifiziert werden.
5 iii) Für alle σ S(I), I D kann f(σ) in Polynomialzeit in I berechnet werden. lternativ: Π NPO : Π p Π. Definition: Zugehöriges Entscheidungsproblem Π ent. Satz: Π NPO Π NP Definition: Sprachklasse PO NPO, wobei zu jeder Instanz I in Polynomialzeit in I eine optimale Lösung berechnet werden kann. Definition: Sei F Menge von Funktionen N R 0. Dann liegt Π NPO in der Sprachklasse F -PX, wenn es einen polynomiellen pprox algorithmus gibt mit ρ F. Ist F die Menge der konstanten Funktionen, so heißt diese Klasse nur PX. Definition: Π NPO liegt in der Sprachklasse PS bzw. FPS, wenn es für Π ein (F)PTS gibt. Satz: PO FPS PS PX NPO Definition: BS ist Klasse der mit konstant absoluter Güte approximierbaren Optimierungsprobleme. Bemerkungen: PO BS PX 6. Techniken für randomisierte pproximationsalgorithmen 6.. Die probabilistische Methode Definition: V := {x,..., x n } Menge von Variablen. Literal ist Variable x i V oder Negation x i. Klausel C = l l k ist oder-verknüpfung von Literalen. Boole sche (n, m)-formel in konjunktiver Normalform ist Φ = C C m. Definition: Probleminstanz von MaxST ist solches Φ. Bewertungsfunktion: wahr(b, Φ) = {C j Φ b(c j ) = wahr}, wobei b : V {true,false} Belegung ist. lgorithmus : : for i :=, {..., n do true mit Wkt. 2: x i := 2 false mit Wkt. 2 3: Gib b = (x,..., x n ) aus Satz: Für jede Boole sche (n, m) Formel Φ in KNF mit mindestens k Literalen pro Klausel gilt: E[(Φ)] ( 2 k ) m. Definition: Erwartete relative Güte Satz: E[ρ (Φ)] 2k 2 k Randomized Rounding Ganzzahliges lineares Programm B für MaxST: gem. m i= x k S i Ĉ j x i {0, } Ĉ i {0, } x k + x k S j ( x k ) Ĉi i [m] i [n] i [m] Relaxierung B rel durch Ersetzung der Nebenbedingungen. lgorithmus B: : Löse relaxiertes Problem B rel zu Φ 2: Ermittle Belegung b B mittels randomized rounding für eine Funktion π : [0, ] [0, ] (z. B.: π(x) = x) Satz: Für alle Φ gilt E[B(Φ)] ( ( /k) k ) OPT(Φ). Satz: E[ρ B (Φ)] /e, Hybrider nsatz: Eine Kombination mehrerer Verfahren Satz: Für einen lgorithmus C, der jeweils mit W keit 2 oder B startet, gilt E[ρ C] Semidefinite Optimierung Definition: Eine Matrix R n n heißt positiv semidefinit, wenn gilt: x R n : x T x 0. Ein semidefinites Programm ist ein lineares Programm, bei dem die Lösungen für die Variablen jeweils als symmetrisch und positiv semidefinite Matrix geschrieben werden können. Definition: Max-Cut-Problem: Gegeben ungerichteter Graph G = (V, E). Gesucht: U V, so dass die Schnittgröße {{u, v} E u U und v V \ U} maximal. Satz: Durch einen zusammenhängenden Graphen gibt es immer einen Schnitt der Größe 2 E. 5
6 Sei n := V und G = (a ij ) djazenzmatrix von G. Für jeden Knoten v i V Variable x i {, }. Quadratisches Programm für Max-Cut: 2 a ij ( x i x j ) i<j gem. x i {, } i [n] Relaxiertes quadratisches Programm: 2 a ij ( u i, u j ) i<j gem. u i R n, u i 2 = i [n] Umformulierung in semidefinites Optimierungsproblem: Sei Y R n n, Y = (y ij ) mit y ij := u i, u j. Dann ist Y symmetrisch und positiv semidefinit. (Mit B := (u,..., u n ) gilt Y = B T B.) gem. 2 a ij ( y ij ) i<j Y = (y ij ) symm., pos. semidef. y ii = i [n] lgorithmus MaxCut: : ɛ := 0, : Löse das semidefinite Programm für Max-Cut mit absoluter Güte ɛ und erhalte Y (ɛ) 3: Führe Cholesky-Zerlegung Y (ɛ) = B T B und damit die Berechnung der u i durch 4: Würfle gleichverteilt einen zufälligen n- dimensionalen Vektor r aus 5: for i :=,..., n do 6: if u i, r 0 then 7: x i := 8: else 9: x i := Satz: E[MaxCut(G)] 0,878 OPT(G) bzw. E[ρ MaxCut (G)] 0,878,39 für alle Graphen G 6
NP-vollständig - Was nun?
Kapitel 4 NP-vollständig - Was nun? Wurde von einem Problem gezeigt, dass es NP-vollständig ist, ist das Problem damit nicht gelöst oder aus der Welt geschafft. In der Praxis muss es trotzdem gelöst werden.
MehrEinführung in Algorithmen und Komplexität
Einführung in Algorithmen und Komplexität SS2004 w u v High Performance = Innovative Computer Systems + Efficient Algorithms Friedhelm Meyer auf der Heide 1 Was haben wir bisher gemacht? - Rechenmodell:
MehrÜberblick. TSP Vergleich der Lösungen. Das Travelling Salesman Problem. Nearest-Neighbor Heuristik für TSP
Kap..1 Heuristiken Kap.. Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 3. VO DAP SS 008 14. Juli 009 Überblick
Mehr3 Klassifikation wichtiger Optimierungsprobleme
3 Klassifikation wichtiger Optimierungsprobleme 3.1 Das MIN- -TSP Wir kehren nochmal zurück zum Handlungsreisendenproblem für Inputs (w {i,j} ) 1 i
MehrApproximation im Sinne der Analysis:
1 Approximation im Sinne der Analysis: Satz von Weierstrass: (1815-1897) Sei f eine stetige Funktion auf [a, b]. Dann gibt es zu jedem ε > 0 ein Polynom P ε mit: max x [a,b] f(x) P ε(x) < ε Numerische
MehrWS 2009/10. Diskrete Strukturen
WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910
MehrEinführung in Approximative Algorithmen und Parametrisierte Komplexität
Einführung in Approximative Algorithmen und Parametrisierte Komplexität Tobias Lieber 10. Dezember 2010 1 / 16 Grundlegendes Approximationsalgorithmen Parametrisierte Komplexität 2 / 16 Grundlegendes Definition
MehrApproximationsalgorithmen: Klassiker I. Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling
Approximationsalgorithmen: Klassiker I Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling VO Approximationsalgorithmen WiSe 2011/12 Markus Chimani
MehrApproximationsalgorithmen
Ausarbeitung zum Thema Approximationsalgorithmen im Rahmen des Fachseminars 24. Juli 2009 Robert Bahmann robert.bahmann@gmail.com FH Wiesbaden Erstellt von: Robert Bahmann Zuletzt berarbeitet von: Robert
MehrAlgorithmen zum Lösen von Vertex und Set Cover Instanzen zur Planung von Angriffen auf Netzwerke
Algorithmen zum Lösen von Vertex und Set Cover Instanzen zur Planung von Angriffen auf Netzwerke Steve Göring 13.07.2012 1/18 Gliederung Einleitung Grundlagen Vertex-Cover-Problem Set-Cover-Problem Lösungsalgorithmen
MehrReduktionen. Algorithmen und Datenstrukturen Kapitel 6.2 Komplexitätstheorie. Exkurs: Reduktionen allgemein. Reduktionen: Erläuterungen
en Algorithmen und Datenstrukturen Kapitel 6.2 Komplexitätstheorie P, und C Definition () Seien L 1, L 2 {0, 1} zwei Sprachen. Wir sagen, dass L 1 auf L 2 in polynomialer Zeit reduziert wird, wenn eine
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
MehrAlgorithmische Graphentheorie
Algorithmische Graphentheorie WS 2008/2009 Vorlesung: Dr. Felix Brandt, Dr. Jan Johannsen Übung: Markus Brill, Felix Fischer Institut für Informatik LMU München Organisatorisches Vorlesung Donnerstag,
MehrNP-Vollständigkeit. Krautgartner Martin (9920077) Markgraf Waldomir (9921041) Rattensberger Martin (9921846) Rieder Caroline (0020984)
NP-Vollständigkeit Krautgartner Martin (9920077) Markgraf Waldomir (9921041) Rattensberger Martin (9921846) Rieder Caroline (0020984) 0 Übersicht: Einleitung Einteilung in Klassen Die Klassen P und NP
MehrDas Briefträgerproblem
Das Briefträgerproblem Paul Tabatabai 30. Dezember 2011 Inhaltsverzeichnis 1 Problemstellung und Modellierung 2 1.1 Problem................................ 2 1.2 Modellierung.............................
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 5 Prof. Peter F. Stadler & Dr. Christian Höner zu Siederdissen Bioinformatik/IZBI Institut für Informatik & Interdisziplinäres Zentrum für Bioinformatik Universität
MehrKlausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13)
Berlin, 21. Februar 2013 Name:... Matr.-Nr.:... Klausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13) 1 2 3 4 5 6 7 8 9 Σ Bearbeitungszeit: 90 min. max. Punktezahl:
Mehr1 Einführung 2 1.1 Zwei Beispiele (MIN JOB SCHEDULING und MAXCUT)... 2 1.2 Notationen und Definitionen... 7 1.3 Übungsaufgaben...
Vorwort v I Approximative Algorithmen 1 1 Einführung 2 1.1 Zwei Beispiele (MIN JOB SCHEDULING und MAXCUT).... 2 1.2 Notationen und Definitionen... 7 1.3 Übungsaufgaben..... 18 2 DieKomplexitätsklassen
MehrApproximations-Algorithmen
Approximations-Algorithmen Institut für Computergraphik und Algorithmen Abteilung für Algorithmen und Datenstrukturen 186.102 Sommersemester 2004, 2h VU Motivation: Bereits viele einfache Optimierungsprobleme
MehrAlgorithmen für schwierige Probleme
Algorithmen für schwierige Probleme Britta Dorn Wintersemester 2011/12 30. November 2011 Wiederholung Baumzerlegung G = (V, E) Eine Baumzerlegung von G ist ein Paar {X i i V T }, T, wobei T Baum mit Knotenmenge
Mehr2. Optimierungsprobleme 6
6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen
MehrAlgorithmen II Vorlesung am 15.11.2012
Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am 0..0 Minimale Schnitte in Graphen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum
MehrWilliam Rowan Hamilton,
3.2.2 Hamiltonkreise Definition 130. In einem Graph G = (V,E) nennt man einen Kreis, der alle Knoten aus V genau einmal durchläuft, einen Hamiltonkreis. Enthält ein Graph eine Hamiltonkreis, nennt man
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen 7. Random Walks Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2016/2017 1 / 43 Überblick Überblick Ein randomisierter
MehrApproximationsalgorithmen am Beispiel des Traveling Salesman Problem
Approximationsalgorithmen am Beispiel des Traveling Salesman Problem Seminararbeit im Rahmen des Seminars Algorithmentechnik vorgelegt von Leonie Sautter Leiter des Seminars: Juniorprof. Dr. Henning Meyerhenke
MehrProbabilistische Analyse von Algorithmen
Lehrstuhl Informatik I Algorithmen & Komplexität RWTH Aachen 27. Mai 2005 Übersicht Einführung 1 Einführung 2 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 3 Idee 4 Formale Beschreibung des s Motivation
MehrEulerweg, Eulerkreis. Das Königsberger Brückenproblem. Definition 3.1. Ein Weg, der jede Kante von G genau einmal
3. Kreis- und Wegeprobleme Kapitelübersicht 3. Kreis- und Wegeprobleme Eulerweg, Eulerkreis Charakterisierung von eulerschen Graphen Bestimmung von eulerschen Wegen und Kreisen Hamiltonsche Graphen Definition
MehrEntscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?
Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum
MehrFormale Methoden 2. Gaetano Geck Lehrstuhl I Logik in der Informatik WS 2014/2015
Formale Methoden 2 Gaetano Geck Lehrstuhl I Logik in der Informatik WS 2014/2015 Teil 3: Logik 1 Aussagenlogik Einleitung Eigenschaften Äquivalenz Folgerung Normalformen 2 Prädikatenlogik Wenn eine Karte
MehrDaniel Borchmann. Sommerakademie Görlitz September 2007
Einführung in Semidenite Programmierung Daniel Borchmann Sommerakademie Görlitz 2007 12. September 2007 1 Einleitung Lineare Optimierung Semidenite Optimierung 2 MAX-CUT MAX-BISECTION MAX-2SAT Einleitung
MehrScheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É.
Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Tardos Janick Martinez Esturo jmartine@techfak.uni-bielefeld.de xx.08.2007 Sommerakademie Görlitz Arbeitsgruppe 5 Gliederung
MehrOptimierungsprobleme. B. Langfeld, M. Ritter, B. Wilhelm Diskrete Optimierung: Fallstudien aus der Praxis
Optimierungsprobleme Instanz eines Optimierungsproblems zulässiger Bereich (meist implizit definiert) Zielfunktion Optimierungsrichtung opt {max, min} Optimierungsproblem Menge von Instanzen meist implizit
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 4 Programm des
MehrParameterisierte Algorithmen WS 2007/08 in Trier. Henning Fernau
Parameterisierte Algorithmen WS 2007/08 in Trier Henning Fernau fernau@uni-trier.de 1 Parameterisierte Algorithmen Gesamtübersicht Einführung Grundbegriffe Problemkerne Suchbäume Graphparameter Weitere
Mehrabgeschlossen unter,,,, R,
Was bisher geschah Turing-Maschinen können Sprachen L X akzeptieren entscheiden Funktionen berechnen f : X X (partiell) Menge aller Turing-akzeptierbaren Sprachen genau die Menge aller Chomsky-Typ-0-Sprachen
MehrToleranzbasierte Algorithmen für das Travelling Salesman Problem. Gerold Jäger
Toleranzbasierte Algorithmen für das Travelling Salesman Problem Gerold Jäger (Zusammenarbeit mit Jop Sibeyn, Boris Goldengorin) Institut für Informatik Martin-Luther-Universität Halle-Wittenberg gerold.jaeger@informatik.uni-halle.de
Mehr6. Übung zur Linearen Optimierung SS08
6 Übung zur Linearen Optimierung SS08 1 Sei G = (V, E) ein schlichter ungerichteter Graph mit n Ecken und m Kanten Für eine Ecke v V heißt die Zahl der Kanten (u, v) E Grad der Ecke (a) Ist die Anzahl
MehrRechnerische Komplexität
Proseminar Effiziente Algorithmen SS 2002 Rechnerische Komplexität Ulrike Krönert (34180) 0. Inhalt 1. Einführung 2. Algorithmen und Komplexität 2.1. Algorithmen 2.2. Laufzeitabschätzung 2.3. Polynomialzeit
MehrRandomisierte Algorithmen 2. Erste Beispiele
Randomisierte Algorithmen Randomisierte Algorithmen 2. Erste Beispiele Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2016/2017 1 / 35 Randomisierter Identitätstest
MehrFerienkurs zur algorithmischen diskreten Mathematik Kapitel 3: Minimal aufspannende Bäume und Matroide
Ferienkurs zur algorithmischen diskreten Mathematik Kapitel 3: Minimal aufspannende Bäume und Matroide Dipl-Math. Wolfgang Kinzner 3.4.2012 Kapitel 3: Minimal aufspannende Bäume und Matroide Minimal aufspannende
MehrEffiziente Algorithmen I
H 10. Präsenzaufgabenblatt, Wintersemester 2015/16 Übungstunde am 18.01.2015 Aufgabe Q Ein Reiseveranstalter besitzt ein Flugzeug, das maximal p Personen aufnehmen kann. Der Veranstalter bietet einen Flug
MehrLiteratur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS)
Dominating Set 59 Literatur Dominating Set Grundlagen 60 Dominating Set (DS) M. V. Marathe, H. Breu, H.B. Hunt III, S. S. Ravi, and D. J. Rosenkrantz: Simple Heuristics for Unit Disk Graphs. Networks 25,
Mehr5.4 Das Rucksackproblem
Problemstellung: 5.4 Das Rucksackproblem Eingabe: Ganzzahlige Volumina a 1,..., a n > 0, Nutzenwerte c 1,..., c n > 0, ganzzahlige Volumenschranke b. Aufgabe: Packe die Objekte in einen Rucksack von Volumen
MehrDie Verbindung von Linearer Programmierung und Graphentheorie
Die Verbindung von Linearer Programmierung und Graphentheorie Definition 5.9. Ein kombinatorisches Optimierungsproblem entspricht einem LP, bei dem statt der Vorzeichenbedingungen x i 0 Bedingungen der
MehrAlgorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck
Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach
MehrAufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph.
Aufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph. a) Es seien W 1 = (V, E 1 ), W 2 = (V, E 2 ) Untergraphen von G, die beide Wälder sind. Weiter gelte E 1 > E 2.
Mehrκ(k) k K S Algorithmus zur Bestimmung eines spannenden Baumes mit minimalen Kosten (Kruskal, 1965).
5. Graphenprobleme Im folgenden bezeichnen G = (E, K) einen endlichen Graphen mit der Eckenmenge E und der Kantenmenge K. G kann ungerichtet, gerichtet, schlicht oder nicht schlicht sein. 5.1 Spannende
MehrDie Komplexitätsklassen P und NP
Die Komplexitätsklassen P und NP Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 3. Dezember 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit und
MehrMusterlösung der Hauptklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2012/13
Institut für Kryptographie und Sicherheit Prof. Dr. Jörn Müller-Quade Musterlösung der Hauptklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 22/3 Vorname Nachname Matrikelnummer
MehrDefinition Ein gerichteter Graph G = (V, E) ist ein Graph von geordneten Paaren (u, v) mit u V und v V.
Kapitel 4 Graphenalgorithmen 4.1 Definitionen Definition 4.1.1. Der Graph G = (V, E) ist über die beiden Mengen V und E definiert, wobei V die Menge der Knoten und E die Menge der Kanten in dem Graph ist.
MehrGraph Paar (V,E) V: nichtleere Menge von Knoten (vertex) E: Menge von Kanten (edges): Relation (Verbindung) zwischen den Knoten
Graphentheorie Graph Paar (V,E) V: nichtleere Menge von Knoten (vertex) E: Menge von Kanten (edges): Relation (Verbindung) zwischen den Knoten gerichteter Graph (DiGraph (directed graph) E: Teilmenge E
MehrDurchschnitt von Matroiden
Durchschnitt von Matroiden Satz von Edmonds Dany Sattler 18. Januar 2007/ Seminar zur ganzzahligen Optimierung / Wallenfels Definition: Unabhängigkeitssystem Definition: Ein Mengensystem (S, J ) nennt
MehrDie Klassen P und NP. Dr. Eva Richter. 29. Juni 2012
Die Klassen P und NP Dr. Eva Richter 29. Juni 2012 1 / 35 Die Klasse P P = DTIME(Pol) Klasse der Probleme, die sich von DTM in polynomieller Zeit lösen lassen nach Dogma die praktikablen Probleme beim
MehrDas Dilemma des Einbrechers Wer die Wahl hat, hat die Qual!
Das Dilemma des Einbrechers Wer die Wahl hat, hat die Qual! 0kg 4000 Euro Luster 5,5 kg, 430.- Laptop 2,0 kg, 000.- Schatulle 3,2 kg, 800.- Uhr 3,5 kg, 70.- Schwert,5 kg, 850.- Bild 3,4 kg, 680.- Besteck
MehrKomplexitätstheorie Einführung und Überblick (Wiederholung)
Literatur C. Papadimitriou UC Berkeley Zum Komplexitätsbegriff Strukturelle Komplexität Average Case Analyse Effiziente Algorithmen Logische Komplexität Beschreibungssprachen: SQL Kolmogorov Komplexität
MehrGraphentheorie. Eulersche Graphen. Eulersche Graphen. Eulersche Graphen. Rainer Schrader. 14. November Gliederung.
Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 14. November 2007 1 / 22 2 / 22 Gliederung eulersche und semi-eulersche Graphen Charakterisierung eulerscher Graphen Berechnung eines
Mehr8 Diskrete Optimierung
8 Diskrete Optimierung Definition 8.1. Ein Graph G ist ein Paar (V (G), E(G)) besteh aus einer lichen Menge V (G) von Knoten (oder Ecken) und einer Menge E(G) ( ) V (G) 2 von Kanten. Die Ordnung n(g) von
MehrDiskrete Mathematik. Sebastian Iwanowski FH Wedel. Kap. 6: Graphentheorie
Referenzen zum Nacharbeiten: Diskrete Mathematik Sebastian Iwanowski FH Wedel Kap. 6: Graphentheorie Lang 6 Beutelspacher 8.1-8.5 Meinel 11 zur Vertiefung: Aigner 6, 7 (7.4: Algorithmus von Dijkstra) Matousek
MehrResolutionsalgorithmus
112 Resolutionskalkül Mit dem Begriff Kalkül bezeichnet man eine Menge von syntaktischen Umformungsregeln, mit denen man semantische Eigenschaften der Eingabeformel herleiten kann. Für den Resolutionskalkül:
MehrEffiziente Algorithmen und Datenstrukturen I. Kapitel 9: Minimale Spannbäume
Effiziente Algorithmen und Datenstrukturen I Kapitel 9: Minimale Spannbäume Christian Scheideler WS 008 19.0.009 Kapitel 9 1 Minimaler Spannbaum Zentrale Frage: Welche Kanten muss ich nehmen, um mit minimalen
MehrLineares Programmieren
Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 03.05.2011 Nachtrag Art Gallery Problem Lässt sich der Triangulierungs-Algorithmus
Mehr9. Übung Algorithmen I
Timo Bingmann, Christian Schulz INSTITUT FÜR THEORETISCHE INFORMATIK, PROF. SANDERS 1 KIT Timo Universität Bingmann, des LandesChristian Baden-Württemberg Schulz und nationales Forschungszentrum in der
MehrÜbung zur Vorlesung Berechenbarkeit und Komplexität
RWTH Aachen Lehrgebiet Theoretische Informatik Reidl Ries Rossmanith Sanchez Tönnis WS 2012/13 Übungsblatt 9 10.12.2012 Übung zur Vorlesung Berechenbarkeit und Komplexität Aufgabe T20 Beweisen Sie die
MehrApproximationsalgorithmen
Makespan-Scheduling Kapitel 4: Approximationsalgorithmen (dritter Teil) (weitere Beispiele und Illustrationen an der Tafel) Hilfreiche Literatur: Vazarani: Approximation Algorithms, Springer Verlag, 2001.
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrNäherungsalgorithmen (Approximationsalgorithmen) WiSe 2006/07 in Trier. Henning Fernau Universität Trier
Näherungsalgorithmen (Approximationsalgorithmen) WiSe 2006/07 in Trier Henning Fernau Universität Trier fernau@informatik.uni-trier.de 1 Näherungsalgorithmen Gesamtübersicht Organisatorisches Einführung
MehrVier-Farben-Vermutung (1)
Vier-Farben-Vermutung (1) Landkarten möchte man so färben, dass keine benachbarten Länder die gleiche Farbe erhalten. Wie viele Farben braucht man zur Färbung einer Landkarte? Vier-Farben-Vermutung: Jede
MehrProseminar Online Algorithmen, Prof. Dr. Rolf Klein
Proseminar Online Algorithmen, Prof. Dr. Rolf Klein Vortrag von Michael Daumen am 13.12.2000 Thema : Minimum Spanning Tree und 2-Approximation der TSP-Tour Inhalt des Vortrags : 1. genaue Vorstellung des
MehrVerbesserungsheuristiken
Verbesserungsheuristiken Bestandteile der Lokalen Suche Für schwierige Optimierungsaufgaben haben Verbesserungsheuristiken eine große praktische Bedeutung. Sie starten mit Ausgangslösungen, die von z.b.
MehrAlgorithmen und Datenstrukturen 2
Algorithmen und Datenstrukturen 2 Sommersemester 2006 5. Vorlesung Peter F. Stadler Universität Leipzig Institut für Informatik studla@bioinf.uni-leipzig.de Wdhlg.: Dijkstra-Algorithmus I Bestimmung der
MehrEinführung in die Informatik
Einführung in die Informatik Jochen Hoenicke Software Engineering Albert-Ludwigs-University Freiburg Sommersemester 2014 Jochen Hoenicke (Software Engineering) Einführung in die Informatik Sommersemester
MehrLogik für Informatiker
Logik für Informatiker 2. Aussagenlogik Teil 6 14.05.2012 Viorica Sofronie-Stokkermans Universität Koblenz-Landau e-mail: sofronie@uni-koblenz.de 1 Bis jetzt Syntax der Aussagenlogik: Definition der Menge
MehrKlausuraufgaben. 1. Wir betrachten die folgende Sprache über dem Alphabet {a, b}
Klausuraufgaben 1. Wir betrachten die folgende Sprache über dem Alphabet {a, b} L = {a n b m n > 0, m > 0, n m} a) Ist L kontextfrei? Wenn ja, geben Sie eine kontextfreie Grammatik für L an. Wenn nein,
MehrDas Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering
Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme
MehrSteinerbäume. Seminarausarbeitung Hochschule Aalen Fakultät für Elektronik und Informatik Studiengang Informatik Schwerpunkt Software Engineering
Steinerbäume Seminarausarbeitung Hochschule Aalen Fakultät für Elektronik und Informatik Studiengang Informatik Schwerpunkt Software Engineering Verfasser Flamur Kastrati Betreuer Prof. Dr. habil. Thomas
Mehr8 Komplexitätstheorie und Kryptologie
8 Komplexitätstheorie und Kryptologie Verschlüsselung, Authentisierung,... müssen schnell berechenbar sein. Formal: polynomiell zeitbeschränkte Funktionen/Algorithmen Angreifer hat beschränkte Ressourcen.
MehrS=[n] Menge von Veranstaltungen J S kompatibel mit maximaler Größe J
Greedy-Strategie Definition Paradigma Greedy Der Greedy-Ansatz verwendet die Strategie 1 Top-down Auswahl: Bestimme in jedem Schritt eine lokal optimale Lösung, so dass man eine global optimale Lösung
MehrDas disjunktive Graphenmodell für Shop-Probleme
Das disjunktive Graphenmodell für Shop-Probleme Definition 1: Ein disjunktiver Graph ist ein Graph G =(V, E) mit V = {(i, j) (i, j) SIJ} {q} {s} Die Knotenmenge ist die Menge der Operationen zuzüglich
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen Der Tragödie IV. Theyl Peter F. Stadler & Konstantin Klemm Bioinformatics Group, Dept. of Computer Science & Interdisciplinary Center for Bioinformatics, University
MehrKapitel 4. Optimierungsalgorithmen. Technische Universität Wien. Gunnar Klau Technische Universität Wien. Institut für Computergraphik und Algorithmen
Kapitel 4 Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen 1 Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren
MehrWiederholung zu Flüssen
Universität Konstanz Methoden der Netzwerkanalyse Fachbereich Informatik & Informationswissenschaft SS 2008 Prof. Dr. Ulrik Brandes / Melanie Badent Wiederholung zu Flüssen Wir untersuchen Flüsse in Netzwerken:
Mehr4 Greedy-Algorithmen (gierige Algorithmen)
Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen werden oft für die exakte oder approximative Lösung von Optimierungsproblemen verwendet. Typischerweise konstruiert ein Greedy-Algorithmus eine
Mehr8. Übung zu Algorithmen I 15. Juni 2016
8. Übung zu Algorithmen I 15. Juni 2016 Lisa Kohl Lisa.Kohl@kit.edu (mit Folien von Julian Arz, Timo Bingmann, Sebastian Schlag, Christian Staudt und Christoph Striecks) Nachtrag: Quicksort, alternative
MehrDiskrete Optimierung (Einführung zur Vorlesung)
Diskrete Optimierung (Einführung zur Vorlesung) Christoph Helmberg : [,] Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete
Mehr3. Musterlösung. Problem 1: Boruvka MST
Universität Karlsruhe Algorithmentechnik Fakultät für Informatik WS 06/07 ITI Wagner. Musterlösung Problem : Boruvka MST pt (a) Beweis durch Widerspruch. Sei T MST von G, e die lokal minimale Kante eines
MehrAlgorithmentheorie Randomisierung. Robert Elsässer
Algorithmentheorie 03 - Randomisierung Robert Elsässer Randomisierung Klassen von randomisierten Algorithmen Randomisierter Quicksort Randomisierter Primzahltest Kryptographie 2 1. Klassen von randomisierten
MehrKapitel 9. Komplexität von Algorithmen und Sortieralgorithmen
1 Kapitel 9 Komplexität von Algorithmen und Sortieralgorithmen Ziele 2 Komplexität von Algorithmen bestimmen können (in Bezug auf Laufzeit und auf Speicherplatzbedarf) Sortieralgorithmen kennenlernen:
MehrParametrisierte Algorithmen
Parametrisierte Algorithmen Markus Lohrey Martin-Luther Universität Halle-Wittenberg Sommersemester 2006 Folien basieren auf Vorlagen von Jens Gramm und Rolf Niedermeier, Univ. Tübingen Markus Lohrey (Univ.
MehrAlgorithmik Funke/Bahrdt/Krumpe/Mendel/Seybold SS Übungsblatt 4
Algorithmik Funke/Bahrdt/Krumpe/Mendel/Seybold SS 2015 http://www.fmi.informatik.uni-stuttgart.de/alg Institut für Formale Methoden der Informatik Universität Stuttgart Übungsblatt 4 Punkte: 50 Problem
MehrAlle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)).
8. Untere Schranken für Sortieren Alle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)). Werden nun gemeinsame Eigenschaften dieser Algorithmen untersuchen. Fassen gemeinsame
MehrVorlesung 4 BETWEENNESS CENTRALITY
Vorlesung 4 BETWEENNESS CENTRALITY 101 Aufgabe! Szenario: Sie arbeiten bei einem sozialen Online-Netzwerk. Aus der Netzwerk-Struktur Ihrer Benutzer sollen Sie wichtige Eigenschaften extrahieren. [http://www.fahrschule-vatterodt.de/
MehrKapitel 4: Minimale spannende Bäume Gliederung der Vorlesung
Kapitel : Minimale spannende Bäume Gliederung der Vorlesung. Grundbegriffe 2. Elementare Graphalgorithmen und Anwendungen. Kürzeste Wege. Minimale spannende Bäume. Färbungen und Cliquen. Traveling Salesman
MehrAlgorithmen und Datenstrukturen Kapitel 6 Komplexitätstheorie
Algorithmen und Datenstrukturen Kapitel 6 Komplexitätstheorie Einführung in P und NP Frank Heitmann heitmann@informatik.uni-hamburg.de 11. November 2015 Frank Heitmann heitmann@informatik.uni-hamburg.de
MehrFakultät für Informatik Universität Magdeburg Jürgen Dassow. Vorbemerkungen
Vorbemerkungen if (x > y) z = x; else z = y; Wenn es blaue Tiger regnet, dann fressen alle Kirschbäume schwarze Tomaten. q(1) = 1, q(i) = q(i 1) + 2i 1 für i 2 Welchen Wert hat q(6)? 24 ist durch 2 teilbar.
MehrVorlesung Diskrete Strukturen Eulersche und Hamiltonsche Graphen
Vorlesung Diskrete Strukturen Eulersche und Hamiltonsche Graphen Bernhard Ganter WS 2013/14 1 Eulersche Graphen Kantenzug Ein Kantenzug in einem Graphen (V, E) ist eine Folge (a 0, a 1,..., a n ) von Knoten
Mehr3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel
3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel EADS 3.1 Konstruktion von minimalen Spannbäumen 16/36
MehrHeuristiken im Kontext von Scheduling
Heuristiken im Kontext von Scheduling Expertenvortrag CoMa SS 09 CoMa SS 09 1/35 Übersicht Motivation Makespan Scheduling Lokale Suche Weitere Metaheuristiken Zusammenfassung Literatur CoMa SS 09 2/35
MehrKapitel 1.3. Normalformen aussagenlogischer Formeln und die Darstellbarkeit Boolescher Funktionen durch aussagenlogische Formeln
Kapitel 1.3 Normalformen aussagenlogischer Formeln und die Darstellbarkeit Boolescher Funktionen durch aussagenlogische Formeln Mathematische Logik (WS 2011/12) Kapitel 1.3: Normalformen 1/ 29 Übersicht
MehrMusterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 2013/14
Institut für Theoretische Informatik Prof. Dr. Jörn Müller-Quade Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 23/4 Vorname Nachname Matrikelnummer Hinweise Für die
Mehr