Probabilistische Analyse von Algorithmen
|
|
|
- Gerd Knopp
- vor 9 Jahren
- Abrufe
Transkript
1 Lehrstuhl Informatik I Algorithmen & Komplexität RWTH Aachen 27. Mai 2005
2 Übersicht Einführung 1 Einführung 2 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 3 Idee 4 Formale Beschreibung des s
3 Motivation Woran erkennt man eine nützliche Theorie? Zwei notwendige Aspekte: Sie sollte Beobachtungen erklären können. Sie sollte zuverlässige Voraussagen machen.
4 Motivation Woran erkennt man eine nützliche Theorie? Zwei notwendige Aspekte: Sie sollte Beobachtungen erklären können. Sie sollte zuverlässige Voraussagen machen. Worst-Case-Analysen sind dafür oft zu pessimistisch. Beispiele: Simplex-Algorithmus Rucksackproblem
5 Simplex-Algorithmus Simplex-Algorithmus Im Worst-Case exponentielle Laufzeit (siehe Abschnitt 2.5). In der Praxis deutlich schneller als die Ellipsoid-Methode. Auch heute noch in der Praxis bevorzugte Methode zur Lösung von LPs.
6 Simplex-Algorithmus Simplex-Algorithmus Im Worst-Case exponentielle Laufzeit (siehe Abschnitt 2.5). In der Praxis deutlich schneller als die Ellipsoid-Methode. Auch heute noch in der Praxis bevorzugte Methode zur Lösung von LPs. Schlussfolgerung Worst-Case-LPs treten in praktischen Anwendungen nicht (oder nur sehr selten) auf.
7 Average-Case-Analyse Möglicher Ausweg: Average-Case-Analyse? Untersuche nicht, was im Worst-Case passiert, sondern, was im Durchschnitt passiert. Klingt gut, aber was ist ein durchschnittliches LP?
8 Average-Case-Analyse Möglicher Ausweg: Average-Case-Analyse? Untersuche nicht, was im Worst-Case passiert, sondern, was im Durchschnitt passiert. Klingt gut, aber was ist ein durchschnittliches LP? Naiver Ansatz max c T x, Ax b, wobei alle Einträge aus A, b und c unabhängig und uniform aus dem Intervall [0, 1] gewählt werden. Aussagen über die (erwartete) Laufzeit des Simplex-Algorithmus in diesem Modell sind bedeutungslos, denn typische Eingaben sind nicht völlig zufällig.
9 Typische Eingaben sind nicht völlig zufällig Ansonsten wäre Fernsehen sehr langweilig...
10 Average-Case-Analysen Prinzipielle Probleme von Average-Case-Analysen Was der Average-Case ist, ist häufig nicht formalisierbar und hängt von der konkreten Anwendung ab. Eine Average-Case-Analyse bezüglich einer Verteilung auf den Eingaben sagt nichts über das Verhalten bezüglich anderer Verteilungen aus.
11 Übersicht Einführung Exkurs: Wahrscheinlichkeitstheorie Borgwardts 1 Einführung 2 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 3 Idee 4 Formale Beschreibung des s
12 Exkurs: Wahrscheinlichkeitstheorie Borgwardts Den probabilistischen Analysen, die wir skizzieren werden, liegt die sogenannte zu Grunde. Betrachte das LP max c T x, Ax b, x 0. Annahme: Wir kennen einen Knoten x R n des Lösungspolyhedrons.
13 Exkurs: Wahrscheinlichkeitstheorie Borgwardts
14 Exkurs: Wahrscheinlichkeitstheorie Borgwardts Berechne zunächst einen Vektor u R n, so dass x die Zielfunktion u T x maximiert.
15 Exkurs: Wahrscheinlichkeitstheorie Borgwardts Berechne zunächst einen Vektor u R n, so dass x die Zielfunktion u T x maximiert. Projiziere das Lösungspolyhedron auf die Ebene, die durch c und u aufgespannt wird.
16 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion Die Projektion ist 2-dimensional, also ein Polygon. c u
17 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion Die Projektion ist 2-dimensional, also ein Polygon. Die Projektion von x ist ein Knoten dieses Polygons. c x u
18 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion Die Projektion ist 2-dimensional, also ein Polygon. Die Projektion von x ist ein Knoten dieses Polygons. Die Projektion von x opt ist ein Knoten dieses Polygons. c x opt u x
19 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion Die Projektion ist 2-dimensional, also ein Polygon. x opt Die Projektion von x ist ein Knoten dieses Polygons. Die Projektion von x opt ist ein Knoten dieses Polygons. Kanten des Polygons entsprechen Kanten des Polyhedrons. c u x
20 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion In 2d ist die Simplexmethode einfach: Folge den Kanten des Polygons! c x opt x u
21 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion In 2d ist die Simplexmethode einfach: Folge den Kanten des Polygons! Wir starten am Knoten x... c x opt x u
22 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion In 2d ist die Simplexmethode einfach: Folge den Kanten des Polygons! Wir starten am Knoten x und folgen den Kanten zu x opt. c x opt x u
23 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion In 2d ist die Simplexmethode einfach: Folge den Kanten des Polygons! Wir starten am Knoten x und folgen den Kanten zu x opt. c x opt x u
24 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion In 2d ist die Simplexmethode einfach: Folge den Kanten des Polygons! Wir starten am Knoten x und folgen den Kanten zu x opt. Beachte: Das Polygon kann exponentiell viele Kanten haben. c x opt u x
25 Exkurs: Wahrscheinlichkeitstheorie Borgwardts Analyse der Die Anzahl der Kanten des Polygons ist also eine obere Schranke für die Anzahl der Pivotschritte des Simplexalgorithmus.
26 Exkurs: Wahrscheinlichkeitstheorie Borgwardts Analyse der Die Anzahl der Kanten des Polygons ist also eine obere Schranke für die Anzahl der Pivotschritte des Simplexalgorithmus. Die probabilistischen Analysen, die wir ansprechen werden, basieren darauf, die erwartete Anzahl von Kanten zu beschränken.
27 Exkurs: Wahrscheinlichkeitstheorie Borgwardts Analyse der Die Anzahl der Kanten des Polygons ist also eine obere Schranke für die Anzahl der Pivotschritte des Simplexalgorithmus. Die probabilistischen Analysen, die wir ansprechen werden, basieren darauf, die erwartete Anzahl von Kanten zu beschränken. Hinweis: Eigentlich betrachten die Analysen das duale Lösungspolyhedron und eine duale Schatteneckenregel, das wollen wir aber in dieser Vorlesung nicht vertiefen.
28 Verteilung und Dichte Exkurs: Wahrscheinlichkeitstheorie Borgwardts Verteilung und Dichte (Ω, A, P) sei ein Wahrscheinlichkeitsraum X : Ω R sei eine reelle Zufallsvariable Verteilung von X: F(x) = Pr [X x]
29 Verteilung und Dichte Exkurs: Wahrscheinlichkeitstheorie Borgwardts Verteilung und Dichte (Ω, A, P) sei ein Wahrscheinlichkeitsraum X : Ω R sei eine reelle Zufallsvariable Verteilung von X: F(x) = Pr [X x] Pr [X [a, b]] = F (b) F (a)
30 Verteilung und Dichte Exkurs: Wahrscheinlichkeitstheorie Borgwardts Verteilung und Dichte (Ω, A, P) sei ein Wahrscheinlichkeitsraum X : Ω R sei eine reelle Zufallsvariable Verteilung von X: F(x) = Pr [X x] Pr [X [a, b]] = F (b) F (a) Dichte von X: f : R R 0 F (x) = x f (t)dt.
31 Beispiel: Uniforme Verteilung Exkurs: Wahrscheinlichkeitstheorie Borgwardts Verteilung 0 falls x 0 F (x) = x falls 0 x 1 1 falls x 1 1 Dichte 0 falls x 0 f (x) = 1 falls 0 x 1 0 falls x
32 Beispiel Einführung Exkurs: Wahrscheinlichkeitstheorie Borgwardts Verteilung F (x) = 1 0 falls x 0 2x 2 falls 0 x 1 2 4x 2x 1 falls 1 2 x 1 1 falls x 1 Dichte f (x) = 2 0 falls x 0 4x falls 0 x 1 2 4(1 x) falls 1 2 x 1 0 falls x
33 Exkurs: Wahrscheinlichkeitstheorie Borgwardts Borgwardts Analyse Anfang der 80er Jahre gelang Borgward eine Average-Case-Analyse des Simplex-Algorithmus für das folgende Eingabemodell. Eingabemodell Er untersuchte LPs der folgenden Form: max c T x a 1 x 1,..., a m x 1 Dabei seien c, a 1,..., a m R n identisch, unabhängig und rotationssymmetrisch verteilt.
34 Exkurs: Wahrscheinlichkeitstheorie Borgwardts Was bedeutet rotationssymmetrisch? Rotationssymmetrische Verteilung Eine rotationssymmetrische Verteilung G auf R n ist eindeutig durch eine Verteilung F : R 0 R 0 beschrieben. Ein Vektor gemäß G wird wie folgt erzeugt. Wähle zunächst die Länge r des Vektors gemäß der Verteilung F. r r r r
35 Exkurs: Wahrscheinlichkeitstheorie Borgwardts Was bedeutet rotationssymmetrisch? Rotationssymmetrische Verteilung Eine rotationssymmetrische Verteilung G auf R n ist eindeutig durch eine Verteilung F : R 0 R 0 beschrieben. Ein Vektor gemäß G wird wie folgt erzeugt. Wähle zunächst die Länge r des Vektors gemäß der Verteilung F. Wähle dann einen Vektor auf dem Rand der n-dimensionalen Kugel mit Radius r uniform zufällig. r r r r
36 Einführung Exkurs: Wahrscheinlichkeitstheorie Borgwardts Theorem (Borgwardt 1987) Die erwartete Anzahl von Schritten des Simplex-Algorithmus mit der auf LPs, die gemäß Borgwardts Eingabemodell mit beliebiger rotationssymmetrischer Verteilung erzeugt werden, beträgt O(m 1/(n 1) n 4 ).
37 Einführung Exkurs: Wahrscheinlichkeitstheorie Borgwardts Theorem (Borgwardt 1987) Die erwartete Anzahl von Schritten des Simplex-Algorithmus mit der auf LPs, die gemäß Borgwardts Eingabemodell mit beliebiger rotationssymmetrischer Verteilung erzeugt werden, beträgt O(m 1/(n 1) n 4 ). Der Beweis ist technisch anspruchsvoll und würde wegen seines Umfangs den Rahmen dieser Vorlesung sprengen.
38 Fazit Einführung Exkurs: Wahrscheinlichkeitstheorie Borgwardts Fazit Borgwardts Modell ist in dem Sinne flexibel, dass die rotationssymmetrische Verteilung beliebig gewählt werden kann.
39 Fazit Einführung Exkurs: Wahrscheinlichkeitstheorie Borgwardts Fazit Borgwardts Modell ist in dem Sinne flexibel, dass die rotationssymmetrische Verteilung beliebig gewählt werden kann. Dennoch ist es stark eingeschränkt und nicht realitätsnah. (Rotationssymmetrie ist für die Analyse hilfreich, aber warum sollten Eingaben in der Praxis so aussehen? Gleiches gilt für die Einschränkung auf 1 Bedingungen.)
40 Fazit Einführung Exkurs: Wahrscheinlichkeitstheorie Borgwardts Fazit Borgwardts Modell ist in dem Sinne flexibel, dass die rotationssymmetrische Verteilung beliebig gewählt werden kann. Dennoch ist es stark eingeschränkt und nicht realitätsnah. (Rotationssymmetrie ist für die Analyse hilfreich, aber warum sollten Eingaben in der Praxis so aussehen? Gleiches gilt für die Einschränkung auf 1 Bedingungen.) Borgwardts Analyse hat aber den Grundstein für eine realitätsnähere probabilistische Analyse gelegt, die wir nun skizzieren wollen.
41 Übersicht Einführung Idee 1 Einführung 2 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 3 Idee 4 Formale Beschreibung des s
42 Idee Smoothed Analysis (Geglättete Analyse) Motivation Eingaben, die in der Praxis vorkommen haben eine bestimmte Struktur (die wir i.a. nicht genau kennen), sie unterliegen aber typischerweise auch zumindest leichten zufälligen Einflüssen.
43 Idee Smoothed Analysis (Geglättete Analyse) Motivation Eingaben, die in der Praxis vorkommen haben eine bestimmte Struktur (die wir i.a. nicht genau kennen), sie unterliegen aber typischerweise auch zumindest leichten zufälligen Einflüssen. Beispiel: Ein LP, das Warenpreise enthält, die von den aktuellen Währungsschwankungen abhängen.
44 Idee Smoothed Analysis (Geglättete Analyse) Motivation Eingaben, die in der Praxis vorkommen haben eine bestimmte Struktur (die wir i.a. nicht genau kennen), sie unterliegen aber typischerweise auch zumindest leichten zufälligen Einflüssen. Beispiel: Ein LP, das Warenpreise enthält, die von den aktuellen Währungsschwankungen abhängen. Spielman und Teng haben deswegen semi-zufällige Modelle untersucht.
45 Idee Smoothed Analysis (Geglättete Analyse) Semi-zufälliges Modell Eingaben werden in zwei Stufen generiert: 1 Ein Gegner gibt eine Eingabe I vor. Beispiel: LPs max c T x, Ax b mit A R m n, b R m und c R n 1 Gegner wählt A, b und c beliebig.
46 Idee Smoothed Analysis (Geglättete Analyse) Semi-zufälliges Modell Eingaben werden in zwei Stufen generiert: 1 Ein Gegner gibt eine Eingabe I vor. 2 I wird zufällig ein wenig verändert (perturbiert). Beispiel: LPs max c T x, Ax b mit A R m n, b R m und c R n 1 Gegner wählt A, b und c beliebig. 2 Auf die Einträge von A und b werden unabhängige normalverteilte Zufallsvariablen addiert.
47 Ein Beispiel Einführung Idee Gegner wählt LP x A = 1.5 1, b = x 1
48 Ein Beispiel Einführung Idee Gegner wählt LP Perturbation x 2 x A = 1.5 1, b = x A = , b = x 1
49 Geglättete Komplexität Idee Definitionen I = Menge der Eingaben I n = Menge der Eingaben der Länge n T A (I) = Laufzeit von Algorithmus A auf Eingabe I per(i) = zufällig Perturbation von I
50 Geglättete Komplexität Idee Definitionen I = Menge der Eingaben I n = Menge der Eingaben der Länge n T A (I) = Laufzeit von Algorithmus A auf Eingabe I per(i) = zufällig Perturbation von I Komplexitätsbegriffe Worst-Case-Komplexität: max I In T A (I) Average-Case-Komplexität: E I In [T A (I)] Geglättete Komplexität: max I In E [T A (per(i))]
51 Geglättete Komplexität Idee
52 Geglättete Komplexität Idee
53 Idee Normalverteilung Die Normalverteilung mit Standardabweichung σ wird beschrieben durch die Dichte f (x) = 1 ( σ 2π exp x 2 ) 2σ 2.
54 Idee
55 Idee Eigenschaften Je kleiner σ, desto konzentrierter ist die Verteilung um den Nullpunkt. Normalverteilungen werden in vielen Situationen als realistisch angesehen (Körpergröße, IQ,...). 1 sigma=0.5 sigma=1 sigma=
56 Idee Der Gegner gibt das LP max c T x, Ax b vor.
57 Idee Der Gegner gibt das LP max c T x, Ax b vor. Skaliere die Nebenbedingungen so, dass für jede Bedingung b i = 1 gilt.
58 Idee Der Gegner gibt das LP max c T x, Ax b vor. Skaliere die Nebenbedingungen so, dass für jede Bedingung b i = 1 gilt. Addiere eine unabhängige normalverteilte Zufallsvariable mit Standardabweichung σ zu jedem Eintrag aus A und b.
59 Idee Je kleiner σ ist, desto kleiner ist die (erwartete) Perturbation
60 Idee Je kleiner σ ist, desto kleiner ist die (erwartete) Perturbation Je kleiner σ ist, desto mehr Einfluss hat der Gegner, desto näher sind wir also einer Worst-Case-Betrachtung.
61 Idee Je kleiner σ ist, desto kleiner ist die (erwartete) Perturbation Je kleiner σ ist, desto mehr Einfluss hat der Gegner, desto näher sind wir also einer Worst-Case-Betrachtung. Für sehr große σ nähert sich die Analyse einer Average-Case-Analyse.
62 Idee Je kleiner σ ist, desto kleiner ist die (erwartete) Perturbation Je kleiner σ ist, desto mehr Einfluss hat der Gegner, desto näher sind wir also einer Worst-Case-Betrachtung. Für sehr große σ nähert sich die Analyse einer Average-Case-Analyse. Die geglättete Analyse ist also ein Hybrid aus Worst-Caseund Average-Case-Analyse.
63 Einführung Idee Theorem (Spielman und Teng 2001) Die erwartete Anzahl von Schritten des Simplex-Algorithmus mit der auf LPs, die gemäß dem oben beschriebenen Eingabemodell mit Standardabweichung σ erzeugt werden, ist O(poly(n, m, 1/σ)).
64 Übersicht Einführung Formale Beschreibung des s 1 Einführung 2 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 3 Idee 4 Formale Beschreibung des s
65 Übertragung auf diskrete Probleme Formale Beschreibung des s Übertragung auf diskrete Probleme Lässt sich das von Spielman und Teng für LPs auch auf ganzzahlige Programme, also ILPs, übertragen?
66 Übertragung auf diskrete Probleme Formale Beschreibung des s Übertragung auf diskrete Probleme Lässt sich das von Spielman und Teng für LPs auch auf ganzzahlige Programme, also ILPs, übertragen? Wir betrachten im Folgenden nur binäre Programme.
67 Übertragung auf diskrete Probleme Formale Beschreibung des s Übertragung auf diskrete Probleme Lässt sich das von Spielman und Teng für LPs auch auf ganzzahlige Programme, also ILPs, übertragen? Wir betrachten im Folgenden nur binäre Programme. Das muss zunächst für ILPs angepasst werden!
68 Beispiel Einführung Formale Beschreibung des s Beispiel: Vertex Cover Eingabe: Graph G = (V, E)
69 Beispiel Einführung Formale Beschreibung des s Beispiel: Vertex Cover Eingabe: Graph G = (V, E) Ausgabe: Ein minimales Vertex Cover.
70 Beispiel Einführung Formale Beschreibung des s Beispiel: Vertex Cover Eingabe: Graph G = (V, E) Ausgabe: Ein minimales Vertex Cover. ILP-Formulierung: v V : x v {0, 1} min v V x v e = (v, u) E : x v + x u 1
71 Beispiel Einführung Formale Beschreibung des s Beispiel: Vertex Cover Eingabe: Graph G = (V, E) Ausgabe: Ein minimales Vertex Cover. ILP-Formulierung: v V : x v {0, 1} min v V x v e = (v, u) E : x v + x u 1 Ist es sinnvoll, die Nebenbedingungen zu perturbieren?
72 Beispiel Einführung Formale Beschreibung des s u v w Eigenschaften Minimales Vertex Cover ist der Knoten v, d.h. x v = 1 und x u = x w = 0. Dann gilt: x u + x v 1 und x v + x w 1.
73 Beispiel Einführung Formale Beschreibung des s u v w Eigenschaften Wir perturbieren jetzt die Nebenbedingungen: 1.1 x u x v 1.1 und 1.2 x v x w 0.9.
74 Beispiel Einführung Formale Beschreibung des s u v w Eigenschaften Wir perturbieren jetzt die Nebenbedingungen: 1.1 x u x v 1.1 und 1.2 x v x w 0.9. Der Knoten v alleine bildet nun keine gültige Lösung mehr, denn 1.1 x u x v = 0.9 < 1.1 für x v = 1 und x u = x w = 0.
75 Beispiel Einführung Formale Beschreibung des s u v w Eigenschaften Wir perturbieren jetzt die Nebenbedingungen: 1.1 x u x v 1.1 und 1.2 x v x w 0.9. Der Knoten v alleine bildet nun keine gültige Lösung mehr, denn 1.1 x u x v = 0.9 < 1.1 für x v = 1 und x u = x w = 0. Durch die Perturbation wurde also die kombinatorische Struktur des Problems zerstört!
76 Schlussfolgerung Einführung Formale Beschreibung des s Schlussfolgerung ILPs beschreiben i.a. Probleme mit einer kombinatorischen Struktur.
77 Schlussfolgerung Einführung Formale Beschreibung des s Schlussfolgerung ILPs beschreiben i.a. Probleme mit einer kombinatorischen Struktur. Wahlloses Perturbieren der Nebenbedingungen zerstört diese kombinatorische Struktur.
78 Schlussfolgerung Einführung Formale Beschreibung des s Schlussfolgerung ILPs beschreiben i.a. Probleme mit einer kombinatorischen Struktur. Wahlloses Perturbieren der Nebenbedingungen zerstört diese kombinatorische Struktur. Deswegen wäre ein solches Eingabemodell keineswegs realistisch.
79 Formale Beschreibung des s Problemklasse Wir betrachten deswegen Probleme der folgenden Form: max c 1 x c n x n x = (x 1,..., x n ) S Ax b Dabei ist S eine beliebige Teilmenge von {0, 1} n.
80 Formale Beschreibung des s Problemklasse Wir betrachten deswegen Probleme der folgenden Form: max c 1 x c n x n x = (x 1,..., x n ) S Ax b Dabei ist S eine beliebige Teilmenge von {0, 1} n. Zusätzlich zu den linearen Nebenbedingungen, die perturbiert werden, kann also durch S eine Problemstruktur beschrieben werden, die nicht perturbiert wird.
81 Beispiel Einführung Formale Beschreibung des s Spannbaumproblem mit Nebenbedingung Eingabe: Graph G = (V, E), Gewichte w : E N, Kosten c : E N, Budget b
82 Beispiel Einführung Formale Beschreibung des s Spannbaumproblem mit Nebenbedingung Eingabe: Graph G = (V, E), Gewichte w : E N, Kosten c : E N, Budget b Finde einen minimalen (bzgl. Gewicht) Spannbaum, der die Kostengrenze einhält.
83 Beispiel Einführung Formale Beschreibung des s Spannbaumproblem mit Nebenbedingung Eingabe: Graph G = (V, E), Gewichte w : E N, Kosten c : E N, Budget b Finde einen minimalen (bzgl. Gewicht) Spannbaum, der die Kostengrenze einhält. Variablen: e E : x e {0, 1}
84 Beispiel Einführung Formale Beschreibung des s Spannbaumproblem mit Nebenbedingung Eingabe: Graph G = (V, E), Gewichte w : E N, Kosten c : E N, Budget b Finde einen minimalen (bzgl. Gewicht) Spannbaum, der die Kostengrenze einhält. Variablen: e E : x e {0, 1} S {0, 1} m bezeichne die Menge aller Spannbäume min e E w(e) x e x S und e E c(e) x e b.
85 Formale Beschreibung des s Spannbaumproblem mit Nebenbedingung Eingabe Budget b = 7 (Gew., Kosten) (1,6) (5,1) (2,2) (5,1) (1,1)
86 Formale Beschreibung des s Spannbaumproblem mit Nebenbedingung Eingabe Budget b = 7 (Gew., Kosten) (1,6) Minimaler Spannbaum Gewicht 4 Kosten 9 (1,6) (5,1) (2,2) (5,1) (2,2) (1,1) (1,1)
87 Formale Beschreibung des s Spannbaumproblem mit Nebenbedingung Eingabe Budget b = 7 (Gew., Kosten) (1,6) Minimaler Spannbaum Gewicht 4 Kosten 9 (1,6) Optimale Lösung Gewicht 8 Kosten 4 (5,1) (2,2) (5,1) (2,2) (2,2) (5,1) (1,1) (1,1) (1,1)
88 Formale Beschreibung des s Zusammenfassung Gegner gibt Problem vor: max c T x, Ax b, x S. Wir perturbieren entweder die Koeffizienten der Zielfunktion c, die Einträge von A oder beides. Die Perturbation erfolgt (so wie bei LPs) durch Addition von unabhängigen Zufallsvariablen.
89 Formale Beschreibung des s Allgemeineres LPs wurden durch Addition einer normalverteilten Zufallsvariable perturbiert.
90 Formale Beschreibung des s Allgemeineres LPs wurden durch Addition einer normalverteilten Zufallsvariable perturbiert. Die Laufzeit wurde in Abhängigkeit von σ angegeben.
91 Formale Beschreibung des s Allgemeineres LPs wurden durch Addition einer normalverteilten Zufallsvariable perturbiert. Die Laufzeit wurde in Abhängigkeit von σ angegeben. Wir erlauben die Addition einer Zufallsvariable mit beliebiger Dichte f.
92 Formale Beschreibung des s Allgemeineres LPs wurden durch Addition einer normalverteilten Zufallsvariable perturbiert. Die Laufzeit wurde in Abhängigkeit von σ angegeben. Wir erlauben die Addition einer Zufallsvariable mit beliebiger Dichte f. Die Laufzeit wird in Abhängigkeit von der maximalen Dichte φ = sup x R f (x) angegeben.
93 Formale Beschreibung des s Normalverteilung Die Dichte der Normalverteilung mit Standardabweichung σ ist f (x) = 1 ( σ 2π exp x 2 ) 2σ 2. Es gilt Also φ 1/σ. φ = sup f (x) = 1 x R σ 2π.
94 Formale Beschreibung des s 1 sigma=0.5 sigma=1 sigma=
95 Formale Beschreibung des s
96 Formale Beschreibung des s Zusammenfassung Der Parameter φ gibt (analog zu σ) an, wie groß die erwartete Perturbation ist.
97 Formale Beschreibung des s Zusammenfassung Der Parameter φ gibt (analog zu σ) an, wie groß die erwartete Perturbation ist. Je größer φ ist, desto mehr Einfluss hat der Gegner, desto näher sind wir dem Worst-Case.
98 Formale Beschreibung des s Zusammenfassung Der Parameter φ gibt (analog zu σ) an, wie groß die erwartete Perturbation ist. Je größer φ ist, desto mehr Einfluss hat der Gegner, desto näher sind wir dem Worst-Case. Je kleiner φ ist, desto näher sind wir einer Average-Case-Analyse.
99 Formale Beschreibung des s Zusammenfassung Der Parameter φ gibt (analog zu σ) an, wie groß die erwartete Perturbation ist. Je größer φ ist, desto mehr Einfluss hat der Gegner, desto näher sind wir dem Worst-Case. Je kleiner φ ist, desto näher sind wir einer Average-Case-Analyse. Je größer φ wird, desto größer sollte also auch die erwartete Laufzeit werden.
100 Beispiel: Rucksackproblem Formale Beschreibung des s Kosten Gewicht
101 Beispiel: Rucksackproblem Formale Beschreibung des s Kleines φ Kosten Gewicht
102 Beispiel: Rucksackproblem Formale Beschreibung des s Großes φ Kosten Gewicht
103 Einführung Formale Beschreibung des s Wir werden das folgende Theorem beweisen. Theorem (Beier, Vöcking 2004) Ein binäres Optimierungsproblem hat genau dann eine polynomielle geglättete Komplexität, wenn es einen pseudopolynomiellen Algorithmus für das Problem gibt.
104 Einführung Formale Beschreibung des s Wir werden das folgende Theorem beweisen. Theorem (Beier, Vöcking 2004) Ein binäres Optimierungsproblem hat genau dann eine polynomielle geglättete Komplexität, wenn es einen pseudopolynomiellen Algorithmus für das Problem gibt. Hinweise Pseudopolynomiell bezieht sich auf genau diejenigen Koeffizienten, die perturbiert werden. Formale Definition von polynomieller geglätteter Komplexität später.
105 Folgerungen Einführung Formale Beschreibung des s Folgerungen Das TSP hat keine polynomielle geglättete Komplexität. Das 2-kriterielle Spannbaumproblem hat eine polynomielle geglättete Komplexität, wenn man Gewichte und Kosten perturbiert.
106 Literatur Einführung Formale Beschreibung des s Literatur Rene Beier, Berthold Vöcking Typical Properties of Winners and Losers in Discrete Optimization, STOC Karl Heinz Borgwardt The Simplex Method A Probabilistic Analysis, Springer, Daniel Spielman, Shang-Hua Teng Smoothed Analysis of Algorithms: Why the Simplex Algorithm Usually Takes Polynomial Time, Journal of the ACM, 51(3), , 2004
Optimierung. Vorlesung 04
Optimierung Vorlesung 04 Übungsbetrieb Mangels Teilnehmer keine Dienstagsübung mehr. Prüfung laut Paul: Di, 10. Feb. 2015 00:01-23:59 2 Was bisher geschah LP: Maximiere c T x unter Ax = b, x 0. Basis:
Probleme aus NP und die polynomielle Reduktion
Probleme aus NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 15. Dezember 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit
Approximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 4. Januar 2011 Berthold Vöcking, Informatik 1 () Vorlesung
Die Klasse NP und die polynomielle Reduktion
Die Klasse NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen Dezember 2011 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit
Approximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1 / 18 Was tun mit NP-harten Problemen? Viele praxisrelevante
Das Rucksackproblem: schwache NP-Härte und Approximation
Das Rucksackproblem: schwache NP-Härte und Approximation Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1. Februar 2010 Berthold Vöcking, Informatik 1 () Vorlesung
Die Klasse NP und die polynomielle Reduktion. Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen
Die Klasse NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1 / 26 Optimierungsprobleme und ihre Entscheidungsvariante Beim Rucksackproblem
Vorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung
Vorlesung 7b Unabhängigkeit bei Dichten und die mehrdimensionale Standardnormalverteilung 0. Wiederholung: Die Normalverteilung Dichtefunktion ϕ der Standardnormalverteilung ϕ(x) 0.0 0.1 0.2 0.3 0.4 4
10. Komplexität der Linearen Optimierung und Innere Punkte Methoden
56 10.1 LP ist in NP! conp... 57 10.2 Zur Laufzeit des Simplexalgorithmus... 58 10.3 Die Ellipsoidmethode... 59... 60 10.1 LP ist in NP! conp 57-1 Wichtigste Aussagen dieses Kapitels (alle ohne vollständigen
Kap. 3: Exakte Lösungsverfahren für NPschwierige. Optimierungsprobleme VO Algorithm Engineering
Kap. 3: Exakte Lösungsverfahren für NPschwierige kombinatorische Optimierungsprobleme VO Algorithm Engineering 3.1 Einführung Professor Dr. Petra Mutzel 3.2 Komb. vs. Ganzzahlige Opt. Lehrstuhl für Algorithm
Effiziente Algorithmen (SS2015)
Effiziente Algorithmen (SS205) Kapitel 5 Approximation II Walter Unger Lehrstuhl für Informatik 2.06.205 07:59 5 Inhaltsverzeichnis < > Walter Unger 5.7.205 :3 SS205 Z Inhalt I Set Cover Einleitung Approximation
Die Komplexitätsklassen P und NP
Die Komplexitätsklassen P und NP Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen November 2011 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit und
VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung
70 Wichtige kontinuierliche Verteilungen
70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche
13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Lösungen zur Vorlesung Berechenbarkeit und Komplexität
Lehrstuhl für Informatik 1 WS 009/10 Prof. Dr. Berthold Vöcking 0.0.010 Alexander Skopalik Thomas Kesselheim Lösungen zur Vorlesung Berechenbarkeit und Komplexität. Zulassungsklausur Aufgabe 1: (a) Worin
Optimierung. Vorlesung 02
Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j
Optimierung Optimization. Vorlesung 01
Optimierung Optimization Vorlesung 01 Organisatorisches [email protected] Büro: F1.209 (Sprechstunde nach Vereinbarung) Vorlesung: Freitags, 11:15 12:45, F0 053 Übungen: Dienstags, 13:15 14:00, F0 053
Approximationsalgorithmen
Approximationsalgorithmen 1. Vorlesung Joachim Spoerhase Alexander Wolff Lehrstuhl für Informatik I Wintersemester 2017/18 Bücher zur Vorlesung Vijay V. Vazirani Approximation Algorithms Springer-Verlag
Theoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme
Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien
Reelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
Optimierung. Vorlesung 08
Optimierung Vorlesung 08 Heute Dualität Ganzzahligkeit Optimierung der Vorlesung durch Evaluierung 2 Das duale LP Das primale LP Maximiere c T x unter Ax b, x R d 0. wird zu dem dualen LP Minimiere b T
Literatur für diese VO. Überblick. Kap. 5: Approximationsalgorithmen für kombinatorische Optimierungsprobleme
Kap. : Approximationsalgorithmen für kombinatorische Optimierungsprobleme Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS Fakultät für Informatik, TU Dortmund Literatur für diese VO
Randomisierte Algorithmen und probabilistische Analyse
Randomisierte Algorithmen und probabilistische Analyse S.Seidl, M.Nening, T.Niederleuthner S.Seidl, M.Nening, T.Niederleuthner 1 / 29 Inhalt 1 Randomisierte Algorithmen 2 Probabilistische Analyse S.Seidl,
Algorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
Approximationsalgorithmen
Effiziente Algorithmen Lösen NP-vollständiger Probleme 320 Approximationsalgorithmen In polynomieller Zeit lässen sich nicht exakte Lösungen von NP-harten Problemen berechnen. Approximationsalgorithmen
Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering
Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme
Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006
Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden
Kochrezept für NP-Vollständigkeitsbeweise
Kochrezept für NP-Vollständigkeitsbeweise Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 11. Januar 2010 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit
Ü b u n g s b l a t t 7
Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 21. 5. 2007 Ü b u n g s b l a t t 7 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
Wahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
Algorithmen und Datenstrukturen 2. Stefan Florian Palkovits, BSc Juni 2016
Algorithmen und Datenstrukturen 2 Übung 1 Stefan Florian Palkovits, BSc 0926364 [email protected] 12. Juni 2016 Aufgabe 1: Es existiert eine Reduktion von Problem A auf Problem B in O(n 3 +
Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge
2. Optimierungsprobleme 6
6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen
Betriebswirtschaftliche Optimierung
Institut für Statistik und OR Uni Graz 1 Das Travelling Salesperson Problem 2 Das Travelling Salesperson Problem Zentrales Problem der Routenplanung Unzählige wissenschaftliche Artikel theoretischer sowie
Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation
Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit
Algorithmen für schwierige Probleme
Algorithmen für schwierige Probleme Britta Dorn Wintersemester 2011/12 24. November 2011 Farbkodierung Beispiel Longest Path Longest Path gegeben: G = (V, E) und k N. Frage: Gibt es einen einfachen Pfad
Approximationsalgorithmen. 19. Dezember / 28
Approximationsalgorithmen 19. Dezember 2017 1 / 28 Optimierungsprobleme Das Ziel: Bearbeite schwierige Optimierungsprobleme der Form opt y f (x, y) so dass L(x, y). Die Zielfunktion f (x, y) ist zu minimieren
Betriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 22 1 Das Travelling Salesperson Problem
Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn
Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,
Einführung in Berechenbarkeit, Komplexität und Formale Sprachen
Einführung in Berechenbarkeit, Komplexität und Formale Sprachen V17, 10.12.09 Willkommen zur Vorlesung Einführung in Berechenbarkeit, Komplexität und Formale Sprachen Friedhelm Meyer auf der Heide 1 Rückblick:
TU DORTMUND Sommersemester 2018
Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade
Kap. 4.3: Das Dualitätstheorem der linearen Optimierung
Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur
Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung
Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;
Stetige Standardverteilungen
Universität Basel Wirtschaftswissenschaftliches Zentrum Stetige Standardverteilungen Dr. Thomas Zehrt Inhalt: 1. Die stetige Gleichverteilung 2. Die Normalverteilung (a) Einstimmung (b) Standardisierung
DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
Allgemeines Halteproblem Hilberts 10. Problem
Allgemeines Halteproblem Hilberts 10. Problem Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen November 2011 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit
8 Stichprobenkennwerteverteilung
8 Stichprobenkennwerteverteilung 8.1 Vorbemerkungen 8.2 Die Normalverteilung: Teil 2 8.3 Die t Verteilung 8.4 Normalverteilungs Approximation: Der zentrale Grenzwertsatz 8.1 Vorbemerkungen Daten x 1,...,
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
Das Problem des minimalen Steiner-Baumes
Das Problem des minimalen Steiner-Baumes Ein polynomieller Approximationsalgorithmus Benedikt Wagner 4.05.208 INSTITUT FU R THEORETISCHE INFORMATIK, LEHRSTUHL ALGORITHMIK KIT Die Forschungsuniversita t
1. Klausur zur Vorlesung Algorithmentechnik Wintersemester 2008/2009
. Klausur zur Vorlesung Algorithmentechnik Wintersemester 008/009 Hier Aufkleber mit Name und Matrikelnummer anbringen Vorname: Nachname: Matrikelnummer: Beachten Sie: Bringen Sie den Aufkleber mit Ihrem
Theoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 20. November 2014 INSTITUT FÜR THEORETISCHE 0 KIT 20.11.2014 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der
Teil III. Komplexitätstheorie
Teil III Komplexitätstheorie 125 / 160 Übersicht Die Klassen P und NP Die Klasse P Die Klassen NP NP-Vollständigkeit NP-Vollständige Probleme Weitere NP-vollständige Probleme 127 / 160 Die Klasse P Ein
Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung
Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;
Kapitel 4. Optimierungsalgorithmen. Technische Universität Wien. Gunnar Klau Technische Universität Wien. Institut für Computergraphik und Algorithmen
Kapitel 4 Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen 1 Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren
Berechenbarkeit und Komplexität: Polynomielle Reduktion / NP-Vollständigkeit / Satz von Cook und Levin
Berechenbarkeit und Komplexität: Polynomielle Reduktion / NP-Vollständigkeit / Satz von Cook und Levin Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität 11. Januar 2008 Wiederholung
Theoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Übung am 16.12.2010 INSTITUT FÜR THEORETISCHE INFORMATIK 0 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Evolutionäre Algorithmen: Überlebenskampf und Evolutionäre Strategien Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überblick Einleitung Adaptive Filter Künstliche
Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung
8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen
1 Einführung in Lineare Programme und Dualität
Gliederung Inhaltsverzeichnis 1 Einführung in Lineare Programme und Dualität 1 1.1 Lineare Programme......................... 1 1.2 Dualität............................... 2 2 Grundlegende Sätze und Definitionen
Vortrag 20: Kurze Vektoren in Gittern
Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die
Vorlesung 7 GRAPHBASIERTE BILDSEGMENTIERUNG
Vorlesung 7 GRAPHBASIERTE BILDSEGMENTIERUNG 195 Bildsegmentierung! Aufgabe: Bestimme inhaltlich zusammenhängende, homogene Bereiche eines Bildes! Weit verbreitetes Problem in der Bildverarbeitung! Viele
VL-13: Polynomielle Reduktionen. (Berechenbarkeit und Komplexität, WS 2018) Gerhard Woeginger
VL-13: Polynomielle Reduktionen (Berechenbarkeit und Komplexität, WS 2018) Gerhard Woeginger WS 2018, RWTH BuK/WS 2018 VL-13: Polynomielle Reduktionen 1/46 Organisatorisches Nächste Vorlesungen: Donnerstag,
Algorithmen zum Lösen von Vertex und Set Cover Instanzen zur Planung von Angriffen auf Netzwerke
Algorithmen zum Lösen von Vertex und Set Cover Instanzen zur Planung von Angriffen auf Netzwerke Steve Göring 13.07.2012 1/18 Gliederung Einleitung Grundlagen Vertex-Cover-Problem Set-Cover-Problem Lösungsalgorithmen
Übungsblatt 5. Vorlesung Theoretische Grundlagen der Informatik im WS 17/18
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 5 Vorlesung Theoretische Grundlagen der Informatik im WS 17/18 Ausgabe 20. Dezember 2017 Abgabe 16. Januar 2018, 11:00 Uhr
Kapitel 9: Lineare Programmierung Gliederung
Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen
Klausur zu,,einführung in die Wahrscheinlichkeitstheorie
Institut für angewandte Mathematik Wintersemester 2009/10 Andreas Eberle, Matthias Erbar, Bernhard Hader Klausur zu,,einführung in die Wahrscheinlichkeitstheorie Bitte diese Felder in Druckschrift ausfüllen
Statistik für Informatiker, SS Verteilungen mit Dichte
1/39 Statistik für Informatiker, SS 2017 1.1.6 Verteilungen mit Dichte Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 17.5.2017 Zufallsvariablen mit Dichten sind ein kontinuierliches
1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren
Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt
Wahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
1.5.4 Quantile und Modi. Bem [Quantil, Modus]
1.5.4 Quantile und Modi 1.5 Erwartungswert und Varianz Bem. 1.73. [Quantil, Modus] und Vertei- Analog zu Statistik I kann man auch Quantile und Modi definieren. Gegeben sei eine Zufallsvariable X mit Wahrscheinlichkeitsverteilung
Universalität für Wigner Matrizen
Universalität für Wigner Matrizen Benjamin Schlein, Universität Zürich HSGYM Tag 29. Januar 2015 1 1. Einführung Zufallmatrizen: sind N N Matrizen dessen Einträge Zufallsvariablen mit gegebenen Verteilung
Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung
Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze
Reduktion / Hilberts 10. Problem
Reduktion / Hilberts 10. Problem Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 9. November 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit und
Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
Optimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn
Optimierung Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung 1 Assignment Problem (Zuordnungsproblem) Gewichtetes Perfektes Bipartites Matching agents Costs tasks Weise jedem Agenten genau
Übung zur Vorlesung Berechenbarkeit und Komplexität
RWTH Aachen Lehrgebiet Theoretische Informatik Reidl Ries Rossmanith Sanchez Tönnis WS 2012/13 Übungsblatt 9 10.12.2012 Übung zur Vorlesung Berechenbarkeit und Komplexität Aufgabe T20 Beweisen Sie die
Lineares Programmieren
Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 03.05.2011 Nachtrag Art Gallery Problem Lässt sich der Triangulierungs-Algorithmus
Vektorräume. Stefan Ruzika. 24. April Mathematisches Institut Universität Koblenz-Landau Campus Koblenz
Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz 24. April 2016 Stefan Ruzika 3: Vektorräume 24. April 2016 1 / 20 Gliederung 1 Schulstoff 2 Körper 3 Vektorräume Erinnerung:
