Lehrstuhl Informatik I Algorithmen & Komplexität RWTH Aachen 27. Mai 2005
Übersicht Einführung 1 Einführung 2 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 3 Idee 4 Formale Beschreibung des s
Motivation Woran erkennt man eine nützliche Theorie? Zwei notwendige Aspekte: Sie sollte Beobachtungen erklären können. Sie sollte zuverlässige Voraussagen machen.
Motivation Woran erkennt man eine nützliche Theorie? Zwei notwendige Aspekte: Sie sollte Beobachtungen erklären können. Sie sollte zuverlässige Voraussagen machen. Worst-Case-Analysen sind dafür oft zu pessimistisch. Beispiele: Simplex-Algorithmus Rucksackproblem
Simplex-Algorithmus Simplex-Algorithmus Im Worst-Case exponentielle Laufzeit (siehe Abschnitt 2.5). In der Praxis deutlich schneller als die Ellipsoid-Methode. Auch heute noch in der Praxis bevorzugte Methode zur Lösung von LPs.
Simplex-Algorithmus Simplex-Algorithmus Im Worst-Case exponentielle Laufzeit (siehe Abschnitt 2.5). In der Praxis deutlich schneller als die Ellipsoid-Methode. Auch heute noch in der Praxis bevorzugte Methode zur Lösung von LPs. Schlussfolgerung Worst-Case-LPs treten in praktischen Anwendungen nicht (oder nur sehr selten) auf.
Average-Case-Analyse Möglicher Ausweg: Average-Case-Analyse? Untersuche nicht, was im Worst-Case passiert, sondern, was im Durchschnitt passiert. Klingt gut, aber was ist ein durchschnittliches LP?
Average-Case-Analyse Möglicher Ausweg: Average-Case-Analyse? Untersuche nicht, was im Worst-Case passiert, sondern, was im Durchschnitt passiert. Klingt gut, aber was ist ein durchschnittliches LP? Naiver Ansatz max c T x, Ax b, wobei alle Einträge aus A, b und c unabhängig und uniform aus dem Intervall [0, 1] gewählt werden. Aussagen über die (erwartete) Laufzeit des Simplex-Algorithmus in diesem Modell sind bedeutungslos, denn typische Eingaben sind nicht völlig zufällig.
Typische Eingaben sind nicht völlig zufällig Ansonsten wäre Fernsehen sehr langweilig...
Average-Case-Analysen Prinzipielle Probleme von Average-Case-Analysen Was der Average-Case ist, ist häufig nicht formalisierbar und hängt von der konkreten Anwendung ab. Eine Average-Case-Analyse bezüglich einer Verteilung auf den Eingaben sagt nichts über das Verhalten bezüglich anderer Verteilungen aus.
Übersicht Einführung Exkurs: Wahrscheinlichkeitstheorie Borgwardts 1 Einführung 2 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 3 Idee 4 Formale Beschreibung des s
Exkurs: Wahrscheinlichkeitstheorie Borgwardts Den probabilistischen Analysen, die wir skizzieren werden, liegt die sogenannte zu Grunde. Betrachte das LP max c T x, Ax b, x 0. Annahme: Wir kennen einen Knoten x R n des Lösungspolyhedrons.
Exkurs: Wahrscheinlichkeitstheorie Borgwardts
Exkurs: Wahrscheinlichkeitstheorie Borgwardts Berechne zunächst einen Vektor u R n, so dass x die Zielfunktion u T x maximiert.
Exkurs: Wahrscheinlichkeitstheorie Borgwardts Berechne zunächst einen Vektor u R n, so dass x die Zielfunktion u T x maximiert. Projiziere das Lösungspolyhedron auf die Ebene, die durch c und u aufgespannt wird.
Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion Die Projektion ist 2-dimensional, also ein Polygon. c u
Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion Die Projektion ist 2-dimensional, also ein Polygon. Die Projektion von x ist ein Knoten dieses Polygons. c x u
Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion Die Projektion ist 2-dimensional, also ein Polygon. Die Projektion von x ist ein Knoten dieses Polygons. Die Projektion von x opt ist ein Knoten dieses Polygons. c x opt u x
Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion Die Projektion ist 2-dimensional, also ein Polygon. x opt Die Projektion von x ist ein Knoten dieses Polygons. Die Projektion von x opt ist ein Knoten dieses Polygons. Kanten des Polygons entsprechen Kanten des Polyhedrons. c u x
Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion In 2d ist die Simplexmethode einfach: Folge den Kanten des Polygons! c x opt x u
Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion In 2d ist die Simplexmethode einfach: Folge den Kanten des Polygons! Wir starten am Knoten x... c x opt x u
Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion In 2d ist die Simplexmethode einfach: Folge den Kanten des Polygons! Wir starten am Knoten x...... und folgen den Kanten zu x opt. c x opt x u
Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion In 2d ist die Simplexmethode einfach: Folge den Kanten des Polygons! Wir starten am Knoten x...... und folgen den Kanten zu x opt. c x opt x u
Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion In 2d ist die Simplexmethode einfach: Folge den Kanten des Polygons! Wir starten am Knoten x...... und folgen den Kanten zu x opt. Beachte: Das Polygon kann exponentiell viele Kanten haben. c x opt u x
Exkurs: Wahrscheinlichkeitstheorie Borgwardts Analyse der Die Anzahl der Kanten des Polygons ist also eine obere Schranke für die Anzahl der Pivotschritte des Simplexalgorithmus.
Exkurs: Wahrscheinlichkeitstheorie Borgwardts Analyse der Die Anzahl der Kanten des Polygons ist also eine obere Schranke für die Anzahl der Pivotschritte des Simplexalgorithmus. Die probabilistischen Analysen, die wir ansprechen werden, basieren darauf, die erwartete Anzahl von Kanten zu beschränken.
Exkurs: Wahrscheinlichkeitstheorie Borgwardts Analyse der Die Anzahl der Kanten des Polygons ist also eine obere Schranke für die Anzahl der Pivotschritte des Simplexalgorithmus. Die probabilistischen Analysen, die wir ansprechen werden, basieren darauf, die erwartete Anzahl von Kanten zu beschränken. Hinweis: Eigentlich betrachten die Analysen das duale Lösungspolyhedron und eine duale Schatteneckenregel, das wollen wir aber in dieser Vorlesung nicht vertiefen.
Verteilung und Dichte Exkurs: Wahrscheinlichkeitstheorie Borgwardts Verteilung und Dichte (Ω, A, P) sei ein Wahrscheinlichkeitsraum X : Ω R sei eine reelle Zufallsvariable Verteilung von X: F(x) = Pr [X x]
Verteilung und Dichte Exkurs: Wahrscheinlichkeitstheorie Borgwardts Verteilung und Dichte (Ω, A, P) sei ein Wahrscheinlichkeitsraum X : Ω R sei eine reelle Zufallsvariable Verteilung von X: F(x) = Pr [X x] Pr [X [a, b]] = F (b) F (a)
Verteilung und Dichte Exkurs: Wahrscheinlichkeitstheorie Borgwardts Verteilung und Dichte (Ω, A, P) sei ein Wahrscheinlichkeitsraum X : Ω R sei eine reelle Zufallsvariable Verteilung von X: F(x) = Pr [X x] Pr [X [a, b]] = F (b) F (a) Dichte von X: f : R R 0 F (x) = x f (t)dt.
Beispiel: Uniforme Verteilung Exkurs: Wahrscheinlichkeitstheorie Borgwardts Verteilung 0 falls x 0 F (x) = x falls 0 x 1 1 falls x 1 1 Dichte 0 falls x 0 f (x) = 1 falls 0 x 1 0 falls x 1 1 0 0 1 0 0 1
Beispiel Einführung Exkurs: Wahrscheinlichkeitstheorie Borgwardts Verteilung F (x) = 1 0 falls x 0 2x 2 falls 0 x 1 2 4x 2x 1 falls 1 2 x 1 1 falls x 1 Dichte f (x) = 2 0 falls x 0 4x falls 0 x 1 2 4(1 x) falls 1 2 x 1 0 falls x 1 1 0 0 0.5 1 0 0 0.5 1
Exkurs: Wahrscheinlichkeitstheorie Borgwardts Borgwardts Analyse Anfang der 80er Jahre gelang Borgward eine Average-Case-Analyse des Simplex-Algorithmus für das folgende Eingabemodell. Eingabemodell Er untersuchte LPs der folgenden Form: max c T x a 1 x 1,..., a m x 1 Dabei seien c, a 1,..., a m R n identisch, unabhängig und rotationssymmetrisch verteilt.
Exkurs: Wahrscheinlichkeitstheorie Borgwardts Was bedeutet rotationssymmetrisch? Rotationssymmetrische Verteilung Eine rotationssymmetrische Verteilung G auf R n ist eindeutig durch eine Verteilung F : R 0 R 0 beschrieben. Ein Vektor gemäß G wird wie folgt erzeugt. Wähle zunächst die Länge r des Vektors gemäß der Verteilung F. r r r r
Exkurs: Wahrscheinlichkeitstheorie Borgwardts Was bedeutet rotationssymmetrisch? Rotationssymmetrische Verteilung Eine rotationssymmetrische Verteilung G auf R n ist eindeutig durch eine Verteilung F : R 0 R 0 beschrieben. Ein Vektor gemäß G wird wie folgt erzeugt. Wähle zunächst die Länge r des Vektors gemäß der Verteilung F. Wähle dann einen Vektor auf dem Rand der n-dimensionalen Kugel mit Radius r uniform zufällig. r r r r
Einführung Exkurs: Wahrscheinlichkeitstheorie Borgwardts Theorem (Borgwardt 1987) Die erwartete Anzahl von Schritten des Simplex-Algorithmus mit der auf LPs, die gemäß Borgwardts Eingabemodell mit beliebiger rotationssymmetrischer Verteilung erzeugt werden, beträgt O(m 1/(n 1) n 4 ).
Einführung Exkurs: Wahrscheinlichkeitstheorie Borgwardts Theorem (Borgwardt 1987) Die erwartete Anzahl von Schritten des Simplex-Algorithmus mit der auf LPs, die gemäß Borgwardts Eingabemodell mit beliebiger rotationssymmetrischer Verteilung erzeugt werden, beträgt O(m 1/(n 1) n 4 ). Der Beweis ist technisch anspruchsvoll und würde wegen seines Umfangs den Rahmen dieser Vorlesung sprengen.
Fazit Einführung Exkurs: Wahrscheinlichkeitstheorie Borgwardts Fazit Borgwardts Modell ist in dem Sinne flexibel, dass die rotationssymmetrische Verteilung beliebig gewählt werden kann.
Fazit Einführung Exkurs: Wahrscheinlichkeitstheorie Borgwardts Fazit Borgwardts Modell ist in dem Sinne flexibel, dass die rotationssymmetrische Verteilung beliebig gewählt werden kann. Dennoch ist es stark eingeschränkt und nicht realitätsnah. (Rotationssymmetrie ist für die Analyse hilfreich, aber warum sollten Eingaben in der Praxis so aussehen? Gleiches gilt für die Einschränkung auf 1 Bedingungen.)
Fazit Einführung Exkurs: Wahrscheinlichkeitstheorie Borgwardts Fazit Borgwardts Modell ist in dem Sinne flexibel, dass die rotationssymmetrische Verteilung beliebig gewählt werden kann. Dennoch ist es stark eingeschränkt und nicht realitätsnah. (Rotationssymmetrie ist für die Analyse hilfreich, aber warum sollten Eingaben in der Praxis so aussehen? Gleiches gilt für die Einschränkung auf 1 Bedingungen.) Borgwardts Analyse hat aber den Grundstein für eine realitätsnähere probabilistische Analyse gelegt, die wir nun skizzieren wollen.
Übersicht Einführung Idee 1 Einführung 2 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 3 Idee 4 Formale Beschreibung des s
Idee Smoothed Analysis (Geglättete Analyse) Motivation Eingaben, die in der Praxis vorkommen haben eine bestimmte Struktur (die wir i.a. nicht genau kennen), sie unterliegen aber typischerweise auch zumindest leichten zufälligen Einflüssen.
Idee Smoothed Analysis (Geglättete Analyse) Motivation Eingaben, die in der Praxis vorkommen haben eine bestimmte Struktur (die wir i.a. nicht genau kennen), sie unterliegen aber typischerweise auch zumindest leichten zufälligen Einflüssen. Beispiel: Ein LP, das Warenpreise enthält, die von den aktuellen Währungsschwankungen abhängen.
Idee Smoothed Analysis (Geglättete Analyse) Motivation Eingaben, die in der Praxis vorkommen haben eine bestimmte Struktur (die wir i.a. nicht genau kennen), sie unterliegen aber typischerweise auch zumindest leichten zufälligen Einflüssen. Beispiel: Ein LP, das Warenpreise enthält, die von den aktuellen Währungsschwankungen abhängen. Spielman und Teng haben deswegen semi-zufällige Modelle untersucht.
Idee Smoothed Analysis (Geglättete Analyse) Semi-zufälliges Modell Eingaben werden in zwei Stufen generiert: 1 Ein Gegner gibt eine Eingabe I vor. Beispiel: LPs max c T x, Ax b mit A R m n, b R m und c R n 1 Gegner wählt A, b und c beliebig.
Idee Smoothed Analysis (Geglättete Analyse) Semi-zufälliges Modell Eingaben werden in zwei Stufen generiert: 1 Ein Gegner gibt eine Eingabe I vor. 2 I wird zufällig ein wenig verändert (perturbiert). Beispiel: LPs max c T x, Ax b mit A R m n, b R m und c R n 1 Gegner wählt A, b und c beliebig. 2 Auf die Einträge von A und b werden unabhängige normalverteilte Zufallsvariablen addiert.
Ein Beispiel Einführung Idee Gegner wählt LP x 2 0.75 1 1 A = 1.5 1, b = 1.5 1 1 2 x 1
Ein Beispiel Einführung Idee Gegner wählt LP Perturbation x 2 x 2 0.75 1 1 A = 1.5 1, b = 1.5 1 1 2 x 1 0.7 1.1 1.3 A = 1.7 1.2, b = 1.4 1 0.9 2.1 x 1
Geglättete Komplexität Idee Definitionen I = Menge der Eingaben I n = Menge der Eingaben der Länge n T A (I) = Laufzeit von Algorithmus A auf Eingabe I per(i) = zufällig Perturbation von I
Geglättete Komplexität Idee Definitionen I = Menge der Eingaben I n = Menge der Eingaben der Länge n T A (I) = Laufzeit von Algorithmus A auf Eingabe I per(i) = zufällig Perturbation von I Komplexitätsbegriffe Worst-Case-Komplexität: max I In T A (I) Average-Case-Komplexität: E I In [T A (I)] Geglättete Komplexität: max I In E [T A (per(i))]
Geglättete Komplexität Idee
Geglättete Komplexität Idee
Idee Normalverteilung Die Normalverteilung mit Standardabweichung σ wird beschrieben durch die Dichte f (x) = 1 ( σ 2π exp x 2 ) 2σ 2.
Idee
Idee Eigenschaften Je kleiner σ, desto konzentrierter ist die Verteilung um den Nullpunkt. Normalverteilungen werden in vielen Situationen als realistisch angesehen (Körpergröße, IQ,...). 1 sigma=0.5 sigma=1 sigma=2 0.5 0-5 -4-3 -2-1 0 1 2 3 4 5
Idee Der Gegner gibt das LP max c T x, Ax b vor.
Idee Der Gegner gibt das LP max c T x, Ax b vor. Skaliere die Nebenbedingungen so, dass für jede Bedingung b i = 1 gilt.
Idee Der Gegner gibt das LP max c T x, Ax b vor. Skaliere die Nebenbedingungen so, dass für jede Bedingung b i = 1 gilt. Addiere eine unabhängige normalverteilte Zufallsvariable mit Standardabweichung σ zu jedem Eintrag aus A und b.
Idee Je kleiner σ ist, desto kleiner ist die (erwartete) Perturbation
Idee Je kleiner σ ist, desto kleiner ist die (erwartete) Perturbation Je kleiner σ ist, desto mehr Einfluss hat der Gegner, desto näher sind wir also einer Worst-Case-Betrachtung.
Idee Je kleiner σ ist, desto kleiner ist die (erwartete) Perturbation Je kleiner σ ist, desto mehr Einfluss hat der Gegner, desto näher sind wir also einer Worst-Case-Betrachtung. Für sehr große σ nähert sich die Analyse einer Average-Case-Analyse.
Idee Je kleiner σ ist, desto kleiner ist die (erwartete) Perturbation Je kleiner σ ist, desto mehr Einfluss hat der Gegner, desto näher sind wir also einer Worst-Case-Betrachtung. Für sehr große σ nähert sich die Analyse einer Average-Case-Analyse. Die geglättete Analyse ist also ein Hybrid aus Worst-Caseund Average-Case-Analyse.
Einführung Idee Theorem (Spielman und Teng 2001) Die erwartete Anzahl von Schritten des Simplex-Algorithmus mit der auf LPs, die gemäß dem oben beschriebenen Eingabemodell mit Standardabweichung σ erzeugt werden, ist O(poly(n, m, 1/σ)).
Übersicht Einführung Formale Beschreibung des s 1 Einführung 2 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 3 Idee 4 Formale Beschreibung des s
Übertragung auf diskrete Probleme Formale Beschreibung des s Übertragung auf diskrete Probleme Lässt sich das von Spielman und Teng für LPs auch auf ganzzahlige Programme, also ILPs, übertragen?
Übertragung auf diskrete Probleme Formale Beschreibung des s Übertragung auf diskrete Probleme Lässt sich das von Spielman und Teng für LPs auch auf ganzzahlige Programme, also ILPs, übertragen? Wir betrachten im Folgenden nur binäre Programme.
Übertragung auf diskrete Probleme Formale Beschreibung des s Übertragung auf diskrete Probleme Lässt sich das von Spielman und Teng für LPs auch auf ganzzahlige Programme, also ILPs, übertragen? Wir betrachten im Folgenden nur binäre Programme. Das muss zunächst für ILPs angepasst werden!
Beispiel Einführung Formale Beschreibung des s Beispiel: Vertex Cover Eingabe: Graph G = (V, E)
Beispiel Einführung Formale Beschreibung des s Beispiel: Vertex Cover Eingabe: Graph G = (V, E) Ausgabe: Ein minimales Vertex Cover.
Beispiel Einführung Formale Beschreibung des s Beispiel: Vertex Cover Eingabe: Graph G = (V, E) Ausgabe: Ein minimales Vertex Cover. ILP-Formulierung: v V : x v {0, 1} min v V x v e = (v, u) E : x v + x u 1
Beispiel Einführung Formale Beschreibung des s Beispiel: Vertex Cover Eingabe: Graph G = (V, E) Ausgabe: Ein minimales Vertex Cover. ILP-Formulierung: v V : x v {0, 1} min v V x v e = (v, u) E : x v + x u 1 Ist es sinnvoll, die Nebenbedingungen zu perturbieren?
Beispiel Einführung Formale Beschreibung des s u v w Eigenschaften Minimales Vertex Cover ist der Knoten v, d.h. x v = 1 und x u = x w = 0. Dann gilt: x u + x v 1 und x v + x w 1.
Beispiel Einführung Formale Beschreibung des s u v w Eigenschaften Wir perturbieren jetzt die Nebenbedingungen: 1.1 x u + 0.9 x v 1.1 und 1.2 x v + 1.1 x w 0.9.
Beispiel Einführung Formale Beschreibung des s u v w Eigenschaften Wir perturbieren jetzt die Nebenbedingungen: 1.1 x u + 0.9 x v 1.1 und 1.2 x v + 1.1 x w 0.9. Der Knoten v alleine bildet nun keine gültige Lösung mehr, denn 1.1 x u + 0.9 x v = 0.9 < 1.1 für x v = 1 und x u = x w = 0.
Beispiel Einführung Formale Beschreibung des s u v w Eigenschaften Wir perturbieren jetzt die Nebenbedingungen: 1.1 x u + 0.9 x v 1.1 und 1.2 x v + 1.1 x w 0.9. Der Knoten v alleine bildet nun keine gültige Lösung mehr, denn 1.1 x u + 0.9 x v = 0.9 < 1.1 für x v = 1 und x u = x w = 0. Durch die Perturbation wurde also die kombinatorische Struktur des Problems zerstört!
Schlussfolgerung Einführung Formale Beschreibung des s Schlussfolgerung ILPs beschreiben i.a. Probleme mit einer kombinatorischen Struktur.
Schlussfolgerung Einführung Formale Beschreibung des s Schlussfolgerung ILPs beschreiben i.a. Probleme mit einer kombinatorischen Struktur. Wahlloses Perturbieren der Nebenbedingungen zerstört diese kombinatorische Struktur.
Schlussfolgerung Einführung Formale Beschreibung des s Schlussfolgerung ILPs beschreiben i.a. Probleme mit einer kombinatorischen Struktur. Wahlloses Perturbieren der Nebenbedingungen zerstört diese kombinatorische Struktur. Deswegen wäre ein solches Eingabemodell keineswegs realistisch.
Formale Beschreibung des s Problemklasse Wir betrachten deswegen Probleme der folgenden Form: max c 1 x 1 +... + c n x n x = (x 1,..., x n ) S Ax b Dabei ist S eine beliebige Teilmenge von {0, 1} n.
Formale Beschreibung des s Problemklasse Wir betrachten deswegen Probleme der folgenden Form: max c 1 x 1 +... + c n x n x = (x 1,..., x n ) S Ax b Dabei ist S eine beliebige Teilmenge von {0, 1} n. Zusätzlich zu den linearen Nebenbedingungen, die perturbiert werden, kann also durch S eine Problemstruktur beschrieben werden, die nicht perturbiert wird.
Beispiel Einführung Formale Beschreibung des s Spannbaumproblem mit Nebenbedingung Eingabe: Graph G = (V, E), Gewichte w : E N, Kosten c : E N, Budget b
Beispiel Einführung Formale Beschreibung des s Spannbaumproblem mit Nebenbedingung Eingabe: Graph G = (V, E), Gewichte w : E N, Kosten c : E N, Budget b Finde einen minimalen (bzgl. Gewicht) Spannbaum, der die Kostengrenze einhält.
Beispiel Einführung Formale Beschreibung des s Spannbaumproblem mit Nebenbedingung Eingabe: Graph G = (V, E), Gewichte w : E N, Kosten c : E N, Budget b Finde einen minimalen (bzgl. Gewicht) Spannbaum, der die Kostengrenze einhält. Variablen: e E : x e {0, 1}
Beispiel Einführung Formale Beschreibung des s Spannbaumproblem mit Nebenbedingung Eingabe: Graph G = (V, E), Gewichte w : E N, Kosten c : E N, Budget b Finde einen minimalen (bzgl. Gewicht) Spannbaum, der die Kostengrenze einhält. Variablen: e E : x e {0, 1} S {0, 1} m bezeichne die Menge aller Spannbäume min e E w(e) x e x S und e E c(e) x e b.
Formale Beschreibung des s Spannbaumproblem mit Nebenbedingung Eingabe Budget b = 7 (Gew., Kosten) (1,6) (5,1) (2,2) (5,1) (1,1)
Formale Beschreibung des s Spannbaumproblem mit Nebenbedingung Eingabe Budget b = 7 (Gew., Kosten) (1,6) Minimaler Spannbaum Gewicht 4 Kosten 9 (1,6) (5,1) (2,2) (5,1) (2,2) (1,1) (1,1)
Formale Beschreibung des s Spannbaumproblem mit Nebenbedingung Eingabe Budget b = 7 (Gew., Kosten) (1,6) Minimaler Spannbaum Gewicht 4 Kosten 9 (1,6) Optimale Lösung Gewicht 8 Kosten 4 (5,1) (2,2) (5,1) (2,2) (2,2) (5,1) (1,1) (1,1) (1,1)
Formale Beschreibung des s Zusammenfassung Gegner gibt Problem vor: max c T x, Ax b, x S. Wir perturbieren entweder die Koeffizienten der Zielfunktion c, die Einträge von A oder beides. Die Perturbation erfolgt (so wie bei LPs) durch Addition von unabhängigen Zufallsvariablen.
Formale Beschreibung des s Allgemeineres LPs wurden durch Addition einer normalverteilten Zufallsvariable perturbiert.
Formale Beschreibung des s Allgemeineres LPs wurden durch Addition einer normalverteilten Zufallsvariable perturbiert. Die Laufzeit wurde in Abhängigkeit von σ angegeben.
Formale Beschreibung des s Allgemeineres LPs wurden durch Addition einer normalverteilten Zufallsvariable perturbiert. Die Laufzeit wurde in Abhängigkeit von σ angegeben. Wir erlauben die Addition einer Zufallsvariable mit beliebiger Dichte f.
Formale Beschreibung des s Allgemeineres LPs wurden durch Addition einer normalverteilten Zufallsvariable perturbiert. Die Laufzeit wurde in Abhängigkeit von σ angegeben. Wir erlauben die Addition einer Zufallsvariable mit beliebiger Dichte f. Die Laufzeit wird in Abhängigkeit von der maximalen Dichte φ = sup x R f (x) angegeben.
Formale Beschreibung des s Normalverteilung Die Dichte der Normalverteilung mit Standardabweichung σ ist f (x) = 1 ( σ 2π exp x 2 ) 2σ 2. Es gilt Also φ 1/σ. φ = sup f (x) = 1 x R σ 2π.
Formale Beschreibung des s 1 sigma=0.5 sigma=1 sigma=2 0.5 0-5 -4-3 -2-1 0 1 2 3 4 5
Formale Beschreibung des s 4 3 2 1 0-1 -0.5 0 0.5 1
Formale Beschreibung des s Zusammenfassung Der Parameter φ gibt (analog zu σ) an, wie groß die erwartete Perturbation ist.
Formale Beschreibung des s Zusammenfassung Der Parameter φ gibt (analog zu σ) an, wie groß die erwartete Perturbation ist. Je größer φ ist, desto mehr Einfluss hat der Gegner, desto näher sind wir dem Worst-Case.
Formale Beschreibung des s Zusammenfassung Der Parameter φ gibt (analog zu σ) an, wie groß die erwartete Perturbation ist. Je größer φ ist, desto mehr Einfluss hat der Gegner, desto näher sind wir dem Worst-Case. Je kleiner φ ist, desto näher sind wir einer Average-Case-Analyse.
Formale Beschreibung des s Zusammenfassung Der Parameter φ gibt (analog zu σ) an, wie groß die erwartete Perturbation ist. Je größer φ ist, desto mehr Einfluss hat der Gegner, desto näher sind wir dem Worst-Case. Je kleiner φ ist, desto näher sind wir einer Average-Case-Analyse. Je größer φ wird, desto größer sollte also auch die erwartete Laufzeit werden.
Beispiel: Rucksackproblem Formale Beschreibung des s Kosten Gewicht
Beispiel: Rucksackproblem Formale Beschreibung des s Kleines φ Kosten Gewicht
Beispiel: Rucksackproblem Formale Beschreibung des s Großes φ Kosten Gewicht
Einführung Formale Beschreibung des s Wir werden das folgende Theorem beweisen. Theorem (Beier, Vöcking 2004) Ein binäres Optimierungsproblem hat genau dann eine polynomielle geglättete Komplexität, wenn es einen pseudopolynomiellen Algorithmus für das Problem gibt.
Einführung Formale Beschreibung des s Wir werden das folgende Theorem beweisen. Theorem (Beier, Vöcking 2004) Ein binäres Optimierungsproblem hat genau dann eine polynomielle geglättete Komplexität, wenn es einen pseudopolynomiellen Algorithmus für das Problem gibt. Hinweise Pseudopolynomiell bezieht sich auf genau diejenigen Koeffizienten, die perturbiert werden. Formale Definition von polynomieller geglätteter Komplexität später.
Folgerungen Einführung Formale Beschreibung des s Folgerungen Das TSP hat keine polynomielle geglättete Komplexität. Das 2-kriterielle Spannbaumproblem hat eine polynomielle geglättete Komplexität, wenn man Gewichte und Kosten perturbiert.
Literatur Einführung Formale Beschreibung des s Literatur Rene Beier, Berthold Vöcking Typical Properties of Winners and Losers in Discrete Optimization, STOC 2004. Karl Heinz Borgwardt The Simplex Method A Probabilistic Analysis, Springer, 1987. Daniel Spielman, Shang-Hua Teng Smoothed Analysis of Algorithms: Why the Simplex Algorithm Usually Takes Polynomial Time, Journal of the ACM, 51(3), 385-463, 2004