Probabilistische Analyse von Algorithmen

Ähnliche Dokumente
Optimierung. Vorlesung 04

Probleme aus NP und die polynomielle Reduktion

Approximationsalgorithmen für NP-harte Optimierungsprobleme

Die Klasse NP und die polynomielle Reduktion

Approximationsalgorithmen für NP-harte Optimierungsprobleme

Das Rucksackproblem: schwache NP-Härte und Approximation

Die Klasse NP und die polynomielle Reduktion. Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen

Vorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung

10. Komplexität der Linearen Optimierung und Innere Punkte Methoden

Kap. 3: Exakte Lösungsverfahren für NPschwierige. Optimierungsprobleme VO Algorithm Engineering

Effiziente Algorithmen (SS2015)

Die Komplexitätsklassen P und NP

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

70 Wichtige kontinuierliche Verteilungen

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

Lösungen zur Vorlesung Berechenbarkeit und Komplexität

Optimierung. Vorlesung 02

Optimierung Optimization. Vorlesung 01

Approximationsalgorithmen

Theoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme

Reelle Zufallsvariablen

Optimierung. Vorlesung 08

Literatur für diese VO. Überblick. Kap. 5: Approximationsalgorithmen für kombinatorische Optimierungsprobleme

Randomisierte Algorithmen und probabilistische Analyse

Algorithmische Methoden für schwere Optimierungsprobleme

Approximationsalgorithmen

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006

Kochrezept für NP-Vollständigkeitsbeweise

Ü b u n g s b l a t t 7

Wahrscheinlichkeitstheorie und Statistik

Algorithmen und Datenstrukturen 2. Stefan Florian Palkovits, BSc Juni 2016

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

2. Optimierungsprobleme 6

Betriebswirtschaftliche Optimierung

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Algorithmen für schwierige Probleme

Approximationsalgorithmen. 19. Dezember / 28

Betriebliche Optimierung

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn

Einführung in Berechenbarkeit, Komplexität und Formale Sprachen

TU DORTMUND Sommersemester 2018

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung

Stetige Standardverteilungen

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

Allgemeines Halteproblem Hilberts 10. Problem

8 Stichprobenkennwerteverteilung

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

Das Problem des minimalen Steiner-Baumes

1. Klausur zur Vorlesung Algorithmentechnik Wintersemester 2008/2009

Theoretische Grundlagen der Informatik

Teil III. Komplexitätstheorie

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung

Kapitel 4. Optimierungsalgorithmen. Technische Universität Wien. Gunnar Klau Technische Universität Wien. Institut für Computergraphik und Algorithmen

Berechenbarkeit und Komplexität: Polynomielle Reduktion / NP-Vollständigkeit / Satz von Cook und Levin

Theoretische Grundlagen der Informatik

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung

1 Einführung in Lineare Programme und Dualität

Vortrag 20: Kurze Vektoren in Gittern

Vorlesung 7 GRAPHBASIERTE BILDSEGMENTIERUNG

VL-13: Polynomielle Reduktionen. (Berechenbarkeit und Komplexität, WS 2018) Gerhard Woeginger

Algorithmen zum Lösen von Vertex und Set Cover Instanzen zur Planung von Angriffen auf Netzwerke

Übungsblatt 5. Vorlesung Theoretische Grundlagen der Informatik im WS 17/18

Kapitel 9: Lineare Programmierung Gliederung

Klausur zu,,einführung in die Wahrscheinlichkeitstheorie

Statistik für Informatiker, SS Verteilungen mit Dichte

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

Wahrscheinlichkeit und Statistik: Zusammenfassung

1.5.4 Quantile und Modi. Bem [Quantil, Modus]

Universalität für Wigner Matrizen

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Reduktion / Hilberts 10. Problem

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Optimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn

Übung zur Vorlesung Berechenbarkeit und Komplexität

Lineares Programmieren

Vektorräume. Stefan Ruzika. 24. April Mathematisches Institut Universität Koblenz-Landau Campus Koblenz

Transkript:

Lehrstuhl Informatik I Algorithmen & Komplexität RWTH Aachen 27. Mai 2005

Übersicht Einführung 1 Einführung 2 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 3 Idee 4 Formale Beschreibung des s

Motivation Woran erkennt man eine nützliche Theorie? Zwei notwendige Aspekte: Sie sollte Beobachtungen erklären können. Sie sollte zuverlässige Voraussagen machen.

Motivation Woran erkennt man eine nützliche Theorie? Zwei notwendige Aspekte: Sie sollte Beobachtungen erklären können. Sie sollte zuverlässige Voraussagen machen. Worst-Case-Analysen sind dafür oft zu pessimistisch. Beispiele: Simplex-Algorithmus Rucksackproblem

Simplex-Algorithmus Simplex-Algorithmus Im Worst-Case exponentielle Laufzeit (siehe Abschnitt 2.5). In der Praxis deutlich schneller als die Ellipsoid-Methode. Auch heute noch in der Praxis bevorzugte Methode zur Lösung von LPs.

Simplex-Algorithmus Simplex-Algorithmus Im Worst-Case exponentielle Laufzeit (siehe Abschnitt 2.5). In der Praxis deutlich schneller als die Ellipsoid-Methode. Auch heute noch in der Praxis bevorzugte Methode zur Lösung von LPs. Schlussfolgerung Worst-Case-LPs treten in praktischen Anwendungen nicht (oder nur sehr selten) auf.

Average-Case-Analyse Möglicher Ausweg: Average-Case-Analyse? Untersuche nicht, was im Worst-Case passiert, sondern, was im Durchschnitt passiert. Klingt gut, aber was ist ein durchschnittliches LP?

Average-Case-Analyse Möglicher Ausweg: Average-Case-Analyse? Untersuche nicht, was im Worst-Case passiert, sondern, was im Durchschnitt passiert. Klingt gut, aber was ist ein durchschnittliches LP? Naiver Ansatz max c T x, Ax b, wobei alle Einträge aus A, b und c unabhängig und uniform aus dem Intervall [0, 1] gewählt werden. Aussagen über die (erwartete) Laufzeit des Simplex-Algorithmus in diesem Modell sind bedeutungslos, denn typische Eingaben sind nicht völlig zufällig.

Typische Eingaben sind nicht völlig zufällig Ansonsten wäre Fernsehen sehr langweilig...

Average-Case-Analysen Prinzipielle Probleme von Average-Case-Analysen Was der Average-Case ist, ist häufig nicht formalisierbar und hängt von der konkreten Anwendung ab. Eine Average-Case-Analyse bezüglich einer Verteilung auf den Eingaben sagt nichts über das Verhalten bezüglich anderer Verteilungen aus.

Übersicht Einführung Exkurs: Wahrscheinlichkeitstheorie Borgwardts 1 Einführung 2 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 3 Idee 4 Formale Beschreibung des s

Exkurs: Wahrscheinlichkeitstheorie Borgwardts Den probabilistischen Analysen, die wir skizzieren werden, liegt die sogenannte zu Grunde. Betrachte das LP max c T x, Ax b, x 0. Annahme: Wir kennen einen Knoten x R n des Lösungspolyhedrons.

Exkurs: Wahrscheinlichkeitstheorie Borgwardts

Exkurs: Wahrscheinlichkeitstheorie Borgwardts Berechne zunächst einen Vektor u R n, so dass x die Zielfunktion u T x maximiert.

Exkurs: Wahrscheinlichkeitstheorie Borgwardts Berechne zunächst einen Vektor u R n, so dass x die Zielfunktion u T x maximiert. Projiziere das Lösungspolyhedron auf die Ebene, die durch c und u aufgespannt wird.

Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion Die Projektion ist 2-dimensional, also ein Polygon. c u

Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion Die Projektion ist 2-dimensional, also ein Polygon. Die Projektion von x ist ein Knoten dieses Polygons. c x u

Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion Die Projektion ist 2-dimensional, also ein Polygon. Die Projektion von x ist ein Knoten dieses Polygons. Die Projektion von x opt ist ein Knoten dieses Polygons. c x opt u x

Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion Die Projektion ist 2-dimensional, also ein Polygon. x opt Die Projektion von x ist ein Knoten dieses Polygons. Die Projektion von x opt ist ein Knoten dieses Polygons. Kanten des Polygons entsprechen Kanten des Polyhedrons. c u x

Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion In 2d ist die Simplexmethode einfach: Folge den Kanten des Polygons! c x opt x u

Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion In 2d ist die Simplexmethode einfach: Folge den Kanten des Polygons! Wir starten am Knoten x... c x opt x u

Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion In 2d ist die Simplexmethode einfach: Folge den Kanten des Polygons! Wir starten am Knoten x...... und folgen den Kanten zu x opt. c x opt x u

Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion In 2d ist die Simplexmethode einfach: Folge den Kanten des Polygons! Wir starten am Knoten x...... und folgen den Kanten zu x opt. c x opt x u

Exkurs: Wahrscheinlichkeitstheorie Borgwardts 2-dimensionale Projektion In 2d ist die Simplexmethode einfach: Folge den Kanten des Polygons! Wir starten am Knoten x...... und folgen den Kanten zu x opt. Beachte: Das Polygon kann exponentiell viele Kanten haben. c x opt u x

Exkurs: Wahrscheinlichkeitstheorie Borgwardts Analyse der Die Anzahl der Kanten des Polygons ist also eine obere Schranke für die Anzahl der Pivotschritte des Simplexalgorithmus.

Exkurs: Wahrscheinlichkeitstheorie Borgwardts Analyse der Die Anzahl der Kanten des Polygons ist also eine obere Schranke für die Anzahl der Pivotschritte des Simplexalgorithmus. Die probabilistischen Analysen, die wir ansprechen werden, basieren darauf, die erwartete Anzahl von Kanten zu beschränken.

Exkurs: Wahrscheinlichkeitstheorie Borgwardts Analyse der Die Anzahl der Kanten des Polygons ist also eine obere Schranke für die Anzahl der Pivotschritte des Simplexalgorithmus. Die probabilistischen Analysen, die wir ansprechen werden, basieren darauf, die erwartete Anzahl von Kanten zu beschränken. Hinweis: Eigentlich betrachten die Analysen das duale Lösungspolyhedron und eine duale Schatteneckenregel, das wollen wir aber in dieser Vorlesung nicht vertiefen.

Verteilung und Dichte Exkurs: Wahrscheinlichkeitstheorie Borgwardts Verteilung und Dichte (Ω, A, P) sei ein Wahrscheinlichkeitsraum X : Ω R sei eine reelle Zufallsvariable Verteilung von X: F(x) = Pr [X x]

Verteilung und Dichte Exkurs: Wahrscheinlichkeitstheorie Borgwardts Verteilung und Dichte (Ω, A, P) sei ein Wahrscheinlichkeitsraum X : Ω R sei eine reelle Zufallsvariable Verteilung von X: F(x) = Pr [X x] Pr [X [a, b]] = F (b) F (a)

Verteilung und Dichte Exkurs: Wahrscheinlichkeitstheorie Borgwardts Verteilung und Dichte (Ω, A, P) sei ein Wahrscheinlichkeitsraum X : Ω R sei eine reelle Zufallsvariable Verteilung von X: F(x) = Pr [X x] Pr [X [a, b]] = F (b) F (a) Dichte von X: f : R R 0 F (x) = x f (t)dt.

Beispiel: Uniforme Verteilung Exkurs: Wahrscheinlichkeitstheorie Borgwardts Verteilung 0 falls x 0 F (x) = x falls 0 x 1 1 falls x 1 1 Dichte 0 falls x 0 f (x) = 1 falls 0 x 1 0 falls x 1 1 0 0 1 0 0 1

Beispiel Einführung Exkurs: Wahrscheinlichkeitstheorie Borgwardts Verteilung F (x) = 1 0 falls x 0 2x 2 falls 0 x 1 2 4x 2x 1 falls 1 2 x 1 1 falls x 1 Dichte f (x) = 2 0 falls x 0 4x falls 0 x 1 2 4(1 x) falls 1 2 x 1 0 falls x 1 1 0 0 0.5 1 0 0 0.5 1

Exkurs: Wahrscheinlichkeitstheorie Borgwardts Borgwardts Analyse Anfang der 80er Jahre gelang Borgward eine Average-Case-Analyse des Simplex-Algorithmus für das folgende Eingabemodell. Eingabemodell Er untersuchte LPs der folgenden Form: max c T x a 1 x 1,..., a m x 1 Dabei seien c, a 1,..., a m R n identisch, unabhängig und rotationssymmetrisch verteilt.

Exkurs: Wahrscheinlichkeitstheorie Borgwardts Was bedeutet rotationssymmetrisch? Rotationssymmetrische Verteilung Eine rotationssymmetrische Verteilung G auf R n ist eindeutig durch eine Verteilung F : R 0 R 0 beschrieben. Ein Vektor gemäß G wird wie folgt erzeugt. Wähle zunächst die Länge r des Vektors gemäß der Verteilung F. r r r r

Exkurs: Wahrscheinlichkeitstheorie Borgwardts Was bedeutet rotationssymmetrisch? Rotationssymmetrische Verteilung Eine rotationssymmetrische Verteilung G auf R n ist eindeutig durch eine Verteilung F : R 0 R 0 beschrieben. Ein Vektor gemäß G wird wie folgt erzeugt. Wähle zunächst die Länge r des Vektors gemäß der Verteilung F. Wähle dann einen Vektor auf dem Rand der n-dimensionalen Kugel mit Radius r uniform zufällig. r r r r

Einführung Exkurs: Wahrscheinlichkeitstheorie Borgwardts Theorem (Borgwardt 1987) Die erwartete Anzahl von Schritten des Simplex-Algorithmus mit der auf LPs, die gemäß Borgwardts Eingabemodell mit beliebiger rotationssymmetrischer Verteilung erzeugt werden, beträgt O(m 1/(n 1) n 4 ).

Einführung Exkurs: Wahrscheinlichkeitstheorie Borgwardts Theorem (Borgwardt 1987) Die erwartete Anzahl von Schritten des Simplex-Algorithmus mit der auf LPs, die gemäß Borgwardts Eingabemodell mit beliebiger rotationssymmetrischer Verteilung erzeugt werden, beträgt O(m 1/(n 1) n 4 ). Der Beweis ist technisch anspruchsvoll und würde wegen seines Umfangs den Rahmen dieser Vorlesung sprengen.

Fazit Einführung Exkurs: Wahrscheinlichkeitstheorie Borgwardts Fazit Borgwardts Modell ist in dem Sinne flexibel, dass die rotationssymmetrische Verteilung beliebig gewählt werden kann.

Fazit Einführung Exkurs: Wahrscheinlichkeitstheorie Borgwardts Fazit Borgwardts Modell ist in dem Sinne flexibel, dass die rotationssymmetrische Verteilung beliebig gewählt werden kann. Dennoch ist es stark eingeschränkt und nicht realitätsnah. (Rotationssymmetrie ist für die Analyse hilfreich, aber warum sollten Eingaben in der Praxis so aussehen? Gleiches gilt für die Einschränkung auf 1 Bedingungen.)

Fazit Einführung Exkurs: Wahrscheinlichkeitstheorie Borgwardts Fazit Borgwardts Modell ist in dem Sinne flexibel, dass die rotationssymmetrische Verteilung beliebig gewählt werden kann. Dennoch ist es stark eingeschränkt und nicht realitätsnah. (Rotationssymmetrie ist für die Analyse hilfreich, aber warum sollten Eingaben in der Praxis so aussehen? Gleiches gilt für die Einschränkung auf 1 Bedingungen.) Borgwardts Analyse hat aber den Grundstein für eine realitätsnähere probabilistische Analyse gelegt, die wir nun skizzieren wollen.

Übersicht Einführung Idee 1 Einführung 2 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 3 Idee 4 Formale Beschreibung des s

Idee Smoothed Analysis (Geglättete Analyse) Motivation Eingaben, die in der Praxis vorkommen haben eine bestimmte Struktur (die wir i.a. nicht genau kennen), sie unterliegen aber typischerweise auch zumindest leichten zufälligen Einflüssen.

Idee Smoothed Analysis (Geglättete Analyse) Motivation Eingaben, die in der Praxis vorkommen haben eine bestimmte Struktur (die wir i.a. nicht genau kennen), sie unterliegen aber typischerweise auch zumindest leichten zufälligen Einflüssen. Beispiel: Ein LP, das Warenpreise enthält, die von den aktuellen Währungsschwankungen abhängen.

Idee Smoothed Analysis (Geglättete Analyse) Motivation Eingaben, die in der Praxis vorkommen haben eine bestimmte Struktur (die wir i.a. nicht genau kennen), sie unterliegen aber typischerweise auch zumindest leichten zufälligen Einflüssen. Beispiel: Ein LP, das Warenpreise enthält, die von den aktuellen Währungsschwankungen abhängen. Spielman und Teng haben deswegen semi-zufällige Modelle untersucht.

Idee Smoothed Analysis (Geglättete Analyse) Semi-zufälliges Modell Eingaben werden in zwei Stufen generiert: 1 Ein Gegner gibt eine Eingabe I vor. Beispiel: LPs max c T x, Ax b mit A R m n, b R m und c R n 1 Gegner wählt A, b und c beliebig.

Idee Smoothed Analysis (Geglättete Analyse) Semi-zufälliges Modell Eingaben werden in zwei Stufen generiert: 1 Ein Gegner gibt eine Eingabe I vor. 2 I wird zufällig ein wenig verändert (perturbiert). Beispiel: LPs max c T x, Ax b mit A R m n, b R m und c R n 1 Gegner wählt A, b und c beliebig. 2 Auf die Einträge von A und b werden unabhängige normalverteilte Zufallsvariablen addiert.

Ein Beispiel Einführung Idee Gegner wählt LP x 2 0.75 1 1 A = 1.5 1, b = 1.5 1 1 2 x 1

Ein Beispiel Einführung Idee Gegner wählt LP Perturbation x 2 x 2 0.75 1 1 A = 1.5 1, b = 1.5 1 1 2 x 1 0.7 1.1 1.3 A = 1.7 1.2, b = 1.4 1 0.9 2.1 x 1

Geglättete Komplexität Idee Definitionen I = Menge der Eingaben I n = Menge der Eingaben der Länge n T A (I) = Laufzeit von Algorithmus A auf Eingabe I per(i) = zufällig Perturbation von I

Geglättete Komplexität Idee Definitionen I = Menge der Eingaben I n = Menge der Eingaben der Länge n T A (I) = Laufzeit von Algorithmus A auf Eingabe I per(i) = zufällig Perturbation von I Komplexitätsbegriffe Worst-Case-Komplexität: max I In T A (I) Average-Case-Komplexität: E I In [T A (I)] Geglättete Komplexität: max I In E [T A (per(i))]

Geglättete Komplexität Idee

Geglättete Komplexität Idee

Idee Normalverteilung Die Normalverteilung mit Standardabweichung σ wird beschrieben durch die Dichte f (x) = 1 ( σ 2π exp x 2 ) 2σ 2.

Idee

Idee Eigenschaften Je kleiner σ, desto konzentrierter ist die Verteilung um den Nullpunkt. Normalverteilungen werden in vielen Situationen als realistisch angesehen (Körpergröße, IQ,...). 1 sigma=0.5 sigma=1 sigma=2 0.5 0-5 -4-3 -2-1 0 1 2 3 4 5

Idee Der Gegner gibt das LP max c T x, Ax b vor.

Idee Der Gegner gibt das LP max c T x, Ax b vor. Skaliere die Nebenbedingungen so, dass für jede Bedingung b i = 1 gilt.

Idee Der Gegner gibt das LP max c T x, Ax b vor. Skaliere die Nebenbedingungen so, dass für jede Bedingung b i = 1 gilt. Addiere eine unabhängige normalverteilte Zufallsvariable mit Standardabweichung σ zu jedem Eintrag aus A und b.

Idee Je kleiner σ ist, desto kleiner ist die (erwartete) Perturbation

Idee Je kleiner σ ist, desto kleiner ist die (erwartete) Perturbation Je kleiner σ ist, desto mehr Einfluss hat der Gegner, desto näher sind wir also einer Worst-Case-Betrachtung.

Idee Je kleiner σ ist, desto kleiner ist die (erwartete) Perturbation Je kleiner σ ist, desto mehr Einfluss hat der Gegner, desto näher sind wir also einer Worst-Case-Betrachtung. Für sehr große σ nähert sich die Analyse einer Average-Case-Analyse.

Idee Je kleiner σ ist, desto kleiner ist die (erwartete) Perturbation Je kleiner σ ist, desto mehr Einfluss hat der Gegner, desto näher sind wir also einer Worst-Case-Betrachtung. Für sehr große σ nähert sich die Analyse einer Average-Case-Analyse. Die geglättete Analyse ist also ein Hybrid aus Worst-Caseund Average-Case-Analyse.

Einführung Idee Theorem (Spielman und Teng 2001) Die erwartete Anzahl von Schritten des Simplex-Algorithmus mit der auf LPs, die gemäß dem oben beschriebenen Eingabemodell mit Standardabweichung σ erzeugt werden, ist O(poly(n, m, 1/σ)).

Übersicht Einführung Formale Beschreibung des s 1 Einführung 2 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 3 Idee 4 Formale Beschreibung des s

Übertragung auf diskrete Probleme Formale Beschreibung des s Übertragung auf diskrete Probleme Lässt sich das von Spielman und Teng für LPs auch auf ganzzahlige Programme, also ILPs, übertragen?

Übertragung auf diskrete Probleme Formale Beschreibung des s Übertragung auf diskrete Probleme Lässt sich das von Spielman und Teng für LPs auch auf ganzzahlige Programme, also ILPs, übertragen? Wir betrachten im Folgenden nur binäre Programme.

Übertragung auf diskrete Probleme Formale Beschreibung des s Übertragung auf diskrete Probleme Lässt sich das von Spielman und Teng für LPs auch auf ganzzahlige Programme, also ILPs, übertragen? Wir betrachten im Folgenden nur binäre Programme. Das muss zunächst für ILPs angepasst werden!

Beispiel Einführung Formale Beschreibung des s Beispiel: Vertex Cover Eingabe: Graph G = (V, E)

Beispiel Einführung Formale Beschreibung des s Beispiel: Vertex Cover Eingabe: Graph G = (V, E) Ausgabe: Ein minimales Vertex Cover.

Beispiel Einführung Formale Beschreibung des s Beispiel: Vertex Cover Eingabe: Graph G = (V, E) Ausgabe: Ein minimales Vertex Cover. ILP-Formulierung: v V : x v {0, 1} min v V x v e = (v, u) E : x v + x u 1

Beispiel Einführung Formale Beschreibung des s Beispiel: Vertex Cover Eingabe: Graph G = (V, E) Ausgabe: Ein minimales Vertex Cover. ILP-Formulierung: v V : x v {0, 1} min v V x v e = (v, u) E : x v + x u 1 Ist es sinnvoll, die Nebenbedingungen zu perturbieren?

Beispiel Einführung Formale Beschreibung des s u v w Eigenschaften Minimales Vertex Cover ist der Knoten v, d.h. x v = 1 und x u = x w = 0. Dann gilt: x u + x v 1 und x v + x w 1.

Beispiel Einführung Formale Beschreibung des s u v w Eigenschaften Wir perturbieren jetzt die Nebenbedingungen: 1.1 x u + 0.9 x v 1.1 und 1.2 x v + 1.1 x w 0.9.

Beispiel Einführung Formale Beschreibung des s u v w Eigenschaften Wir perturbieren jetzt die Nebenbedingungen: 1.1 x u + 0.9 x v 1.1 und 1.2 x v + 1.1 x w 0.9. Der Knoten v alleine bildet nun keine gültige Lösung mehr, denn 1.1 x u + 0.9 x v = 0.9 < 1.1 für x v = 1 und x u = x w = 0.

Beispiel Einführung Formale Beschreibung des s u v w Eigenschaften Wir perturbieren jetzt die Nebenbedingungen: 1.1 x u + 0.9 x v 1.1 und 1.2 x v + 1.1 x w 0.9. Der Knoten v alleine bildet nun keine gültige Lösung mehr, denn 1.1 x u + 0.9 x v = 0.9 < 1.1 für x v = 1 und x u = x w = 0. Durch die Perturbation wurde also die kombinatorische Struktur des Problems zerstört!

Schlussfolgerung Einführung Formale Beschreibung des s Schlussfolgerung ILPs beschreiben i.a. Probleme mit einer kombinatorischen Struktur.

Schlussfolgerung Einführung Formale Beschreibung des s Schlussfolgerung ILPs beschreiben i.a. Probleme mit einer kombinatorischen Struktur. Wahlloses Perturbieren der Nebenbedingungen zerstört diese kombinatorische Struktur.

Schlussfolgerung Einführung Formale Beschreibung des s Schlussfolgerung ILPs beschreiben i.a. Probleme mit einer kombinatorischen Struktur. Wahlloses Perturbieren der Nebenbedingungen zerstört diese kombinatorische Struktur. Deswegen wäre ein solches Eingabemodell keineswegs realistisch.

Formale Beschreibung des s Problemklasse Wir betrachten deswegen Probleme der folgenden Form: max c 1 x 1 +... + c n x n x = (x 1,..., x n ) S Ax b Dabei ist S eine beliebige Teilmenge von {0, 1} n.

Formale Beschreibung des s Problemklasse Wir betrachten deswegen Probleme der folgenden Form: max c 1 x 1 +... + c n x n x = (x 1,..., x n ) S Ax b Dabei ist S eine beliebige Teilmenge von {0, 1} n. Zusätzlich zu den linearen Nebenbedingungen, die perturbiert werden, kann also durch S eine Problemstruktur beschrieben werden, die nicht perturbiert wird.

Beispiel Einführung Formale Beschreibung des s Spannbaumproblem mit Nebenbedingung Eingabe: Graph G = (V, E), Gewichte w : E N, Kosten c : E N, Budget b

Beispiel Einführung Formale Beschreibung des s Spannbaumproblem mit Nebenbedingung Eingabe: Graph G = (V, E), Gewichte w : E N, Kosten c : E N, Budget b Finde einen minimalen (bzgl. Gewicht) Spannbaum, der die Kostengrenze einhält.

Beispiel Einführung Formale Beschreibung des s Spannbaumproblem mit Nebenbedingung Eingabe: Graph G = (V, E), Gewichte w : E N, Kosten c : E N, Budget b Finde einen minimalen (bzgl. Gewicht) Spannbaum, der die Kostengrenze einhält. Variablen: e E : x e {0, 1}

Beispiel Einführung Formale Beschreibung des s Spannbaumproblem mit Nebenbedingung Eingabe: Graph G = (V, E), Gewichte w : E N, Kosten c : E N, Budget b Finde einen minimalen (bzgl. Gewicht) Spannbaum, der die Kostengrenze einhält. Variablen: e E : x e {0, 1} S {0, 1} m bezeichne die Menge aller Spannbäume min e E w(e) x e x S und e E c(e) x e b.

Formale Beschreibung des s Spannbaumproblem mit Nebenbedingung Eingabe Budget b = 7 (Gew., Kosten) (1,6) (5,1) (2,2) (5,1) (1,1)

Formale Beschreibung des s Spannbaumproblem mit Nebenbedingung Eingabe Budget b = 7 (Gew., Kosten) (1,6) Minimaler Spannbaum Gewicht 4 Kosten 9 (1,6) (5,1) (2,2) (5,1) (2,2) (1,1) (1,1)

Formale Beschreibung des s Spannbaumproblem mit Nebenbedingung Eingabe Budget b = 7 (Gew., Kosten) (1,6) Minimaler Spannbaum Gewicht 4 Kosten 9 (1,6) Optimale Lösung Gewicht 8 Kosten 4 (5,1) (2,2) (5,1) (2,2) (2,2) (5,1) (1,1) (1,1) (1,1)

Formale Beschreibung des s Zusammenfassung Gegner gibt Problem vor: max c T x, Ax b, x S. Wir perturbieren entweder die Koeffizienten der Zielfunktion c, die Einträge von A oder beides. Die Perturbation erfolgt (so wie bei LPs) durch Addition von unabhängigen Zufallsvariablen.

Formale Beschreibung des s Allgemeineres LPs wurden durch Addition einer normalverteilten Zufallsvariable perturbiert.

Formale Beschreibung des s Allgemeineres LPs wurden durch Addition einer normalverteilten Zufallsvariable perturbiert. Die Laufzeit wurde in Abhängigkeit von σ angegeben.

Formale Beschreibung des s Allgemeineres LPs wurden durch Addition einer normalverteilten Zufallsvariable perturbiert. Die Laufzeit wurde in Abhängigkeit von σ angegeben. Wir erlauben die Addition einer Zufallsvariable mit beliebiger Dichte f.

Formale Beschreibung des s Allgemeineres LPs wurden durch Addition einer normalverteilten Zufallsvariable perturbiert. Die Laufzeit wurde in Abhängigkeit von σ angegeben. Wir erlauben die Addition einer Zufallsvariable mit beliebiger Dichte f. Die Laufzeit wird in Abhängigkeit von der maximalen Dichte φ = sup x R f (x) angegeben.

Formale Beschreibung des s Normalverteilung Die Dichte der Normalverteilung mit Standardabweichung σ ist f (x) = 1 ( σ 2π exp x 2 ) 2σ 2. Es gilt Also φ 1/σ. φ = sup f (x) = 1 x R σ 2π.

Formale Beschreibung des s 1 sigma=0.5 sigma=1 sigma=2 0.5 0-5 -4-3 -2-1 0 1 2 3 4 5

Formale Beschreibung des s 4 3 2 1 0-1 -0.5 0 0.5 1

Formale Beschreibung des s Zusammenfassung Der Parameter φ gibt (analog zu σ) an, wie groß die erwartete Perturbation ist.

Formale Beschreibung des s Zusammenfassung Der Parameter φ gibt (analog zu σ) an, wie groß die erwartete Perturbation ist. Je größer φ ist, desto mehr Einfluss hat der Gegner, desto näher sind wir dem Worst-Case.

Formale Beschreibung des s Zusammenfassung Der Parameter φ gibt (analog zu σ) an, wie groß die erwartete Perturbation ist. Je größer φ ist, desto mehr Einfluss hat der Gegner, desto näher sind wir dem Worst-Case. Je kleiner φ ist, desto näher sind wir einer Average-Case-Analyse.

Formale Beschreibung des s Zusammenfassung Der Parameter φ gibt (analog zu σ) an, wie groß die erwartete Perturbation ist. Je größer φ ist, desto mehr Einfluss hat der Gegner, desto näher sind wir dem Worst-Case. Je kleiner φ ist, desto näher sind wir einer Average-Case-Analyse. Je größer φ wird, desto größer sollte also auch die erwartete Laufzeit werden.

Beispiel: Rucksackproblem Formale Beschreibung des s Kosten Gewicht

Beispiel: Rucksackproblem Formale Beschreibung des s Kleines φ Kosten Gewicht

Beispiel: Rucksackproblem Formale Beschreibung des s Großes φ Kosten Gewicht

Einführung Formale Beschreibung des s Wir werden das folgende Theorem beweisen. Theorem (Beier, Vöcking 2004) Ein binäres Optimierungsproblem hat genau dann eine polynomielle geglättete Komplexität, wenn es einen pseudopolynomiellen Algorithmus für das Problem gibt.

Einführung Formale Beschreibung des s Wir werden das folgende Theorem beweisen. Theorem (Beier, Vöcking 2004) Ein binäres Optimierungsproblem hat genau dann eine polynomielle geglättete Komplexität, wenn es einen pseudopolynomiellen Algorithmus für das Problem gibt. Hinweise Pseudopolynomiell bezieht sich auf genau diejenigen Koeffizienten, die perturbiert werden. Formale Definition von polynomieller geglätteter Komplexität später.

Folgerungen Einführung Formale Beschreibung des s Folgerungen Das TSP hat keine polynomielle geglättete Komplexität. Das 2-kriterielle Spannbaumproblem hat eine polynomielle geglättete Komplexität, wenn man Gewichte und Kosten perturbiert.

Literatur Einführung Formale Beschreibung des s Literatur Rene Beier, Berthold Vöcking Typical Properties of Winners and Losers in Discrete Optimization, STOC 2004. Karl Heinz Borgwardt The Simplex Method A Probabilistic Analysis, Springer, 1987. Daniel Spielman, Shang-Hua Teng Smoothed Analysis of Algorithms: Why the Simplex Algorithm Usually Takes Polynomial Time, Journal of the ACM, 51(3), 385-463, 2004