Innere-Punkt-Methoden
|
|
- Franziska Melsbach
- vor 6 Jahren
- Abrufe
Transkript
1 Innere-Punkt-Methoden Johannes Stemick Johannes Stemick () Innere-Punkt-Methoden / 28
2 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction methods Johannes Stemick () Innere-Punkt-Methoden / 28
3 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction methods Johannes Stemick () Innere-Punkt-Methoden / 28
4 Lineares Optimierungsproblem Definition Gegeben seien m, n N, A R m n, b R m und c R n. Gesucht ist nun x R n so, dass min{c T x : Ax b, x 0} angenommen wird. Alternative Formulierung: Johannes Stemick () Innere-Punkt-Methoden / 28
5 Lineares Optimierungsproblem Definition Gegeben seien m, n N, A R m n, b R m und c R n. Gesucht ist nun x R n so, dass min{c T x : Ax b, x 0} angenommen wird. Alternative Formulierung: Minimiere c T x, wobei Ax = b, x 0 Dafür: Führe Vektor s = b Ax ein (Schlupfvariablen). Sei I die m m-einheitsmatrix. Neues System: ( ) ( ) x A I =: Ã x = b, x 0 s Johannes Stemick () Innere-Punkt-Methoden / 28
6 Duales Optimierungsproblem Zurück zum Bauernhof: ( 1 3 A = 1 0 ), x = ( S K ) ( 8, b = 4 ) ( 2, c = 4 ) { } max c T x : Ax b, x 0 Johannes Stemick () Innere-Punkt-Methoden / 28
7 Duales Optimierungsproblem Zurück zum Bauernhof: ( 1 3 A = 1 0 ), x = ( S K ) ( 8, b = 4 ) ( 2, c = 4 ) { } max c T x : Ax b, x 0 Nebenbedingungen sind: S + 3K 8 und S 4. Wir können c T x nach oben beschränken: Johannes Stemick () Innere-Punkt-Methoden / 28
8 Duales Optimierungsproblem Zurück zum Bauernhof: ( 1 3 A = 1 0 ), x = ( S K ) ( 8, b = 4 ) ( 2, c = 4 ) { } max c T x : Ax b, x 0 Nebenbedingungen sind: S + 3K 8 und S 4. Wir können c T x nach oben beschränken: c T x = 2S + 4K = 4 3 (S + 3K) S = Johannes Stemick () Innere-Punkt-Methoden / 28
9 Duales Optimierungsproblem Zurück zum Bauernhof: ( 1 3 A = 1 0 ), x = ( S K ) ( 8, b = 4 ) ( 2, c = 4 ) { } max c T x : Ax b, x 0 Nebenbedingungen sind: S + 3K 8 und S 4. Wir können c T x nach oben beschränken: c T x = 2S + 4K = 4 3 (S + 3K) S = Scharfe Abschätzung für den Optimalwert Johannes Stemick () Innere-Punkt-Methoden / 28
10 Duales Optimierungsproblem Zurück zum Bauernhof: ( 1 3 A = 1 0 ), x = ( S K ) ( 8, b = 4 ) ( 2, c = 4 ) { } max c T x : Ax b, x 0 Nebenbedingungen sind: S + 3K 8 und S 4. Wir können c T x nach oben beschränken: c T x = 2S + 4K = 4 3 (S + 3K) S = Scharfe Abschätzung für den Optimalwert Hier Glück gehabt. Johannes Stemick () Innere-Punkt-Methoden / 28
11 Duales Optimierungsproblem Können wir das Glück herausfordern? Johannes Stemick () Innere-Punkt-Methoden / 28
12 Duales Optimierungsproblem Können wir das Glück herausfordern? Idee: Schätze den Funktionalwert durch Linearkombination der Nebenbedingungen ab: c T x = 2S + 4K! Sy 1 + (S + 3K)y 2 = (y 1 + y 2 )S + (3y 2 )K 4y 1 + 8y 2 Johannes Stemick () Innere-Punkt-Methoden / 28
13 Duales Optimierungsproblem Können wir das Glück herausfordern? Idee: Schätze den Funktionalwert durch Linearkombination der Nebenbedingungen ab: c T x = 2S + 4K! Sy 1 + (S + 3K)y 2 = (y 1 + y 2 )S + (3y 2 )K 4y 1 + 8y 2 Koeffizientenvergleich liefert unter der Annahme y 1, y 2 0: y 1 + y 2 2 und 3y 2 4 ( ) Johannes Stemick () Innere-Punkt-Methoden / 28
14 Duales Optimierungsproblem Können wir das Glück herausfordern? Idee: Schätze den Funktionalwert durch Linearkombination der Nebenbedingungen ab: c T x = 2S + 4K! Sy 1 + (S + 3K)y 2 = (y 1 + y 2 )S + (3y 2 )K 4y 1 + 8y 2 Koeffizientenvergleich liefert unter der Annahme y 1, y 2 0: y 1 + y 2 2 und 3y 2 4 ( ) Damit können wir folgern: Johannes Stemick () Innere-Punkt-Methoden / 28
15 Duales Optimierungsproblem Können wir das Glück herausfordern? Idee: Schätze den Funktionalwert durch Linearkombination der Nebenbedingungen ab: c T x = 2S + 4K! Sy 1 + (S + 3K)y 2 = (y 1 + y 2 )S + (3y 2 )K 4y 1 + 8y 2 Koeffizientenvergleich liefert unter der Annahme y 1, y 2 0: y 1 + y 2 2 und 3y 2 4 ( ) Damit können wir folgern: max{c T x : Ax b, x 0} min{4y 1 + 8y 2 : ( ) gilt und y1, y2 0} Johannes Stemick () Innere-Punkt-Methoden / 28
16 Duales Optimierungsproblem Können wir das Glück herausfordern? Idee: Schätze den Funktionalwert durch Linearkombination der Nebenbedingungen ab: c T x = 2S + 4K! Sy 1 + (S + 3K)y 2 = (y 1 + y 2 )S + (3y 2 )K 4y 1 + 8y 2 Koeffizientenvergleich liefert unter der Annahme y 1, y 2 0: y 1 + y 2 2 und 3y 2 4 ( ) Damit können wir folgern: max{c T x : Ax b, x 0} min{4y 1 + 8y 2 : ( ) gilt und y1, y2 0} = min{b T y : A T y c, y 0} Johannes Stemick () Innere-Punkt-Methoden / 28
17 Dualitätssatz Wann ist die Abschätzung scharf, das heißt wann ist das duale Minimum identisch dem primalen Maximum? Johannes Stemick () Innere-Punkt-Methoden / 28
18 Dualitätssatz Wann ist die Abschätzung scharf, das heißt wann ist das duale Minimum identisch dem primalen Maximum? Satz Seien n, m N, A R m n, b R m und c R n. Dann haben die beiden linearen Optimierungsprobleme max c T x Ax b x 0 und min b T y A T y c y 0 genau dann identische Optima, wenn beide Probleme zulässige Lösungen besitzen, d.h. x R n mit Ax b und x 0 bzw. y R m mit A T y c und y 0. Johannes Stemick () Innere-Punkt-Methoden / 28
19 Simplex-Methode min{c T x : Ax b, x 0} Wir wissen: Eindeutiges Optimum wird in Ecke des Polyeders angenommen. Johannes Stemick () Innere-Punkt-Methoden / 28
20 Simplex-Methode min{c T x : Ax b, x 0} Wir wissen: Eindeutiges Optimum wird in Ecke des Polyeders angenommen. Idee der Simplex-Methode: Johannes Stemick () Innere-Punkt-Methoden / 28
21 Simplex-Methode min{c T x : Ax b, x 0} Wir wissen: Eindeutiges Optimum wird in Ecke des Polyeders angenommen. Idee der Simplex-Methode: 1 Starte bei einer Ecke Johannes Stemick () Innere-Punkt-Methoden / 28
22 Simplex-Methode min{c T x : Ax b, x 0} Wir wissen: Eindeutiges Optimum wird in Ecke des Polyeders angenommen. Idee der Simplex-Methode: 1 Starte bei einer Ecke 2 Suche eine angrenzende Kante, an der der Wert von c T x abnimmt Johannes Stemick () Innere-Punkt-Methoden / 28
23 Simplex-Methode min{c T x : Ax b, x 0} Wir wissen: Eindeutiges Optimum wird in Ecke des Polyeders angenommen. Idee der Simplex-Methode: 1 Starte bei einer Ecke 2 Suche eine angrenzende Kante, an der der Wert von c T x abnimmt 3 Gibt es keine solche Kante? Fertig, Optimallösung gefunden. Johannes Stemick () Innere-Punkt-Methoden / 28
24 Simplex-Methode min{c T x : Ax b, x 0} Wir wissen: Eindeutiges Optimum wird in Ecke des Polyeders angenommen. Idee der Simplex-Methode: 1 Starte bei einer Ecke 2 Suche eine angrenzende Kante, an der der Wert von c T x abnimmt 3 Gibt es keine solche Kante? Fertig, Optimallösung gefunden. 4 Ansonsten gehe zur neuen Ecke und starte bei 2). Johannes Stemick () Innere-Punkt-Methoden / 28
25 Simplex-Methode min{c T x : Ax b, x 0} Wir wissen: Eindeutiges Optimum wird in Ecke des Polyeders angenommen. Idee der Simplex-Methode: 1 Starte bei einer Ecke 2 Suche eine angrenzende Kante, an der der Wert von c T x abnimmt 3 Gibt es keine solche Kante? Fertig, Optimallösung gefunden. 4 Ansonsten gehe zur neuen Ecke und starte bei 2). Löst kleine bis mittlere Probleme sehr schnell. Kein polynomieller Algorithmus, in der Praxis meist linearer Aufwand zur Lösung. Johannes Stemick () Innere-Punkt-Methoden / 28
26 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction methods Johannes Stemick () Innere-Punkt-Methoden / 28
27 path-following methods Grundidee: Johannes Stemick () Innere-Punkt-Methoden / 28
28 path-following methods Grundidee: Ersetze Nebenbedingungen durch einen neuen konvexen Term F (x) in der Zielfunktion Johannes Stemick () Innere-Punkt-Methoden / 28
29 path-following methods Grundidee: Ersetze Nebenbedingungen durch einen neuen konvexen Term F (x) in der Zielfunktion Betrachte die neuen Probleme min{tc T x + F (x) : x R n } Johannes Stemick () Innere-Punkt-Methoden / 28
30 path-following methods Grundidee: Ersetze Nebenbedingungen durch einen neuen konvexen Term F (x) in der Zielfunktion Betrachte die neuen Probleme min{tc T x + F (x) : x R n } Löse diese Probleme für Folge t k Lösungsvektor x k konvergiert gegen Optimallösung von c T x Johannes Stemick () Innere-Punkt-Methoden / 28
31 path-following methods Grundidee: Ersetze Nebenbedingungen durch einen neuen konvexen Term F (x) in der Zielfunktion Betrachte die neuen Probleme min{tc T x + F (x) : x R n } Löse diese Probleme für Folge t k Lösungsvektor x k konvergiert gegen Optimallösung von c T x Forderung: x k+1 soll iterativ aus x k berechenbar sein Johannes Stemick () Innere-Punkt-Methoden / 28
32 path-following methods Grundidee: Fragen: Ersetze Nebenbedingungen durch einen neuen konvexen Term F (x) in der Zielfunktion Betrachte die neuen Probleme min{tc T x + F (x) : x R n } Löse diese Probleme für Folge t k Lösungsvektor x k konvergiert gegen Optimallösung von c T x Forderung: x k+1 soll iterativ aus x k berechenbar sein Welchen iterativen Löser? Johannes Stemick () Innere-Punkt-Methoden / 28
33 path-following methods Grundidee: Fragen: Ersetze Nebenbedingungen durch einen neuen konvexen Term F (x) in der Zielfunktion Betrachte die neuen Probleme min{tc T x + F (x) : x R n } Löse diese Probleme für Folge t k Lösungsvektor x k konvergiert gegen Optimallösung von c T x Forderung: x k+1 soll iterativ aus x k berechenbar sein Welchen iterativen Löser? Newton-Verfahren (quadratische Konvergenz) Johannes Stemick () Innere-Punkt-Methoden / 28
34 path-following methods Grundidee: Fragen: Ersetze Nebenbedingungen durch einen neuen konvexen Term F (x) in der Zielfunktion Betrachte die neuen Probleme min{tc T x + F (x) : x R n } Löse diese Probleme für Folge t k Lösungsvektor x k konvergiert gegen Optimallösung von c T x Forderung: x k+1 soll iterativ aus x k berechenbar sein Welchen iterativen Löser? Newton-Verfahren (quadratische Konvergenz) Wann ist t k+1 t k klein genug? Johannes Stemick () Innere-Punkt-Methoden / 28
35 path-following methods Grundidee: Fragen: Ersetze Nebenbedingungen durch einen neuen konvexen Term F (x) in der Zielfunktion Betrachte die neuen Probleme min{tc T x + F (x) : x R n } Löse diese Probleme für Folge t k Lösungsvektor x k konvergiert gegen Optimallösung von c T x Forderung: x k+1 soll iterativ aus x k berechenbar sein Welchen iterativen Löser? Newton-Verfahren (quadratische Konvergenz) Wann ist t k+1 t k klein genug? Wie sollte F gewählt werden? Johannes Stemick () Innere-Punkt-Methoden / 28
36 Self-concordance Eine strikt konvexe Funktion F, das heißt 2 F (x) > 0 für jedes x int X \{0}, definiert über u, v F,x = D 2 F (x)[u, v] := 2 F (x + tu + sv) s t = v T 2 F (x)u t=s=0 ein Skalarprodukt. Johannes Stemick () Innere-Punkt-Methoden / 28
37 Self-concordance Eine strikt konvexe Funktion F, das heißt 2 F (x) > 0 für jedes x int X \{0}, definiert über u, v F,x = D 2 F (x)[u, v] := 2 F (x + tu + sv) s t = v T 2 F (x)u t=s=0 ein Skalarprodukt. Idee: Untersuche Eigenschaften des Newton-Verfahrens bezüglich dieses Skalarprodukts! Definiere u F,x := u, u F,x. Johannes Stemick () Innere-Punkt-Methoden / 28
38 Self-concordance Definition Sei n N und X R n eine abgeschlossene konvexe Menge mit nichtleerem Inneren. Eine Funktion f : int X R heißt self-concordant (SC) auf X, wenn (i) f C 3 (int X ) gilt, f konvex ist und für x X gilt (ii) und f die Ungleichung lim f (x) = x x, x int X D 3 f (x)[h, h, h] 2 ( D 2 f (x)[h, h] ) 3/2 erfüllt. Barriere x int X h R n Johannes Stemick () Innere-Punkt-Methoden / 28
39 Self-concordance Definition Sei n N und X R n eine abgeschlossene konvexe Menge mit nichtleerem Inneren. Eine Funktion f : int X R heißt self-concordant (SC) auf X, wenn (i) f C 3 (int X ) gilt, f konvex ist und für x X gilt (ii) und f die Ungleichung lim f (x) = x x, x int X D 3 f (x)[h, h, h] 2 ( D 2 f (x)[h, h] ) 3/2 erfüllt. (ii) entspricht L-Stetigkeit bzgl f,x. Barriere x int X h R n Johannes Stemick () Innere-Punkt-Methoden / 28
40 Self-concordance Sei Q ein konvexes, nichtleeres Gebiet. Selbstkonkordante Funktionen f haben gutartige Eigenschaften: Johannes Stemick () Innere-Punkt-Methoden / 28
41 Self-concordance Sei Q ein konvexes, nichtleeres Gebiet. Selbstkonkordante Funktionen f haben gutartige Eigenschaften: Man kann zeigen: E f := {h R n : D 2 f (x)[h, h] = h f,x = 0} ist von x unabhängig. Weiter ist 2 f (x) s.p.d E f = {0}. Johannes Stemick () Innere-Punkt-Methoden / 28
42 Self-concordance Sei Q ein konvexes, nichtleeres Gebiet. Selbstkonkordante Funktionen f haben gutartige Eigenschaften: Man kann zeigen: E f := {h R n : D 2 f (x)[h, h] = h f,x = 0} ist von x unabhängig. Weiter ist 2 f (x) s.p.d E f = {0}. Für x Q ist der Dikin-Einheitsellipsoid {y Q : y x f,x 1} von f in Q enthalten. Johannes Stemick () Innere-Punkt-Methoden / 28
43 Self-concordance Sei Q ein konvexes, nichtleeres Gebiet. Selbstkonkordante Funktionen f haben gutartige Eigenschaften: Man kann zeigen: E f := {h R n : D 2 f (x)[h, h] = h f,x = 0} ist von x unabhängig. Weiter ist 2 f (x) s.p.d E f = {0}. Für x Q ist der Dikin-Einheitsellipsoid {y Q : y x f,x 1} von f in Q enthalten. Eine SC-Funktion f, für die E f = {0} gilt, heißt nichtentartet. Johannes Stemick () Innere-Punkt-Methoden / 28
44 Self-concordance Sei Q ein konvexes, nichtleeres Gebiet. Selbstkonkordante Funktionen f haben gutartige Eigenschaften: Man kann zeigen: E f := {h R n : D 2 f (x)[h, h] = h f,x = 0} ist von x unabhängig. Weiter ist 2 f (x) s.p.d E f = {0}. Für x Q ist der Dikin-Einheitsellipsoid {y Q : y x f,x 1} von f in Q enthalten. Eine SC-Funktion f, für die E f = {0} gilt, heißt nichtentartet. u f,x = u, u f,x ist eine Norm für jedes x Q! Johannes Stemick () Innere-Punkt-Methoden / 28
45 Gedämpftes Newton-Verfahren Sei f eine SC-Funktion. Definiere c f,x := c T [ 2 f (x)] 1 c. Das Newtondekrement ist definiert über λ(f, x) := max{df (x)[h] : h R n, h f,x 1} f (x) f,x. Johannes Stemick () Innere-Punkt-Methoden / 28
46 Gedämpftes Newton-Verfahren Sei f eine SC-Funktion. Definiere c f,x := c T [ 2 f (x)] 1 c. Das Newtondekrement ist definiert über λ(f, x) := max{df (x)[h] : h R n, h f,x 1} f (x) f,x. Maß für die Nähe von x Q zum Minimierer x f von f auf Q: } λ(f,x) x f x f,x 1 λ(f,x) für λ(f, x) < 1 x f x f,xf λ(f,x) 1 λ(f,x) Johannes Stemick () Innere-Punkt-Methoden / 28
47 Gedämpftes Newton-Verfahren Sei f nichtentartet. Johannes Stemick () Innere-Punkt-Methoden / 28
48 Gedämpftes Newton-Verfahren Sei f nichtentartet. λ(f, x) ist endlich für jedes x Q. Johannes Stemick () Innere-Punkt-Methoden / 28
49 Gedämpftes Newton-Verfahren Sei f nichtentartet. λ(f, x) ist endlich für jedes x Q. λ(f, ) ist stetig auf ganz Q. Johannes Stemick () Innere-Punkt-Methoden / 28
50 Gedämpftes Newton-Verfahren Sei f nichtentartet. λ(f, x) ist endlich für jedes x Q. λ(f, ) ist stetig auf ganz Q. λ(f, x) = 0 genau dann, wenn x der Minimierer von f auf Q ist. Johannes Stemick () Innere-Punkt-Methoden / 28
51 Gedämpftes Newton-Verfahren Sei f nichtentartet. λ(f, x) ist endlich für jedes x Q. λ(f, ) ist stetig auf ganz Q. λ(f, x) = 0 genau dann, wenn x der Minimierer von f auf Q ist. Das gedämpfte Newton-Verfahren wird nun definiert über x k+1 = x k λ(f, x k ) [ 2 f (x k )] 1 f (x k ) Johannes Stemick () Innere-Punkt-Methoden / 28
52 Gedämpftes Newton-Verfahren Sei f nichtentartet. λ(f, x) ist endlich für jedes x Q. λ(f, ) ist stetig auf ganz Q. λ(f, x) = 0 genau dann, wenn x der Minimierer von f auf Q ist. Das gedämpfte Newton-Verfahren wird nun definiert über x k+1 = x k λ(f, x k ) [ 2 f (x k )] 1 f (x k ) Für k N und x k int X gilt [ λ(f, x k+1 ) 2λ 2 (f, x k ) λ(f, x k ) < 1 4 λ(f, x k+1) 1 ] 2 λ(f, x k) Johannes Stemick () Innere-Punkt-Methoden / 28
53 Gedämpftes Newton-Verfahren Sei f nichtentartet. λ(f, x) ist endlich für jedes x Q. λ(f, ) ist stetig auf ganz Q. λ(f, x) = 0 genau dann, wenn x der Minimierer von f auf Q ist. Das gedämpfte Newton-Verfahren wird nun definiert über x k+1 = x k λ(f, x k ) [ 2 f (x k )] 1 f (x k ) Für k N und x k int X gilt [ λ(f, x k+1 ) 2λ 2 (f, x k ) λ(f, x k ) < 1 4 λ(f, x k+1) 1 ] 2 λ(f, x k) Die garantierte Minimierung pro Newton-Schritt ist f (x k ) f (x k+1 ) λ(f, x k ) log(1 + λ(f, x k )) Johannes Stemick () Innere-Punkt-Methoden / 28
54 Self-concordant barriers Benötigen noch mehr für Konvergenz der Inneren-Punkt-Methode: Johannes Stemick () Innere-Punkt-Methoden / 28
55 Self-concordant barriers Benötigen noch mehr für Konvergenz der Inneren-Punkt-Methode: Definition Sei X eine abgeschlossene, konvexe und nichtleere Menge. Für ϑ 1 heißt F eine ϑ-self-concordant barrier (ϑ-scb) für X, falls F self-concordant auf X ist und zusätzlich DF (x)[h] ϑ ( D 2 F (x)[h, h] ) 1/2 x int X h R n erfüllt. Johannes Stemick () Innere-Punkt-Methoden / 28
56 Self-concordant barriers Benötigen noch mehr für Konvergenz der Inneren-Punkt-Methode: Definition Sei X eine abgeschlossene, konvexe und nichtleere Menge. Für ϑ 1 heißt F eine ϑ-self-concordant barrier (ϑ-scb) für X, falls F self-concordant auf X ist und zusätzlich DF (x)[h] ϑ ( D 2 F (x)[h, h] ) 1/2 x int X h R n erfüllt. ϑ liefert später Fehlerabschätzung für die Methode Johannes Stemick () Innere-Punkt-Methoden / 28
57 Self-concordant barriers Benötigen noch mehr für Konvergenz der Inneren-Punkt-Methode: Definition Sei X eine abgeschlossene, konvexe und nichtleere Menge. Für ϑ 1 heißt F eine ϑ-self-concordant barrier (ϑ-scb) für X, falls F self-concordant auf X ist und zusätzlich DF (x)[h] ϑ ( D 2 F (x)[h, h] ) 1/2 x int X h R n erfüllt. ϑ liefert später Fehlerabschätzung für die Methode Für eine SCB F gilt: F auf X nach unten unbeschränkt λ(f, x) 1 x int X. Johannes Stemick () Innere-Punkt-Methoden / 28
58 Konvergenz der path-following-method Voraussetzungen für folgenden Satz: Johannes Stemick () Innere-Punkt-Methoden / 28
59 Konvergenz der path-following-method Voraussetzungen für folgenden Satz: X R n sei eine abgeschlossene, konvexe Menge mit nichtleerem Inneren. Johannes Stemick () Innere-Punkt-Methoden / 28
60 Konvergenz der path-following-method Voraussetzungen für folgenden Satz: X R n sei eine abgeschlossene, konvexe Menge mit nichtleerem Inneren. Weiter sei eine ϑ-scb F auf X gegeben. Johannes Stemick () Innere-Punkt-Methoden / 28
61 Konvergenz der path-following-method Voraussetzungen für folgenden Satz: X R n sei eine abgeschlossene, konvexe Menge mit nichtleerem Inneren. Weiter sei eine ϑ-scb F auf X gegeben. Die Mengen {x X : c T x α} seien beschränkt für jedes α R +. Johannes Stemick () Innere-Punkt-Methoden / 28
62 Konvergenz der path-following-method Voraussetzungen für folgenden Satz: X R n sei eine abgeschlossene, konvexe Menge mit nichtleerem Inneren. Weiter sei eine ϑ-scb F auf X gegeben. Die Mengen {x X : c T x α} seien beschränkt für jedes α R +. Wir betrachten nun das konvexe Problem min{c T x : x X }. Johannes Stemick () Innere-Punkt-Methoden / 28
63 Konvergenz der path-following-method Satz Gelten die erwähnten Voraussetzungen. Dann ist F nichtentartet, c T x nimmt sein Minimum auf X an und der zentrale Pfad x (t) := arg min x int X F t(x), F t (x) := tc T x + F (x), t > 0 ist wohldefiniert, alle Funktionen F t sind self-concordant auf X. Für den Fehler von c T x (t) zum Minimum von c T x auf X gilt ɛ(x (t)) := c T x (t) min x X ct x ϑ t. Falls weiterhin für t > 0 und x X die Ungleichung λ(f t, x) 1 2 gilt, dann ist ɛ(x) ϑ + ϑ. t Johannes Stemick () Innere-Punkt-Methoden / 28
64 Path-following method Weiterhin gelten die erwähnten Voraussetzungen. Gegeben: (t 0, x 0 ) R + int X mit λ(f t0, x 0 ) Johannes Stemick () Innere-Punkt-Methoden / 28
65 Path-following method Weiterhin gelten die erwähnten Voraussetzungen. Gegeben: (t 0, x 0 ) R + int X mit λ(f t0, x 0 ) Iteration: t k+1 = (t k, x k ) ( ϑ ) t k x k+1 = x k 1 1+λ(F tk+1,x k ) [ 2 F (x k ) ] 1 Ftk+1 (x k ) Johannes Stemick () Innere-Punkt-Methoden / 28
66 Path-following method Weiterhin gelten die erwähnten Voraussetzungen. Gegeben: (t 0, x 0 ) R + int X mit λ(f t0, x 0 ) Iteration: t k+1 = (t k, x k ) ( ϑ ) t k x k+1 = x k 1 1+λ(F tk+1,x k ) [ 2 F (x k ) ] 1 Ftk+1 (x k ) Wohldefiniert: Es gilt x k+1 int X und λ(f tk+1, x k+1 ) Johannes Stemick () Innere-Punkt-Methoden / 28
67 Path-following method Weiterhin gelten die erwähnten Voraussetzungen. Gegeben: (t 0, x 0 ) R + int X mit λ(f t0, x 0 ) Iteration: t k+1 = (t k, x k ) ( ϑ ) t k x k+1 = x k 1 1+λ(F tk+1,x k ) [ 2 F (x k ) ] 1 Ftk+1 (x k ) Wohldefiniert: Es gilt x k+1 int X und λ(f tk+1, x k+1 ) Für die Abweichung von c T x k zum Minimalwert von c T x gilt weiterhin für jedes k N die Abschätzung c T x k min x X ct x ϑ + ϑ ϑ + ϑ e k ϑ. t k t 0 Johannes Stemick () Innere-Punkt-Methoden / 28
68 potential reduction methods t k+1 = (t k, x k ) ( ϑ ) t k x k+1 = x k 1 1+λ(F tk+1,x k ) [ 2 F (x k ) ] 1 Ftk+1 (x k ) Johannes Stemick () Innere-Punkt-Methoden / 28
69 potential reduction methods t k+1 = (t k, x k ) ( ϑ ) t k x k+1 = x k 1 1+λ(F tk+1,x k ) [ 2 F (x k ) ] 1 Ftk+1 (x k ) Nachteile: ϑ sehr groß Zeitschritt sehr klein! Fehler kann sehr groß sein! Johannes Stemick () Innere-Punkt-Methoden / 28
70 potential reduction methods t k+1 = (t k, x k ) ( ϑ ) t k x k+1 = x k 1 1+λ(F tk+1,x k ) [ 2 F (x k ) ] 1 Ftk+1 (x k ) Nachteile: ϑ sehr groß Zeitschritt sehr klein! Fehler kann sehr groß sein! Abhilfe: Primal-dual path-following methods, die das duale Problem parallel lösen Johannes Stemick () Innere-Punkt-Methoden / 28
71 potential reduction methods t k+1 = (t k, x k ) ( ϑ ) t k x k+1 = x k 1 1+λ(F tk+1,x k ) [ 2 F (x k ) ] 1 Ftk+1 (x k ) Nachteile: ϑ sehr groß Zeitschritt sehr klein! Fehler kann sehr groß sein! Abhilfe: Primal-dual path-following methods, die das duale Problem parallel lösen komplex; SCB für duales Problem ist nicht sofort durch SCB des primalen gegeben (unschön). Johannes Stemick () Innere-Punkt-Methoden / 28
72 potential reduction methods t k+1 = (t k, x k ) ( ϑ ) t k x k+1 = x k 1 1+λ(F tk+1,x k ) [ 2 F (x k ) ] 1 Ftk+1 (x k ) Nachteile: ϑ sehr groß Zeitschritt sehr klein! Fehler kann sehr groß sein! Abhilfe: Primal-dual path-following methods, die das duale Problem parallel lösen komplex; SCB für duales Problem ist nicht sofort durch SCB des primalen gegeben (unschön). Andere Möglichkeit: Zweite große Klasse von Verfahren - potential reduction methods Johannes Stemick () Innere-Punkt-Methoden / 28
73 Konische Optimierung1 Konvexer Kegel Sei n N. Ein konvexer Kegel K R n ist eine nichtleere konvexe Menge, für die x K tx K t 0 gilt. Man nennt einen konvexen Kegel punktiert, falls er keine Geraden enthält. Johannes Stemick () Innere-Punkt-Methoden / 28
74 Konische Optimierung1 Konvexer Kegel Sei n N. Ein konvexer Kegel K R n ist eine nichtleere konvexe Menge, für die x K tx K t 0 gilt. Man nennt einen konvexen Kegel punktiert, falls er keine Geraden enthält. Dualer Kegel Der zu einem konvexen Kegel K R n duale Kegel ist gegeben durch K := {s R n : s T x 0 x K}. Johannes Stemick () Innere-Punkt-Methoden / 28
75 Konische Optimierung2 Konisches Optimierungsproblem Sei n N und K R n ein abgeschlossener, konvexer und punktierter Kegel mit einem nichtleeren Inneren. Seien b, c R n und L R n ein linearer Unterraum. Das konische Optimierungsproblem lautet dann: Minimiere c T x, wobei x (b + L) K. Johannes Stemick () Innere-Punkt-Methoden / 28
76 Konische Optimierung2 Konisches Optimierungsproblem Sei n N und K R n ein abgeschlossener, konvexer und punktierter Kegel mit einem nichtleeren Inneren. Seien b, c R n und L R n ein linearer Unterraum. Das konische Optimierungsproblem lautet dann: Minimiere c T x, wobei x (b + L) K. Verallgemeinerung des linearen Optimierungsproblems: Johannes Stemick () Innere-Punkt-Methoden / 28
77 Konische Optimierung2 Konisches Optimierungsproblem Sei n N und K R n ein abgeschlossener, konvexer und punktierter Kegel mit einem nichtleeren Inneren. Seien b, c R n und L R n ein linearer Unterraum. Das konische Optimierungsproblem lautet dann: Minimiere c T x, wobei x (b + L) K. Verallgemeinerung des linearen Optimierungsproblems: L = {x R n : Ax = 0}, Johannes Stemick () Innere-Punkt-Methoden / 28
78 Konische Optimierung2 Konisches Optimierungsproblem Sei n N und K R n ein abgeschlossener, konvexer und punktierter Kegel mit einem nichtleeren Inneren. Seien b, c R n und L R n ein linearer Unterraum. Das konische Optimierungsproblem lautet dann: Minimiere c T x, wobei x (b + L) K. Verallgemeinerung des linearen Optimierungsproblems: L = {x R n : Ax = 0}, b = x 0, wobei x 0 spezielle Lösung von Ax = b, Johannes Stemick () Innere-Punkt-Methoden / 28
79 Konische Optimierung2 Konisches Optimierungsproblem Sei n N und K R n ein abgeschlossener, konvexer und punktierter Kegel mit einem nichtleeren Inneren. Seien b, c R n und L R n ein linearer Unterraum. Das konische Optimierungsproblem lautet dann: Minimiere c T x, wobei x (b + L) K. Verallgemeinerung des linearen Optimierungsproblems: L = {x R n : Ax = 0}, b = x 0, wobei x 0 spezielle Lösung von Ax = b, K = R n +. Johannes Stemick () Innere-Punkt-Methoden / 28
80 LHSCB Definition Sei n N und K R n ein abgeschlossener, konvexer und punktierter Kegel mit nichtleerem Inneren. Eine ϑ-scb F für K heißt ϑ-logarithmisch homogen (kurz ϑ-lhscb), falls für jedes τ R + und für jedes x int K gilt F (τx) = F (x) ϑ log(τ). Johannes Stemick () Innere-Punkt-Methoden / 28
81 LHSCB Definition Sei n N und K R n ein abgeschlossener, konvexer und punktierter Kegel mit nichtleerem Inneren. Eine ϑ-scb F für K heißt ϑ-logarithmisch homogen (kurz ϑ-lhscb), falls für jedes τ R + und für jedes x int K gilt F (τx) = F (x) ϑ log(τ). Schön: LHSCB für dualen Kegel K gegeben über [ ] F (y) = y T x F (x). sup x int K Johannes Stemick () Innere-Punkt-Methoden / 28
82 Karmarkar-Verfahren Zu Grunde liegende Annahmen: Johannes Stemick () Innere-Punkt-Methoden / 28
83 Karmarkar-Verfahren Zu Grunde liegende Annahmen: Die Menge der Kandidaten für optimale Funktionswerte X := {x K : Ax = b} sei beschränkt. Johannes Stemick () Innere-Punkt-Methoden / 28
84 Karmarkar-Verfahren Zu Grunde liegende Annahmen: Die Menge der Kandidaten für optimale Funktionswerte X := {x K : Ax = b} sei beschränkt. Ein Startwert x, der im Inneren der Grundmenge liegt, sei gegeben. Johannes Stemick () Innere-Punkt-Methoden / 28
85 Karmarkar-Verfahren Zu Grunde liegende Annahmen: Die Menge der Kandidaten für optimale Funktionswerte X := {x K : Ax = b} sei beschränkt. Ein Startwert x, der im Inneren der Grundmenge liegt, sei gegeben. Der optimale Wert des Problems sei bekannt: c = 0. Johannes Stemick () Innere-Punkt-Methoden / 28
86 Karmarkar-Verfahren Zu Grunde liegende Annahmen: Die Menge der Kandidaten für optimale Funktionswerte X := {x K : Ax = b} sei beschränkt. Ein Startwert x, der im Inneren der Grundmenge liegt, sei gegeben. Der optimale Wert des Problems sei bekannt: c = 0. Der Kegel K besitze eine ϑ-lhscb F. Johannes Stemick () Innere-Punkt-Methoden / 28
87 Karmarkar-Verfahren Zu Grunde liegende Annahmen: Die Menge der Kandidaten für optimale Funktionswerte X := {x K : Ax = b} sei beschränkt. Ein Startwert x, der im Inneren der Grundmenge liegt, sei gegeben. Der optimale Wert des Problems sei bekannt: c = 0. Der Kegel K besitze eine ϑ-lhscb F. Ziel: Konstruiere eine Funktion φ(x), die ein direktes Maß für die Nähe von x zur Optimallösung x darstellt. Johannes Stemick () Innere-Punkt-Methoden / 28
88 Karmarkar-Verfahren Betrachte Problem der Form min{c T x : x L K, e T x = 1}, e R n Johannes Stemick () Innere-Punkt-Methoden / 28
89 Karmarkar-Verfahren Betrachte Problem der Form Definiere Karmarkar-Potential: min{c T x : x L K, e T x = 1}, e R n φ(x) := F ( x c T x ) = F (x) + ϑ log(ct x) Johannes Stemick () Innere-Punkt-Methoden / 28
90 Karmarkar-Verfahren Betrachte Problem der Form Definiere Karmarkar-Potential: min{c T x : x L K, e T x = 1}, e R n φ(x) := F ( x c T x ) = F (x) + ϑ log(ct x) Es gibt Transformationen p und p 1 zwischen den beiden Mengen X 0 := {x K : Ax = b} int K, Z 0 := Z int K, Johannes Stemick () Innere-Punkt-Methoden / 28
91 Karmarkar-Verfahren Betrachte Problem der Form Definiere Karmarkar-Potential: min{c T x : x L K, e T x = 1}, e R n φ(x) := F ( x c T x ) = F (x) + ϑ log(ct x) Es gibt Transformationen p und p 1 zwischen den beiden Mengen X 0 := {x K : Ax = b} int K, Z 0 := Z int K, wobei φ auf Z per Konstruktion nach unten unbeschränkt. Johannes Stemick () Innere-Punkt-Methoden / 28
92 Karmarkar-Verfahren Betrachte Problem der Form Definiere Karmarkar-Potential: min{c T x : x L K, e T x = 1}, e R n φ(x) := F ( x c T x ) = F (x) + ϑ log(ct x) Es gibt Transformationen p und p 1 zwischen den beiden Mengen X 0 := {x K : Ax = b} int K, Z 0 := Z int K, wobei φ auf Z per Konstruktion nach unten unbeschränkt. λ(φ, z) 1 z int Z. Johannes Stemick () Innere-Punkt-Methoden / 28
93 Karmarkar-Verfahren Betrachte Problem der Form Definiere Karmarkar-Potential: min{c T x : x L K, e T x = 1}, e R n φ(x) := F ( x c T x ) = F (x) + ϑ log(ct x) Es gibt Transformationen p und p 1 zwischen den beiden Mengen X 0 := {x K : Ax = b} int K, Z 0 := Z int K, wobei φ auf Z per Konstruktion nach unten unbeschränkt. λ(φ, z) 1 z int Z. Benutze gedämpftes Newton-Verfahren, um φ auf Z 0 gegen zu drücken. Johannes Stemick () Innere-Punkt-Methoden / 28
94 Karmarkar-Verfahren Satz Sei G die Einschränkung der ϑ-lhscb F auf Z. Dann reduziert das gedämpfte Newton-Verfahren auf X 0 x + : X 0 X 0, x p 1 (z + (p(x))), wobei z + einen Schritt des gedämpften Newton-Verfahrens bezüglich G und Z 0 darstellt, das Karmarkar-Potential φ(x) = G(p(x)) = G( x c T x ) = F (x) + ϑ log(ct x) in jedem Schritt um mindestens δ = 1 log(2). Weiter gilt für diese Folge (x k ) k N : ( c T x k = c T x k min x X ct x c T x exp ) F ( x) ˆF kδ. ϑ Johannes Stemick () Innere-Punkt-Methoden / 28
95 Zusammenfassung Lineare Optimierung: primales/duales Problem, Dualitätssatz Johannes Stemick () Innere-Punkt-Methoden / 28
96 Zusammenfassung Lineare Optimierung: primales/duales Problem, Dualitätssatz Path-following methods: Johannes Stemick () Innere-Punkt-Methoden / 28
97 Zusammenfassung Lineare Optimierung: primales/duales Problem, Dualitätssatz Path-following methods: Ersetze Nebenbedingung durch zusätzlichen Term F (x) (Barriere) Johannes Stemick () Innere-Punkt-Methoden / 28
98 Zusammenfassung Lineare Optimierung: primales/duales Problem, Dualitätssatz Path-following methods: Ersetze Nebenbedingung durch zusätzlichen Term F (x) (Barriere) Führe ein gedämpftes Newtonverfahren bezüglich speziellen Skalarprodukts durch Johannes Stemick () Innere-Punkt-Methoden / 28
99 Zusammenfassung Lineare Optimierung: primales/duales Problem, Dualitätssatz Path-following methods: Ersetze Nebenbedingung durch zusätzlichen Term F (x) (Barriere) Führe ein gedämpftes Newtonverfahren bezüglich speziellen Skalarprodukts durch Einfach zu implementieren, aber sehr langsam primal-duale Verfahren Johannes Stemick () Innere-Punkt-Methoden / 28
100 Zusammenfassung Lineare Optimierung: primales/duales Problem, Dualitätssatz Path-following methods: Ersetze Nebenbedingung durch zusätzlichen Term F (x) (Barriere) Führe ein gedämpftes Newtonverfahren bezüglich speziellen Skalarprodukts durch Einfach zu implementieren, aber sehr langsam primal-duale Verfahren Karmarkar-Verfahren: Johannes Stemick () Innere-Punkt-Methoden / 28
101 Zusammenfassung Lineare Optimierung: primales/duales Problem, Dualitätssatz Path-following methods: Ersetze Nebenbedingung durch zusätzlichen Term F (x) (Barriere) Führe ein gedämpftes Newtonverfahren bezüglich speziellen Skalarprodukts durch Einfach zu implementieren, aber sehr langsam primal-duale Verfahren Karmarkar-Verfahren: Konstruiere äquivalentes Problem auf unbeschränkter Menge Johannes Stemick () Innere-Punkt-Methoden / 28
102 Zusammenfassung Lineare Optimierung: primales/duales Problem, Dualitätssatz Path-following methods: Ersetze Nebenbedingung durch zusätzlichen Term F (x) (Barriere) Führe ein gedämpftes Newtonverfahren bezüglich speziellen Skalarprodukts durch Einfach zu implementieren, aber sehr langsam primal-duale Verfahren Karmarkar-Verfahren: Konstruiere äquivalentes Problem auf unbeschränkter Menge Laufe mittels des gedämpften Newtonverfahrens gegen Johannes Stemick () Innere-Punkt-Methoden / 28
103 Zusammenfassung Lineare Optimierung: primales/duales Problem, Dualitätssatz Path-following methods: Ersetze Nebenbedingung durch zusätzlichen Term F (x) (Barriere) Führe ein gedämpftes Newtonverfahren bezüglich speziellen Skalarprodukts durch Einfach zu implementieren, aber sehr langsam primal-duale Verfahren Karmarkar-Verfahren: Konstruiere äquivalentes Problem auf unbeschränkter Menge Laufe mittels des gedämpften Newtonverfahrens gegen LHSCB liefert ein direktes Maß für die Nähe zum Zielwert Johannes Stemick () Innere-Punkt-Methoden / 28
104 Zusammenfassung Lineare Optimierung: primales/duales Problem, Dualitätssatz Path-following methods: Ersetze Nebenbedingung durch zusätzlichen Term F (x) (Barriere) Führe ein gedämpftes Newtonverfahren bezüglich speziellen Skalarprodukts durch Einfach zu implementieren, aber sehr langsam primal-duale Verfahren Karmarkar-Verfahren: Konstruiere äquivalentes Problem auf unbeschränkter Menge Laufe mittels des gedämpften Newtonverfahrens gegen LHSCB liefert ein direktes Maß für die Nähe zum Zielwert Leicht verbesserbar (z.b. durch line-search), konvergiert deutlich schneller, als die Theorie suggeriert, aber starke Voraussetzungen an Problem Johannes Stemick () Innere-Punkt-Methoden / 28
105 Weiterführend Nicht behandelt: Johannes Stemick () Innere-Punkt-Methoden / 28
106 Weiterführend Nicht behandelt: Wie erhält man eine SCB? Gibt es immer eine SCB? Johannes Stemick () Innere-Punkt-Methoden / 28
107 Weiterführend Nicht behandelt: Wie erhält man eine SCB? Gibt es immer eine SCB? Ja, sofern wir auf einer abgeschlossenen, konvexen Menge arbeiten. Johannes Stemick () Innere-Punkt-Methoden / 28
108 Weiterführend Nicht behandelt: Wie erhält man eine SCB? Gibt es immer eine SCB? Ja, sofern wir auf einer abgeschlossenen, konvexen Menge arbeiten. Wie kann ein Startpunkt im Inneren der zulässigen Menge gefunden werden? Johannes Stemick () Innere-Punkt-Methoden / 28
109 Weiterführend Nicht behandelt: Wie erhält man eine SCB? Gibt es immer eine SCB? Ja, sofern wir auf einer abgeschlossenen, konvexen Menge arbeiten. Wie kann ein Startpunkt im Inneren der zulässigen Menge gefunden werden? Startpunktwahl ist ein Thema für sich Johannes Stemick () Innere-Punkt-Methoden / 28
110 Weiterführend Nicht behandelt: Wie erhält man eine SCB? Gibt es immer eine SCB? Ja, sofern wir auf einer abgeschlossenen, konvexen Menge arbeiten. Wie kann ein Startpunkt im Inneren der zulässigen Menge gefunden werden? Startpunktwahl ist ein Thema für sich Inwiefern verbessern primal-duale Algorithmen die Ergebnisse? Johannes Stemick () Innere-Punkt-Methoden / 28
111 Weiterführend Nicht behandelt: Wie erhält man eine SCB? Gibt es immer eine SCB? Ja, sofern wir auf einer abgeschlossenen, konvexen Menge arbeiten. Wie kann ein Startpunkt im Inneren der zulässigen Menge gefunden werden? Startpunktwahl ist ein Thema für sich Inwiefern verbessern primal-duale Algorithmen die Ergebnisse? Keine besseren worst-case bounds, aber erlauben agressivere Aktualisierungsschemata Johannes Stemick () Innere-Punkt-Methoden / 28
112 Weiterführend Nicht behandelt: Wie erhält man eine SCB? Gibt es immer eine SCB? Ja, sofern wir auf einer abgeschlossenen, konvexen Menge arbeiten. Wie kann ein Startpunkt im Inneren der zulässigen Menge gefunden werden? Startpunktwahl ist ein Thema für sich Inwiefern verbessern primal-duale Algorithmen die Ergebnisse? Keine besseren worst-case bounds, aber erlauben agressivere Aktualisierungsschemata Johannes Stemick () Innere-Punkt-Methoden / 28
Optimalitätskriterien
Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen
MehrTeil II. Nichtlineare Optimierung
Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene
MehrLineare Programmierung
Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den
Mehr9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83
9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x
MehrMathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz
Mathematik für Bioinformatik und Systembiologie - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz WS 2009/10 Universität Freiburg Dieses Vorlesungsskript ist auf der Basis von Vorlesungen
MehrOptimierung mit Matlab
Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof. Dr. L. Cromme Computerbasierte Mathematische Modellierung für Mathematiker, Wirtschaftsmathematiker, Informatiker im Wintersemester
MehrOptimierung. Florian Jarre Josef Stoer. Springer
2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Florian Jarre Josef Stoer Optimierung Springer Inhaltsverzeichnis
MehrMathematik 1 für Wirtschaftsinformatik
Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration
MehrNichtlineare Optimierung ohne Nebenbedingungen
Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt
MehrBestimmung einer ersten
Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,
MehrNichtlineare Optimierungsprobleme mit Komplexität
Definition eines Nichtlinearen Optimierungsproblemes (NLP) min f (x) bzw. min f (x) s.d. x S x S wobei die zulässige Menge S R n typischerweise definiert ist durch S {x R n : h(x) =, c(x) } für Gleichungs-
Mehr3. Grundlagen der Linearen Programmierung
3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations
MehrOptimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 7 Lineare Programmierung II 1 Lineare Programme Lineares Programm: Lineare Zielfunktion Lineare Nebenbedingungen (Gleichungen oder Ungleichungen) Spezialfall der konvexen Optimierung
MehrOptimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau
Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau Ziele: Einführung in richtige Einordnung von Optimierungsproblemen Modellierungstechniken praktische Umsetzung
MehrOPERATIONS-RESEARCH (OR)
OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:
MehrOptimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg
Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei
MehrTEILWEISE ASYNCHRONE ALGORITHMEN
TEILWEISE ASYNCHRONE ALGORITHMEN FRANK LANGBEIN Literatur: D. Berseas, J. Tsitsilis: Parallel and distributed computatoin, pp. 48 489 URI: http://www.langbein.org/research/parallel/ Modell teilweiser asynchroner
MehrInduktive Limiten. Arpad Pinter, Tobias Wöhrer. 30. Jänner 2010
Induktive Limiten Arpad Pinter, Tobias Wöhrer 30. Jänner 2010 1 Inhaltsverzeichnis 1 Induktiver Limes von Mengen 2 2 Induktiver Limes von Vektorräumen 4 3 Lokalkonvexe topologische Vektorräumen 7 4 Induktiver
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel
Mehr17. Penalty- und Barriere-Methoden
H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende
MehrSchranken für zulässige Lösungen
Schranken für zulässige Lösungen Satz 5.9 Gegeben seien primales und duales LP gemäß der asymmetrischen Form der Dualität. Wenn x eine zulässige Lösung des primalen Programms und u eine zulässige Lösung
MehrScheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É.
Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Tardos Janick Martinez Esturo jmartine@techfak.uni-bielefeld.de xx.08.2007 Sommerakademie Görlitz Arbeitsgruppe 5 Gliederung
MehrComputer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10
Computer Vision: AdaBoost D. Schlesinger () Computer Vision: AdaBoost 1 / 10 Idee Gegeben sei eine Menge schwacher (einfacher, schlechter) Klassifikatoren Man bilde einen guten durch eine geschickte Kombination
MehrOptimierung und Simulation ökonomischer Problemlagen privater Haushalte 2. Vorlesung
Optimierung und Simulation ökonomischer Problemlagen privater Haushalte 2. Vorlesung Rainer Hufnagel / Laura Wahrig 2006 Diese Woche LO - Rechnerische Lösung - Simplex- Algorithmus LO - Auswertung des
MehrOPTIMIERUNG I. Christian Clason. Fakultät für Mathematik Universität Duisburg-Essen
OPTIMIERUNG I Vorlesungsskript, Sommersemester 2014 Christian Clason Stand vom 1. Juli 2014 Fakultät für Mathematik Universität Duisburg-Essen INHALTSVERZEICHNIS I GRUNDLAGEN 1 theorie der linearen ungleichungen
MehrKommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler
Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Wintersemester 3/4 (.3.4). (a) Für z = + i und z = 3 4i berechne man z z und z z. Die Ergebnisse sind in kartesischer Form anzugeben.
MehrWirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2013/14 Hochschule Augsburg : Gliederung 1 Aussagenlogik 2 Lineare Algebra 3 Lineare Programme 4 Folgen
Mehr(Lineare) stochastische Optimierung
(Lineare) stochastische Optimierung Bsp: Aus zwei Sorten Rohöl wird Benzin und Heizöl erzeugt. Die Produktivität sowie der Mindestbedarf (pro Woche) und die Kosten sind in folgender Tabelle angegeben:
MehrMonte Carlo Methoden in Kreditrisiko-Management
Monte Carlo Methoden in Kreditrisiko-Management P Kreditportfolio bestehend aus m Krediten; Verlustfunktion L = n i=1 L i; Die Verluste L i sind unabhängig bedingt durch einen Vektor Z von ökonomischen
MehrLineare Programmierung. Beispiel: Wahlkampf. Beispiel: Wahlkampf. Mathematische Schreibweise. Lineares Programm. Datenstrukturen & Algorithmen
Datenstrukturen & Algorithmen Einführung Standard- und Schlupfformen Simplex Algorithmus Matthias Zwicker Universität Bern Frühling 2009 2 Beispiel: Wahlkampf Ziel: mit möglichst wenig Werbung eine gewisse
MehrExtremwertverteilungen
Seminar Statistik Institut für Stochastik 12. Februar 2009 Gliederung 1 Grenzwertwahrscheinlichkeiten 2 3 MDA Fréchet MDA Weibull MDA Gumbel 4 5 6 Darstellung von multivariaten, max-stabilen Verteilungsfunktionen
MehrVorlesung. Informationsökonomik und die Theorie der Firma
Vorlesung Informationsökonomik und die Theorie der Firma Ulrich Schwalbe Universität Hohenheim 5. Vorlesung 28.11.2007 Ulrich Schwalbe (Universität Hohenheim) Informationsökonomik 5. Vorlesung 28.11.2007
MehrTangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:
Tangentengleichung Wie Sie wissen, gibt die erste Ableitung einer Funktion deren Steigung an. Betrachtet man eine fest vorgegebene Stelle, gibt f ( ) also die Steigung der Kurve und somit auch die Steigung
MehrÜbungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009
Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.
MehrModulabschlussklausur Analysis II
Modulabschlussklausur Analysis II. Juli 015 Bearbeitungszeit: 150 min Aufgabe 1 [5/10 Punkte] Es sei a R und f a : R 3 R mit f a (x, y, z) = x cos(y) + z 3 sin(y) + a 3 + (z + ay a y) cos(x) a) Bestimmen
MehrLineare Optimierung. Vorlesung von Prof. Christiane Tammer Author : Georg Kuschk (Quelle : www.rikuti.de)
Lineare Optimierung Vorlesung von Prof Christiane Tammer Author : Georg Kuschk (Quelle : wwwrikutide) 11 August 2006 Inhaltsverzeichnis 1 Einleitung, Beispiele 2 2 Das allgemeine lineare Optimierungsproblem
MehrApproximationsalgorithmen
Ausarbeitung zum Thema Approximationsalgorithmen im Rahmen des Fachseminars 24. Juli 2009 Robert Bahmann robert.bahmann@gmail.com FH Wiesbaden Erstellt von: Robert Bahmann Zuletzt berarbeitet von: Robert
MehrEntscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?
Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum
MehrOuter Approximation für konvexe MINLP-Probleme
Outer Approximation für konvexe MINLP-Probleme im Rahmen des Sears Globale Optimierung unter Leitung von Dr. Johannes Schlöder und Dr. Ekaterina Kostina, Sommersemester 2005, Universität Heidelberg Hans
MehrVorlesung. Funktionen/Abbildungen 1
Vorlesung Funktionen/Abbildungen 1 1 Grundlagen Hinweis: In dieser Vorlesung werden Funktionen und Abbildungen synonym verwendet. In der Schule wird eine Funktion häufig als eindeutige Zuordnung definiert.
MehrMATTHIAS GERDTS. Einführung in die lineare und nichtlineare Optimierung
MATTHIAS GERDTS Einführung in die lineare und nichtlineare Optimierung Address of the Author: Matthias Gerdts Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Universität
MehrNumerische Verfahren zur Lösung nichtlinearer Gleichungen
Kapitel 2 Numerische Verfahren zur Lösung nichtlinearer Gleichungen 21 Aufgabenstellung und Motivation Ist f eine in einem abgeschlossenen Intervall I = [a, b] stetige und reellwertige Funktion, so heißt
MehrApproximationsalgorithmen: Klassiker I. Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling
Approximationsalgorithmen: Klassiker I Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling VO Approximationsalgorithmen WiSe 2011/12 Markus Chimani
MehrEinführung in die Optimierung Sommersemester 2005. Anita Schöbel
Einführung in die Optimierung Sommersemester 2005 Anita Schöbel 9. Juli 2010 Vorwort Das vorliegende Vorlesungsskript entstand aufgrund der Notizen der von mir im Sommersemester 2005 gehaltenen Vorlesung
Mehrx 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt
- 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +
MehrBeispiel 11.2. Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) =
Funktionentheorie, Woche Funktionen und Polstellen. Meromorphe Funktionen Definition.. Sei U C offen und sei f : U gilt, nennt man f meromorph auf U: Ĉ eine Funktion. Wenn folgendes. P := f hat keine Häufungspunkte;.
MehrOptimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz
Optimale Steuerung Kevin Sieg Fachbereich für Mathematik und Statistik Universität Konstanz 14. Juli 2010 1 / 29 Aufgabenstellung 1 Aufgabenstellung Aufgabenstellung 2 Die zusammengesetzte Trapezregel
Mehr4. Dynamische Optimierung
4. Dynamische Optimierung Allgemeine Form dynamischer Optimierungsprobleme 4. Dynamische Optimierung Die dynamische Optimierung (DO) betrachtet Entscheidungsprobleme als eine Folge voneinander abhängiger
MehrDie Komplexitätsklassen P und NP
Die Komplexitätsklassen P und NP Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 3. Dezember 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit und
MehrMatrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.
Matrizennorm Es seien r,s N Mit M r,s (R bezeichnen wir die Menge der reellen r s- Matrizen (also der linearen Abbildungen R s R r, und setze M s (R := M s,s (R (also die Menge der linearen Abbildungen
MehrTransformation und Darstellung funktionaler Daten
Transformation und Darstellung funktionaler Daten Seminar - Statistik funktionaler Daten Jakob Bossek Fakultät für Statistik 7. Mai 2012 Übersicht Einleitung Einordnung im Seminar Motivation am Beispiel
MehrElemente der Analysis II
Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel
Mehr0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )
Aufgabe 65. Ganz schön span(n)end. Gegeben sei folgende Menge M von 6 Vektoren v, v,..., v 6 R 4 aus Aufgabe P 6: M = v =, v =, v =, v 4 =, v 5 =, v 6 = Welche der folgenden Aussagen sind wahr? span(v,
MehrLiteratur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS)
Dominating Set 59 Literatur Dominating Set Grundlagen 60 Dominating Set (DS) M. V. Marathe, H. Breu, H.B. Hunt III, S. S. Ravi, and D. J. Rosenkrantz: Simple Heuristics for Unit Disk Graphs. Networks 25,
MehrEinführung in die Kodierungstheorie
Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht
MehrRekursionen (Teschl/Teschl 8.1-8.2)
Rekursionen (Teschl/Teschl 8.1-8.2) Eine Rekursion kter Ordnung für k N ist eine Folge x 1, x 2, x 3,... deniert durch eine Rekursionsvorschrift x n = f n (x n 1,..., x n k ) für n > k, d. h. jedes Folgenglied
MehrZielfunktion lineare Funktion Nebenbedingungen lineare Funktionen
be/ji/3(2) 2-1 2 im Kontext der OR-Optimierungsmodelle Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen Standardform: - Planungsziel min bzw. min Z(x) = c 1 x 1 + c 2 x 2 + + c n x n Z(x)
MehrBasis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.
Basis und Dimension Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Definition. Sei V ein K-Vektorraum und (v i ) i I eine Familie von Vektoren
Mehr( ) als den Punkt mit der gleichen x-koordinate wie A und der
ETH-Aufnahmeprüfung Herbst 05 Mathematik I (Analysis) Aufgabe [6 Punkte] Bestimmen Sie den Schnittwinkel α zwischen den Graphen der Funktionen f(x) x 4x + x + 5 und g(x) x x + 5 im Schnittpunkt mit der
MehrIntegrierte Umlauf- und Dienstplanung im ÖPNV
Integrierte Umlauf- und Dienstplanung im ÖPNV Frico 2007 Weíder Dres. Löbel, Borndörfer und GbR Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB) weider@zib.de http://www.zib.de/weider Planung im
MehrLineare und Ganzzahlige Optimierung
Lineare und Ganzzahlige Optimierung Tim Nieberg Research Institute for Discrete Mathematics University of Bonn Lennéstr. 2 D-53113 Bonn nieberg@or.uni-bonn.de This device is provided without warranty of
Mehr3.3 Eigenwerte und Eigenräume, Diagonalisierung
3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.
MehrDatenstrukturen & Algorithmen
Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Binäre Suchbäume Einführung und Begriffe Binäre Suchbäume 2 Binäre Suchbäume Datenstruktur für dynamische Mengen
MehrExtrema von Funktionen in zwei Variablen
Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen in zwei Variablen Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,
MehrIm Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b
Aufgabe 1: Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. (a) Nehmen Sie lineares Wachstum gemäß z(t) = at + b an, wobei z die Einwohnerzahl ist und
MehrComputer Vision: Optische Flüsse
Computer Vision: Optische Flüsse D. Schlesinger TUD/INF/KI/IS Bewegungsanalyse Optischer Fluss Lokale Verfahren (Lukas-Kanade) Globale Verfahren (Horn-Schunck) (+ kontinuierliche Ansätze: mathematische
MehrEinführung in die Lineare Optimierung
Kapitel 2 Einführung in die Lineare Optimierung lineare Modelle der relevanten Umwelt werden wegen ihrer Einfachheit häufig gegenüber nichtlinearen Ansätzen vorgezogen, lineare Optimierungsprobleme können
MehrAnalytische Methoden und die Black-Scholes Modelle
Analytische Methoden und die Black-Scholes Modelle Diplomverteidigung Universität Rostock Institut für Mathematik 20.01.2011 Agenda 1 Das Ornstein-Uhlenbeck Volatilitätsmodell 2 in L 2 (R 2 ) 3 4 Problem
MehrTheorien für die Darstellung von Unsicherheit Ein Vergleich der Wahrscheinlichkeits-, Möglichkeits- und Dempster-Shafer Theorie
Theorien für die Darstellung von Unsicherheit Ein Vergleich der Wahrscheinlichkeits-, Möglichkeits- und Dempster-Shafer Theorie Johannes Leitner Inhalt I Modellierung von Unschärfe Unscharfe Mengen Unscharfe
MehrCharakteristikenmethode im Beispiel
Charakteristikenmethode im Wir betrachten die PDE in drei Variablen xu x + yu y + (x + y )u z = 0. Das charakteristische System lautet dann ẋ = x ẏ = y ż = x + y und besitzt die allgemeine Lösung x(t)
MehrUNIVERSITÄT DORTMUND FACHBEREICH INFORMATIK
UNIVERSITÄT DORTMUND FACHBEREICH INFORMATIK Thomas Fober Experimentelle Analyse Evolutionärer Algorithmen auf dem CEC 2005 Testfunktionensatz Diplomarbeit 01.07.2006 I N T E R N E B E R I C H T E I N T
MehrBewertung von Forwards, Futures und Optionen
Bewertung von Forwards, Futures und Optionen Olaf Leidinger 24. Juni 2009 Olaf Leidinger Futures und Optionen 2 24. Juni 2009 1 / 19 Überblick 1 Kurze Wiederholung Anleihen, Terminkontrakte 2 Ein einfaches
MehrMATTHIAS GERDTS. Optimierung für Wirtschaftsinformatiker
MATTHIAS GERDTS Optimierung für Wirtschaftsinformatiker Address of the Author: Matthias Gerdts Schwerpunkt Optimierung und Approximation Department Mathematik Universität Hamburg D-2146 Hamburg E-Mail:
MehrInstitut für Geometrie und Praktische Mathematik Mathematisches Praktikum (MaPra) SS 2002. Aufgabe 7
Rheinisch Westfälische Technische Hochschule Institut für Geometrie und Praktische Mathematik Mathematisches Praktikum (MaPra) SS 2002 Prof. Dr. Wolfgang Dahmen Dr. Karl Heinz Brakhage Aufgabe 7 Bearbeitungszeit:
MehrHeuristiken im Kontext von Scheduling
Heuristiken im Kontext von Scheduling Expertenvortrag CoMa SS 09 CoMa SS 09 1/35 Übersicht Motivation Makespan Scheduling Lokale Suche Weitere Metaheuristiken Zusammenfassung Literatur CoMa SS 09 2/35
MehrEinführung in die Informatik I
Einführung in die Informatik I Algorithmen und deren Programmierung Prof. Dr. Nikolaus Wulff Definition Algorithmus Ein Algorithmus ist eine präzise formulierte Handlungsanweisung zur Lösung einer gleichartigen
MehrMathematik I für Wirtschaftswissenschaftler
1 Mathematik I für Wirtschaftswissenschaftler Lösungsvorschläge zur Klausur am 01.08.2003. Bitte unbedingt beachten: a) Verlangt und gewertet werden alle vier gestellten Aufgaben. Alle Aufgaben sind gleichwertig.
MehrMaximizing the Spread of Influence through a Social Network
1 / 26 Maximizing the Spread of Influence through a Social Network 19.06.2007 / Thomas Wener TU-Darmstadt Seminar aus Data und Web Mining bei Prof. Fürnkranz 2 / 26 Gliederung Einleitung 1 Einleitung 2
MehrKAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:
KAPITEL 4 Lineare Ausgleichsrechnung Beispiel 41 Das Ohmsche Gesetz: Eine Meßreihe von Daten: U = RI (U i, I i ) (Spannung, Stromstärke), i = 1,, m Aufgabe: man bestimme aus diesen Meßdaten den Widerstand
MehrInstitut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II. Aufgaben und Lösungen
Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II Aufgaben und Lösungen SS 2005 Aufgaben Aufgabe 41 Ein Betrieb stellt zwei Produkte P 1 und P 2 her, die die
MehrAbsolute Stetigkeit von Maßen
Absolute Stetigkeit von Maßen Definition. Seien µ und ν Maße auf (X, Ω). Dann heißt ν absolut stetig bezüglich µ (kurz ν µ ), wenn für alle A Ω mit µ(a) = 0 auch gilt dass ν(a) = 0. Lemma. Sei ν ein endliches
MehrAlgorithmen II Vorlesung am 15.11.2012
Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales
MehrEffiziente numerische Methoden in der Elasto-Plastizität
Karlsruhe Institute of Technology Effiziente numerische Methoden in der Elasto-Plastizität Christian Wieners Institut für Angewandte und Numerische Mathematik, Karlsruhe KIT University of the State of
MehrReelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 7. November 2013
Reelle Analysis Vorlesungsskript Enno Lenzmann, Universität Basel 7. November 2013 6 L p -Räume Mit Hilfe der Masstheorie können wir nun die sog. L p -Räume einführen. Diese Räume sind wichtig in vielen
MehrDas Briefträgerproblem
Das Briefträgerproblem Paul Tabatabai 30. Dezember 2011 Inhaltsverzeichnis 1 Problemstellung und Modellierung 2 1.1 Problem................................ 2 1.2 Modellierung.............................
Mehr34 5. FINANZMATHEMATIK
34 5. FINANZMATHEMATIK 5. Finanzmathematik 5.1. Ein einführendes Beispiel Betrachten wir eine ganz einfache Situation. Wir haben einen Markt, wo es nur erlaubt ist, heute und in einem Monat zu handeln.
Mehr1 Stochastische Prozesse in stetiger Zeit
1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.
MehrNP-Vollständigkeit. Krautgartner Martin (9920077) Markgraf Waldomir (9921041) Rattensberger Martin (9921846) Rieder Caroline (0020984)
NP-Vollständigkeit Krautgartner Martin (9920077) Markgraf Waldomir (9921041) Rattensberger Martin (9921846) Rieder Caroline (0020984) 0 Übersicht: Einleitung Einteilung in Klassen Die Klassen P und NP
MehrRealtime Human Body Tracking
Realtime Human Body Tracking Vortrag im Rahmen des Seminars Ausgewählte Themen zu Bildverstehen und Mustererkennung Lehrstuhl: Professor Dr. X. Jiang Referenten: Dipl.-Math. Kai Rothaus Dipl.-Inform. Steffen
MehrErgänzungen zur Analysis I
537. Ergänzungsstunde Logik, Mengen Ergänzungen zur Analysis I Die Behauptungen in Satz 0.2 über die Verknüpfung von Mengen werden auf die entsprechenden Regelnfür die Verknüpfung von Aussagen zurückgeführt.
MehrKapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete
Kapitel 4: Dynamische Datenstrukturen Algorithmen und Datenstrukturen WS 2012/13 Prof. Dr. Sándor Fekete 4.4 Binäre Suche Aufgabenstellung: Rate eine Zahl zwischen 100 und 114! Algorithmus 4.1 INPUT: OUTPUT:
MehrEinleitung. Das Ein-Perioden-Modell ist das einfachste. von derivaten Finanzinstrumenten (hier: Optionen) zu erklären.
Einleitung Das Ein-Perioden-Modell ist das einfachste Modell, um die Idee der Preisgebung von derivaten Finanzinstrumenten (hier: Optionen) zu erklären. naive Idee der Optionspreisbestimmung: Erwartungswertprinzip
MehrOptimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen
Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme Sei K ein Körper, a ij K für 1 i m, 1 j n. Weiters seien b 1,..., b m K. Dann heißt a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2... a m1
MehrAusgewählte Methoden der ganzzahligen Linearen Optimierung
Ausgewählte Methoden der ganzzahligen Linearen Optimierung Diplomarbeit zur Erlangung des akademischen Grades Magistra rerum naturalium eingereicht von Arntraud Bacher bei AUnivProf Dr Kurt Girstmair an
Mehr1 Einführung 2 1.1 Zwei Beispiele (MIN JOB SCHEDULING und MAXCUT)... 2 1.2 Notationen und Definitionen... 7 1.3 Übungsaufgaben...
Vorwort v I Approximative Algorithmen 1 1 Einführung 2 1.1 Zwei Beispiele (MIN JOB SCHEDULING und MAXCUT).... 2 1.2 Notationen und Definitionen... 7 1.3 Übungsaufgaben..... 18 2 DieKomplexitätsklassen
MehrDie Verbindung von Linearer Programmierung und Graphentheorie
Die Verbindung von Linearer Programmierung und Graphentheorie Definition 5.9. Ein kombinatorisches Optimierungsproblem entspricht einem LP, bei dem statt der Vorzeichenbedingungen x i 0 Bedingungen der
Mehr5.2 Das All-Pairs-Shortest-Paths-Problem (APSP-Problem) Kürzeste Wege zwischen allen Knoten. Eingabe: Gerichteter Graph G =(V, E, c)
5.2 Das All-Pairs-Shortest-Paths-Problem (APSP-Problem) Kürzeste Wege zwischen allen Knoten. Eingabe: Gerichteter Graph G =(V, E, c) mit V = {1,...,n} und E {(v, w) 1 apple v, w apple n, v 6= w}. c : E!
Mehr