Innere-Punkt-Methoden

Größe: px
Ab Seite anzeigen:

Download "Innere-Punkt-Methoden"

Transkript

1 Innere-Punkt-Methoden Johannes Stemick Johannes Stemick () Innere-Punkt-Methoden / 28

2 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction methods Johannes Stemick () Innere-Punkt-Methoden / 28

3 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction methods Johannes Stemick () Innere-Punkt-Methoden / 28

4 Lineares Optimierungsproblem Definition Gegeben seien m, n N, A R m n, b R m und c R n. Gesucht ist nun x R n so, dass min{c T x : Ax b, x 0} angenommen wird. Alternative Formulierung: Johannes Stemick () Innere-Punkt-Methoden / 28

5 Lineares Optimierungsproblem Definition Gegeben seien m, n N, A R m n, b R m und c R n. Gesucht ist nun x R n so, dass min{c T x : Ax b, x 0} angenommen wird. Alternative Formulierung: Minimiere c T x, wobei Ax = b, x 0 Dafür: Führe Vektor s = b Ax ein (Schlupfvariablen). Sei I die m m-einheitsmatrix. Neues System: ( ) ( ) x A I =: Ã x = b, x 0 s Johannes Stemick () Innere-Punkt-Methoden / 28

6 Duales Optimierungsproblem Zurück zum Bauernhof: ( 1 3 A = 1 0 ), x = ( S K ) ( 8, b = 4 ) ( 2, c = 4 ) { } max c T x : Ax b, x 0 Johannes Stemick () Innere-Punkt-Methoden / 28

7 Duales Optimierungsproblem Zurück zum Bauernhof: ( 1 3 A = 1 0 ), x = ( S K ) ( 8, b = 4 ) ( 2, c = 4 ) { } max c T x : Ax b, x 0 Nebenbedingungen sind: S + 3K 8 und S 4. Wir können c T x nach oben beschränken: Johannes Stemick () Innere-Punkt-Methoden / 28

8 Duales Optimierungsproblem Zurück zum Bauernhof: ( 1 3 A = 1 0 ), x = ( S K ) ( 8, b = 4 ) ( 2, c = 4 ) { } max c T x : Ax b, x 0 Nebenbedingungen sind: S + 3K 8 und S 4. Wir können c T x nach oben beschränken: c T x = 2S + 4K = 4 3 (S + 3K) S = Johannes Stemick () Innere-Punkt-Methoden / 28

9 Duales Optimierungsproblem Zurück zum Bauernhof: ( 1 3 A = 1 0 ), x = ( S K ) ( 8, b = 4 ) ( 2, c = 4 ) { } max c T x : Ax b, x 0 Nebenbedingungen sind: S + 3K 8 und S 4. Wir können c T x nach oben beschränken: c T x = 2S + 4K = 4 3 (S + 3K) S = Scharfe Abschätzung für den Optimalwert Johannes Stemick () Innere-Punkt-Methoden / 28

10 Duales Optimierungsproblem Zurück zum Bauernhof: ( 1 3 A = 1 0 ), x = ( S K ) ( 8, b = 4 ) ( 2, c = 4 ) { } max c T x : Ax b, x 0 Nebenbedingungen sind: S + 3K 8 und S 4. Wir können c T x nach oben beschränken: c T x = 2S + 4K = 4 3 (S + 3K) S = Scharfe Abschätzung für den Optimalwert Hier Glück gehabt. Johannes Stemick () Innere-Punkt-Methoden / 28

11 Duales Optimierungsproblem Können wir das Glück herausfordern? Johannes Stemick () Innere-Punkt-Methoden / 28

12 Duales Optimierungsproblem Können wir das Glück herausfordern? Idee: Schätze den Funktionalwert durch Linearkombination der Nebenbedingungen ab: c T x = 2S + 4K! Sy 1 + (S + 3K)y 2 = (y 1 + y 2 )S + (3y 2 )K 4y 1 + 8y 2 Johannes Stemick () Innere-Punkt-Methoden / 28

13 Duales Optimierungsproblem Können wir das Glück herausfordern? Idee: Schätze den Funktionalwert durch Linearkombination der Nebenbedingungen ab: c T x = 2S + 4K! Sy 1 + (S + 3K)y 2 = (y 1 + y 2 )S + (3y 2 )K 4y 1 + 8y 2 Koeffizientenvergleich liefert unter der Annahme y 1, y 2 0: y 1 + y 2 2 und 3y 2 4 ( ) Johannes Stemick () Innere-Punkt-Methoden / 28

14 Duales Optimierungsproblem Können wir das Glück herausfordern? Idee: Schätze den Funktionalwert durch Linearkombination der Nebenbedingungen ab: c T x = 2S + 4K! Sy 1 + (S + 3K)y 2 = (y 1 + y 2 )S + (3y 2 )K 4y 1 + 8y 2 Koeffizientenvergleich liefert unter der Annahme y 1, y 2 0: y 1 + y 2 2 und 3y 2 4 ( ) Damit können wir folgern: Johannes Stemick () Innere-Punkt-Methoden / 28

15 Duales Optimierungsproblem Können wir das Glück herausfordern? Idee: Schätze den Funktionalwert durch Linearkombination der Nebenbedingungen ab: c T x = 2S + 4K! Sy 1 + (S + 3K)y 2 = (y 1 + y 2 )S + (3y 2 )K 4y 1 + 8y 2 Koeffizientenvergleich liefert unter der Annahme y 1, y 2 0: y 1 + y 2 2 und 3y 2 4 ( ) Damit können wir folgern: max{c T x : Ax b, x 0} min{4y 1 + 8y 2 : ( ) gilt und y1, y2 0} Johannes Stemick () Innere-Punkt-Methoden / 28

16 Duales Optimierungsproblem Können wir das Glück herausfordern? Idee: Schätze den Funktionalwert durch Linearkombination der Nebenbedingungen ab: c T x = 2S + 4K! Sy 1 + (S + 3K)y 2 = (y 1 + y 2 )S + (3y 2 )K 4y 1 + 8y 2 Koeffizientenvergleich liefert unter der Annahme y 1, y 2 0: y 1 + y 2 2 und 3y 2 4 ( ) Damit können wir folgern: max{c T x : Ax b, x 0} min{4y 1 + 8y 2 : ( ) gilt und y1, y2 0} = min{b T y : A T y c, y 0} Johannes Stemick () Innere-Punkt-Methoden / 28

17 Dualitätssatz Wann ist die Abschätzung scharf, das heißt wann ist das duale Minimum identisch dem primalen Maximum? Johannes Stemick () Innere-Punkt-Methoden / 28

18 Dualitätssatz Wann ist die Abschätzung scharf, das heißt wann ist das duale Minimum identisch dem primalen Maximum? Satz Seien n, m N, A R m n, b R m und c R n. Dann haben die beiden linearen Optimierungsprobleme max c T x Ax b x 0 und min b T y A T y c y 0 genau dann identische Optima, wenn beide Probleme zulässige Lösungen besitzen, d.h. x R n mit Ax b und x 0 bzw. y R m mit A T y c und y 0. Johannes Stemick () Innere-Punkt-Methoden / 28

19 Simplex-Methode min{c T x : Ax b, x 0} Wir wissen: Eindeutiges Optimum wird in Ecke des Polyeders angenommen. Johannes Stemick () Innere-Punkt-Methoden / 28

20 Simplex-Methode min{c T x : Ax b, x 0} Wir wissen: Eindeutiges Optimum wird in Ecke des Polyeders angenommen. Idee der Simplex-Methode: Johannes Stemick () Innere-Punkt-Methoden / 28

21 Simplex-Methode min{c T x : Ax b, x 0} Wir wissen: Eindeutiges Optimum wird in Ecke des Polyeders angenommen. Idee der Simplex-Methode: 1 Starte bei einer Ecke Johannes Stemick () Innere-Punkt-Methoden / 28

22 Simplex-Methode min{c T x : Ax b, x 0} Wir wissen: Eindeutiges Optimum wird in Ecke des Polyeders angenommen. Idee der Simplex-Methode: 1 Starte bei einer Ecke 2 Suche eine angrenzende Kante, an der der Wert von c T x abnimmt Johannes Stemick () Innere-Punkt-Methoden / 28

23 Simplex-Methode min{c T x : Ax b, x 0} Wir wissen: Eindeutiges Optimum wird in Ecke des Polyeders angenommen. Idee der Simplex-Methode: 1 Starte bei einer Ecke 2 Suche eine angrenzende Kante, an der der Wert von c T x abnimmt 3 Gibt es keine solche Kante? Fertig, Optimallösung gefunden. Johannes Stemick () Innere-Punkt-Methoden / 28

24 Simplex-Methode min{c T x : Ax b, x 0} Wir wissen: Eindeutiges Optimum wird in Ecke des Polyeders angenommen. Idee der Simplex-Methode: 1 Starte bei einer Ecke 2 Suche eine angrenzende Kante, an der der Wert von c T x abnimmt 3 Gibt es keine solche Kante? Fertig, Optimallösung gefunden. 4 Ansonsten gehe zur neuen Ecke und starte bei 2). Johannes Stemick () Innere-Punkt-Methoden / 28

25 Simplex-Methode min{c T x : Ax b, x 0} Wir wissen: Eindeutiges Optimum wird in Ecke des Polyeders angenommen. Idee der Simplex-Methode: 1 Starte bei einer Ecke 2 Suche eine angrenzende Kante, an der der Wert von c T x abnimmt 3 Gibt es keine solche Kante? Fertig, Optimallösung gefunden. 4 Ansonsten gehe zur neuen Ecke und starte bei 2). Löst kleine bis mittlere Probleme sehr schnell. Kein polynomieller Algorithmus, in der Praxis meist linearer Aufwand zur Lösung. Johannes Stemick () Innere-Punkt-Methoden / 28

26 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction methods Johannes Stemick () Innere-Punkt-Methoden / 28

27 path-following methods Grundidee: Johannes Stemick () Innere-Punkt-Methoden / 28

28 path-following methods Grundidee: Ersetze Nebenbedingungen durch einen neuen konvexen Term F (x) in der Zielfunktion Johannes Stemick () Innere-Punkt-Methoden / 28

29 path-following methods Grundidee: Ersetze Nebenbedingungen durch einen neuen konvexen Term F (x) in der Zielfunktion Betrachte die neuen Probleme min{tc T x + F (x) : x R n } Johannes Stemick () Innere-Punkt-Methoden / 28

30 path-following methods Grundidee: Ersetze Nebenbedingungen durch einen neuen konvexen Term F (x) in der Zielfunktion Betrachte die neuen Probleme min{tc T x + F (x) : x R n } Löse diese Probleme für Folge t k Lösungsvektor x k konvergiert gegen Optimallösung von c T x Johannes Stemick () Innere-Punkt-Methoden / 28

31 path-following methods Grundidee: Ersetze Nebenbedingungen durch einen neuen konvexen Term F (x) in der Zielfunktion Betrachte die neuen Probleme min{tc T x + F (x) : x R n } Löse diese Probleme für Folge t k Lösungsvektor x k konvergiert gegen Optimallösung von c T x Forderung: x k+1 soll iterativ aus x k berechenbar sein Johannes Stemick () Innere-Punkt-Methoden / 28

32 path-following methods Grundidee: Fragen: Ersetze Nebenbedingungen durch einen neuen konvexen Term F (x) in der Zielfunktion Betrachte die neuen Probleme min{tc T x + F (x) : x R n } Löse diese Probleme für Folge t k Lösungsvektor x k konvergiert gegen Optimallösung von c T x Forderung: x k+1 soll iterativ aus x k berechenbar sein Welchen iterativen Löser? Johannes Stemick () Innere-Punkt-Methoden / 28

33 path-following methods Grundidee: Fragen: Ersetze Nebenbedingungen durch einen neuen konvexen Term F (x) in der Zielfunktion Betrachte die neuen Probleme min{tc T x + F (x) : x R n } Löse diese Probleme für Folge t k Lösungsvektor x k konvergiert gegen Optimallösung von c T x Forderung: x k+1 soll iterativ aus x k berechenbar sein Welchen iterativen Löser? Newton-Verfahren (quadratische Konvergenz) Johannes Stemick () Innere-Punkt-Methoden / 28

34 path-following methods Grundidee: Fragen: Ersetze Nebenbedingungen durch einen neuen konvexen Term F (x) in der Zielfunktion Betrachte die neuen Probleme min{tc T x + F (x) : x R n } Löse diese Probleme für Folge t k Lösungsvektor x k konvergiert gegen Optimallösung von c T x Forderung: x k+1 soll iterativ aus x k berechenbar sein Welchen iterativen Löser? Newton-Verfahren (quadratische Konvergenz) Wann ist t k+1 t k klein genug? Johannes Stemick () Innere-Punkt-Methoden / 28

35 path-following methods Grundidee: Fragen: Ersetze Nebenbedingungen durch einen neuen konvexen Term F (x) in der Zielfunktion Betrachte die neuen Probleme min{tc T x + F (x) : x R n } Löse diese Probleme für Folge t k Lösungsvektor x k konvergiert gegen Optimallösung von c T x Forderung: x k+1 soll iterativ aus x k berechenbar sein Welchen iterativen Löser? Newton-Verfahren (quadratische Konvergenz) Wann ist t k+1 t k klein genug? Wie sollte F gewählt werden? Johannes Stemick () Innere-Punkt-Methoden / 28

36 Self-concordance Eine strikt konvexe Funktion F, das heißt 2 F (x) > 0 für jedes x int X \{0}, definiert über u, v F,x = D 2 F (x)[u, v] := 2 F (x + tu + sv) s t = v T 2 F (x)u t=s=0 ein Skalarprodukt. Johannes Stemick () Innere-Punkt-Methoden / 28

37 Self-concordance Eine strikt konvexe Funktion F, das heißt 2 F (x) > 0 für jedes x int X \{0}, definiert über u, v F,x = D 2 F (x)[u, v] := 2 F (x + tu + sv) s t = v T 2 F (x)u t=s=0 ein Skalarprodukt. Idee: Untersuche Eigenschaften des Newton-Verfahrens bezüglich dieses Skalarprodukts! Definiere u F,x := u, u F,x. Johannes Stemick () Innere-Punkt-Methoden / 28

38 Self-concordance Definition Sei n N und X R n eine abgeschlossene konvexe Menge mit nichtleerem Inneren. Eine Funktion f : int X R heißt self-concordant (SC) auf X, wenn (i) f C 3 (int X ) gilt, f konvex ist und für x X gilt (ii) und f die Ungleichung lim f (x) = x x, x int X D 3 f (x)[h, h, h] 2 ( D 2 f (x)[h, h] ) 3/2 erfüllt. Barriere x int X h R n Johannes Stemick () Innere-Punkt-Methoden / 28

39 Self-concordance Definition Sei n N und X R n eine abgeschlossene konvexe Menge mit nichtleerem Inneren. Eine Funktion f : int X R heißt self-concordant (SC) auf X, wenn (i) f C 3 (int X ) gilt, f konvex ist und für x X gilt (ii) und f die Ungleichung lim f (x) = x x, x int X D 3 f (x)[h, h, h] 2 ( D 2 f (x)[h, h] ) 3/2 erfüllt. (ii) entspricht L-Stetigkeit bzgl f,x. Barriere x int X h R n Johannes Stemick () Innere-Punkt-Methoden / 28

40 Self-concordance Sei Q ein konvexes, nichtleeres Gebiet. Selbstkonkordante Funktionen f haben gutartige Eigenschaften: Johannes Stemick () Innere-Punkt-Methoden / 28

41 Self-concordance Sei Q ein konvexes, nichtleeres Gebiet. Selbstkonkordante Funktionen f haben gutartige Eigenschaften: Man kann zeigen: E f := {h R n : D 2 f (x)[h, h] = h f,x = 0} ist von x unabhängig. Weiter ist 2 f (x) s.p.d E f = {0}. Johannes Stemick () Innere-Punkt-Methoden / 28

42 Self-concordance Sei Q ein konvexes, nichtleeres Gebiet. Selbstkonkordante Funktionen f haben gutartige Eigenschaften: Man kann zeigen: E f := {h R n : D 2 f (x)[h, h] = h f,x = 0} ist von x unabhängig. Weiter ist 2 f (x) s.p.d E f = {0}. Für x Q ist der Dikin-Einheitsellipsoid {y Q : y x f,x 1} von f in Q enthalten. Johannes Stemick () Innere-Punkt-Methoden / 28

43 Self-concordance Sei Q ein konvexes, nichtleeres Gebiet. Selbstkonkordante Funktionen f haben gutartige Eigenschaften: Man kann zeigen: E f := {h R n : D 2 f (x)[h, h] = h f,x = 0} ist von x unabhängig. Weiter ist 2 f (x) s.p.d E f = {0}. Für x Q ist der Dikin-Einheitsellipsoid {y Q : y x f,x 1} von f in Q enthalten. Eine SC-Funktion f, für die E f = {0} gilt, heißt nichtentartet. Johannes Stemick () Innere-Punkt-Methoden / 28

44 Self-concordance Sei Q ein konvexes, nichtleeres Gebiet. Selbstkonkordante Funktionen f haben gutartige Eigenschaften: Man kann zeigen: E f := {h R n : D 2 f (x)[h, h] = h f,x = 0} ist von x unabhängig. Weiter ist 2 f (x) s.p.d E f = {0}. Für x Q ist der Dikin-Einheitsellipsoid {y Q : y x f,x 1} von f in Q enthalten. Eine SC-Funktion f, für die E f = {0} gilt, heißt nichtentartet. u f,x = u, u f,x ist eine Norm für jedes x Q! Johannes Stemick () Innere-Punkt-Methoden / 28

45 Gedämpftes Newton-Verfahren Sei f eine SC-Funktion. Definiere c f,x := c T [ 2 f (x)] 1 c. Das Newtondekrement ist definiert über λ(f, x) := max{df (x)[h] : h R n, h f,x 1} f (x) f,x. Johannes Stemick () Innere-Punkt-Methoden / 28

46 Gedämpftes Newton-Verfahren Sei f eine SC-Funktion. Definiere c f,x := c T [ 2 f (x)] 1 c. Das Newtondekrement ist definiert über λ(f, x) := max{df (x)[h] : h R n, h f,x 1} f (x) f,x. Maß für die Nähe von x Q zum Minimierer x f von f auf Q: } λ(f,x) x f x f,x 1 λ(f,x) für λ(f, x) < 1 x f x f,xf λ(f,x) 1 λ(f,x) Johannes Stemick () Innere-Punkt-Methoden / 28

47 Gedämpftes Newton-Verfahren Sei f nichtentartet. Johannes Stemick () Innere-Punkt-Methoden / 28

48 Gedämpftes Newton-Verfahren Sei f nichtentartet. λ(f, x) ist endlich für jedes x Q. Johannes Stemick () Innere-Punkt-Methoden / 28

49 Gedämpftes Newton-Verfahren Sei f nichtentartet. λ(f, x) ist endlich für jedes x Q. λ(f, ) ist stetig auf ganz Q. Johannes Stemick () Innere-Punkt-Methoden / 28

50 Gedämpftes Newton-Verfahren Sei f nichtentartet. λ(f, x) ist endlich für jedes x Q. λ(f, ) ist stetig auf ganz Q. λ(f, x) = 0 genau dann, wenn x der Minimierer von f auf Q ist. Johannes Stemick () Innere-Punkt-Methoden / 28

51 Gedämpftes Newton-Verfahren Sei f nichtentartet. λ(f, x) ist endlich für jedes x Q. λ(f, ) ist stetig auf ganz Q. λ(f, x) = 0 genau dann, wenn x der Minimierer von f auf Q ist. Das gedämpfte Newton-Verfahren wird nun definiert über x k+1 = x k λ(f, x k ) [ 2 f (x k )] 1 f (x k ) Johannes Stemick () Innere-Punkt-Methoden / 28

52 Gedämpftes Newton-Verfahren Sei f nichtentartet. λ(f, x) ist endlich für jedes x Q. λ(f, ) ist stetig auf ganz Q. λ(f, x) = 0 genau dann, wenn x der Minimierer von f auf Q ist. Das gedämpfte Newton-Verfahren wird nun definiert über x k+1 = x k λ(f, x k ) [ 2 f (x k )] 1 f (x k ) Für k N und x k int X gilt [ λ(f, x k+1 ) 2λ 2 (f, x k ) λ(f, x k ) < 1 4 λ(f, x k+1) 1 ] 2 λ(f, x k) Johannes Stemick () Innere-Punkt-Methoden / 28

53 Gedämpftes Newton-Verfahren Sei f nichtentartet. λ(f, x) ist endlich für jedes x Q. λ(f, ) ist stetig auf ganz Q. λ(f, x) = 0 genau dann, wenn x der Minimierer von f auf Q ist. Das gedämpfte Newton-Verfahren wird nun definiert über x k+1 = x k λ(f, x k ) [ 2 f (x k )] 1 f (x k ) Für k N und x k int X gilt [ λ(f, x k+1 ) 2λ 2 (f, x k ) λ(f, x k ) < 1 4 λ(f, x k+1) 1 ] 2 λ(f, x k) Die garantierte Minimierung pro Newton-Schritt ist f (x k ) f (x k+1 ) λ(f, x k ) log(1 + λ(f, x k )) Johannes Stemick () Innere-Punkt-Methoden / 28

54 Self-concordant barriers Benötigen noch mehr für Konvergenz der Inneren-Punkt-Methode: Johannes Stemick () Innere-Punkt-Methoden / 28

55 Self-concordant barriers Benötigen noch mehr für Konvergenz der Inneren-Punkt-Methode: Definition Sei X eine abgeschlossene, konvexe und nichtleere Menge. Für ϑ 1 heißt F eine ϑ-self-concordant barrier (ϑ-scb) für X, falls F self-concordant auf X ist und zusätzlich DF (x)[h] ϑ ( D 2 F (x)[h, h] ) 1/2 x int X h R n erfüllt. Johannes Stemick () Innere-Punkt-Methoden / 28

56 Self-concordant barriers Benötigen noch mehr für Konvergenz der Inneren-Punkt-Methode: Definition Sei X eine abgeschlossene, konvexe und nichtleere Menge. Für ϑ 1 heißt F eine ϑ-self-concordant barrier (ϑ-scb) für X, falls F self-concordant auf X ist und zusätzlich DF (x)[h] ϑ ( D 2 F (x)[h, h] ) 1/2 x int X h R n erfüllt. ϑ liefert später Fehlerabschätzung für die Methode Johannes Stemick () Innere-Punkt-Methoden / 28

57 Self-concordant barriers Benötigen noch mehr für Konvergenz der Inneren-Punkt-Methode: Definition Sei X eine abgeschlossene, konvexe und nichtleere Menge. Für ϑ 1 heißt F eine ϑ-self-concordant barrier (ϑ-scb) für X, falls F self-concordant auf X ist und zusätzlich DF (x)[h] ϑ ( D 2 F (x)[h, h] ) 1/2 x int X h R n erfüllt. ϑ liefert später Fehlerabschätzung für die Methode Für eine SCB F gilt: F auf X nach unten unbeschränkt λ(f, x) 1 x int X. Johannes Stemick () Innere-Punkt-Methoden / 28

58 Konvergenz der path-following-method Voraussetzungen für folgenden Satz: Johannes Stemick () Innere-Punkt-Methoden / 28

59 Konvergenz der path-following-method Voraussetzungen für folgenden Satz: X R n sei eine abgeschlossene, konvexe Menge mit nichtleerem Inneren. Johannes Stemick () Innere-Punkt-Methoden / 28

60 Konvergenz der path-following-method Voraussetzungen für folgenden Satz: X R n sei eine abgeschlossene, konvexe Menge mit nichtleerem Inneren. Weiter sei eine ϑ-scb F auf X gegeben. Johannes Stemick () Innere-Punkt-Methoden / 28

61 Konvergenz der path-following-method Voraussetzungen für folgenden Satz: X R n sei eine abgeschlossene, konvexe Menge mit nichtleerem Inneren. Weiter sei eine ϑ-scb F auf X gegeben. Die Mengen {x X : c T x α} seien beschränkt für jedes α R +. Johannes Stemick () Innere-Punkt-Methoden / 28

62 Konvergenz der path-following-method Voraussetzungen für folgenden Satz: X R n sei eine abgeschlossene, konvexe Menge mit nichtleerem Inneren. Weiter sei eine ϑ-scb F auf X gegeben. Die Mengen {x X : c T x α} seien beschränkt für jedes α R +. Wir betrachten nun das konvexe Problem min{c T x : x X }. Johannes Stemick () Innere-Punkt-Methoden / 28

63 Konvergenz der path-following-method Satz Gelten die erwähnten Voraussetzungen. Dann ist F nichtentartet, c T x nimmt sein Minimum auf X an und der zentrale Pfad x (t) := arg min x int X F t(x), F t (x) := tc T x + F (x), t > 0 ist wohldefiniert, alle Funktionen F t sind self-concordant auf X. Für den Fehler von c T x (t) zum Minimum von c T x auf X gilt ɛ(x (t)) := c T x (t) min x X ct x ϑ t. Falls weiterhin für t > 0 und x X die Ungleichung λ(f t, x) 1 2 gilt, dann ist ɛ(x) ϑ + ϑ. t Johannes Stemick () Innere-Punkt-Methoden / 28

64 Path-following method Weiterhin gelten die erwähnten Voraussetzungen. Gegeben: (t 0, x 0 ) R + int X mit λ(f t0, x 0 ) Johannes Stemick () Innere-Punkt-Methoden / 28

65 Path-following method Weiterhin gelten die erwähnten Voraussetzungen. Gegeben: (t 0, x 0 ) R + int X mit λ(f t0, x 0 ) Iteration: t k+1 = (t k, x k ) ( ϑ ) t k x k+1 = x k 1 1+λ(F tk+1,x k ) [ 2 F (x k ) ] 1 Ftk+1 (x k ) Johannes Stemick () Innere-Punkt-Methoden / 28

66 Path-following method Weiterhin gelten die erwähnten Voraussetzungen. Gegeben: (t 0, x 0 ) R + int X mit λ(f t0, x 0 ) Iteration: t k+1 = (t k, x k ) ( ϑ ) t k x k+1 = x k 1 1+λ(F tk+1,x k ) [ 2 F (x k ) ] 1 Ftk+1 (x k ) Wohldefiniert: Es gilt x k+1 int X und λ(f tk+1, x k+1 ) Johannes Stemick () Innere-Punkt-Methoden / 28

67 Path-following method Weiterhin gelten die erwähnten Voraussetzungen. Gegeben: (t 0, x 0 ) R + int X mit λ(f t0, x 0 ) Iteration: t k+1 = (t k, x k ) ( ϑ ) t k x k+1 = x k 1 1+λ(F tk+1,x k ) [ 2 F (x k ) ] 1 Ftk+1 (x k ) Wohldefiniert: Es gilt x k+1 int X und λ(f tk+1, x k+1 ) Für die Abweichung von c T x k zum Minimalwert von c T x gilt weiterhin für jedes k N die Abschätzung c T x k min x X ct x ϑ + ϑ ϑ + ϑ e k ϑ. t k t 0 Johannes Stemick () Innere-Punkt-Methoden / 28

68 potential reduction methods t k+1 = (t k, x k ) ( ϑ ) t k x k+1 = x k 1 1+λ(F tk+1,x k ) [ 2 F (x k ) ] 1 Ftk+1 (x k ) Johannes Stemick () Innere-Punkt-Methoden / 28

69 potential reduction methods t k+1 = (t k, x k ) ( ϑ ) t k x k+1 = x k 1 1+λ(F tk+1,x k ) [ 2 F (x k ) ] 1 Ftk+1 (x k ) Nachteile: ϑ sehr groß Zeitschritt sehr klein! Fehler kann sehr groß sein! Johannes Stemick () Innere-Punkt-Methoden / 28

70 potential reduction methods t k+1 = (t k, x k ) ( ϑ ) t k x k+1 = x k 1 1+λ(F tk+1,x k ) [ 2 F (x k ) ] 1 Ftk+1 (x k ) Nachteile: ϑ sehr groß Zeitschritt sehr klein! Fehler kann sehr groß sein! Abhilfe: Primal-dual path-following methods, die das duale Problem parallel lösen Johannes Stemick () Innere-Punkt-Methoden / 28

71 potential reduction methods t k+1 = (t k, x k ) ( ϑ ) t k x k+1 = x k 1 1+λ(F tk+1,x k ) [ 2 F (x k ) ] 1 Ftk+1 (x k ) Nachteile: ϑ sehr groß Zeitschritt sehr klein! Fehler kann sehr groß sein! Abhilfe: Primal-dual path-following methods, die das duale Problem parallel lösen komplex; SCB für duales Problem ist nicht sofort durch SCB des primalen gegeben (unschön). Johannes Stemick () Innere-Punkt-Methoden / 28

72 potential reduction methods t k+1 = (t k, x k ) ( ϑ ) t k x k+1 = x k 1 1+λ(F tk+1,x k ) [ 2 F (x k ) ] 1 Ftk+1 (x k ) Nachteile: ϑ sehr groß Zeitschritt sehr klein! Fehler kann sehr groß sein! Abhilfe: Primal-dual path-following methods, die das duale Problem parallel lösen komplex; SCB für duales Problem ist nicht sofort durch SCB des primalen gegeben (unschön). Andere Möglichkeit: Zweite große Klasse von Verfahren - potential reduction methods Johannes Stemick () Innere-Punkt-Methoden / 28

73 Konische Optimierung1 Konvexer Kegel Sei n N. Ein konvexer Kegel K R n ist eine nichtleere konvexe Menge, für die x K tx K t 0 gilt. Man nennt einen konvexen Kegel punktiert, falls er keine Geraden enthält. Johannes Stemick () Innere-Punkt-Methoden / 28

74 Konische Optimierung1 Konvexer Kegel Sei n N. Ein konvexer Kegel K R n ist eine nichtleere konvexe Menge, für die x K tx K t 0 gilt. Man nennt einen konvexen Kegel punktiert, falls er keine Geraden enthält. Dualer Kegel Der zu einem konvexen Kegel K R n duale Kegel ist gegeben durch K := {s R n : s T x 0 x K}. Johannes Stemick () Innere-Punkt-Methoden / 28

75 Konische Optimierung2 Konisches Optimierungsproblem Sei n N und K R n ein abgeschlossener, konvexer und punktierter Kegel mit einem nichtleeren Inneren. Seien b, c R n und L R n ein linearer Unterraum. Das konische Optimierungsproblem lautet dann: Minimiere c T x, wobei x (b + L) K. Johannes Stemick () Innere-Punkt-Methoden / 28

76 Konische Optimierung2 Konisches Optimierungsproblem Sei n N und K R n ein abgeschlossener, konvexer und punktierter Kegel mit einem nichtleeren Inneren. Seien b, c R n und L R n ein linearer Unterraum. Das konische Optimierungsproblem lautet dann: Minimiere c T x, wobei x (b + L) K. Verallgemeinerung des linearen Optimierungsproblems: Johannes Stemick () Innere-Punkt-Methoden / 28

77 Konische Optimierung2 Konisches Optimierungsproblem Sei n N und K R n ein abgeschlossener, konvexer und punktierter Kegel mit einem nichtleeren Inneren. Seien b, c R n und L R n ein linearer Unterraum. Das konische Optimierungsproblem lautet dann: Minimiere c T x, wobei x (b + L) K. Verallgemeinerung des linearen Optimierungsproblems: L = {x R n : Ax = 0}, Johannes Stemick () Innere-Punkt-Methoden / 28

78 Konische Optimierung2 Konisches Optimierungsproblem Sei n N und K R n ein abgeschlossener, konvexer und punktierter Kegel mit einem nichtleeren Inneren. Seien b, c R n und L R n ein linearer Unterraum. Das konische Optimierungsproblem lautet dann: Minimiere c T x, wobei x (b + L) K. Verallgemeinerung des linearen Optimierungsproblems: L = {x R n : Ax = 0}, b = x 0, wobei x 0 spezielle Lösung von Ax = b, Johannes Stemick () Innere-Punkt-Methoden / 28

79 Konische Optimierung2 Konisches Optimierungsproblem Sei n N und K R n ein abgeschlossener, konvexer und punktierter Kegel mit einem nichtleeren Inneren. Seien b, c R n und L R n ein linearer Unterraum. Das konische Optimierungsproblem lautet dann: Minimiere c T x, wobei x (b + L) K. Verallgemeinerung des linearen Optimierungsproblems: L = {x R n : Ax = 0}, b = x 0, wobei x 0 spezielle Lösung von Ax = b, K = R n +. Johannes Stemick () Innere-Punkt-Methoden / 28

80 LHSCB Definition Sei n N und K R n ein abgeschlossener, konvexer und punktierter Kegel mit nichtleerem Inneren. Eine ϑ-scb F für K heißt ϑ-logarithmisch homogen (kurz ϑ-lhscb), falls für jedes τ R + und für jedes x int K gilt F (τx) = F (x) ϑ log(τ). Johannes Stemick () Innere-Punkt-Methoden / 28

81 LHSCB Definition Sei n N und K R n ein abgeschlossener, konvexer und punktierter Kegel mit nichtleerem Inneren. Eine ϑ-scb F für K heißt ϑ-logarithmisch homogen (kurz ϑ-lhscb), falls für jedes τ R + und für jedes x int K gilt F (τx) = F (x) ϑ log(τ). Schön: LHSCB für dualen Kegel K gegeben über [ ] F (y) = y T x F (x). sup x int K Johannes Stemick () Innere-Punkt-Methoden / 28

82 Karmarkar-Verfahren Zu Grunde liegende Annahmen: Johannes Stemick () Innere-Punkt-Methoden / 28

83 Karmarkar-Verfahren Zu Grunde liegende Annahmen: Die Menge der Kandidaten für optimale Funktionswerte X := {x K : Ax = b} sei beschränkt. Johannes Stemick () Innere-Punkt-Methoden / 28

84 Karmarkar-Verfahren Zu Grunde liegende Annahmen: Die Menge der Kandidaten für optimale Funktionswerte X := {x K : Ax = b} sei beschränkt. Ein Startwert x, der im Inneren der Grundmenge liegt, sei gegeben. Johannes Stemick () Innere-Punkt-Methoden / 28

85 Karmarkar-Verfahren Zu Grunde liegende Annahmen: Die Menge der Kandidaten für optimale Funktionswerte X := {x K : Ax = b} sei beschränkt. Ein Startwert x, der im Inneren der Grundmenge liegt, sei gegeben. Der optimale Wert des Problems sei bekannt: c = 0. Johannes Stemick () Innere-Punkt-Methoden / 28

86 Karmarkar-Verfahren Zu Grunde liegende Annahmen: Die Menge der Kandidaten für optimale Funktionswerte X := {x K : Ax = b} sei beschränkt. Ein Startwert x, der im Inneren der Grundmenge liegt, sei gegeben. Der optimale Wert des Problems sei bekannt: c = 0. Der Kegel K besitze eine ϑ-lhscb F. Johannes Stemick () Innere-Punkt-Methoden / 28

87 Karmarkar-Verfahren Zu Grunde liegende Annahmen: Die Menge der Kandidaten für optimale Funktionswerte X := {x K : Ax = b} sei beschränkt. Ein Startwert x, der im Inneren der Grundmenge liegt, sei gegeben. Der optimale Wert des Problems sei bekannt: c = 0. Der Kegel K besitze eine ϑ-lhscb F. Ziel: Konstruiere eine Funktion φ(x), die ein direktes Maß für die Nähe von x zur Optimallösung x darstellt. Johannes Stemick () Innere-Punkt-Methoden / 28

88 Karmarkar-Verfahren Betrachte Problem der Form min{c T x : x L K, e T x = 1}, e R n Johannes Stemick () Innere-Punkt-Methoden / 28

89 Karmarkar-Verfahren Betrachte Problem der Form Definiere Karmarkar-Potential: min{c T x : x L K, e T x = 1}, e R n φ(x) := F ( x c T x ) = F (x) + ϑ log(ct x) Johannes Stemick () Innere-Punkt-Methoden / 28

90 Karmarkar-Verfahren Betrachte Problem der Form Definiere Karmarkar-Potential: min{c T x : x L K, e T x = 1}, e R n φ(x) := F ( x c T x ) = F (x) + ϑ log(ct x) Es gibt Transformationen p und p 1 zwischen den beiden Mengen X 0 := {x K : Ax = b} int K, Z 0 := Z int K, Johannes Stemick () Innere-Punkt-Methoden / 28

91 Karmarkar-Verfahren Betrachte Problem der Form Definiere Karmarkar-Potential: min{c T x : x L K, e T x = 1}, e R n φ(x) := F ( x c T x ) = F (x) + ϑ log(ct x) Es gibt Transformationen p und p 1 zwischen den beiden Mengen X 0 := {x K : Ax = b} int K, Z 0 := Z int K, wobei φ auf Z per Konstruktion nach unten unbeschränkt. Johannes Stemick () Innere-Punkt-Methoden / 28

92 Karmarkar-Verfahren Betrachte Problem der Form Definiere Karmarkar-Potential: min{c T x : x L K, e T x = 1}, e R n φ(x) := F ( x c T x ) = F (x) + ϑ log(ct x) Es gibt Transformationen p und p 1 zwischen den beiden Mengen X 0 := {x K : Ax = b} int K, Z 0 := Z int K, wobei φ auf Z per Konstruktion nach unten unbeschränkt. λ(φ, z) 1 z int Z. Johannes Stemick () Innere-Punkt-Methoden / 28

93 Karmarkar-Verfahren Betrachte Problem der Form Definiere Karmarkar-Potential: min{c T x : x L K, e T x = 1}, e R n φ(x) := F ( x c T x ) = F (x) + ϑ log(ct x) Es gibt Transformationen p und p 1 zwischen den beiden Mengen X 0 := {x K : Ax = b} int K, Z 0 := Z int K, wobei φ auf Z per Konstruktion nach unten unbeschränkt. λ(φ, z) 1 z int Z. Benutze gedämpftes Newton-Verfahren, um φ auf Z 0 gegen zu drücken. Johannes Stemick () Innere-Punkt-Methoden / 28

94 Karmarkar-Verfahren Satz Sei G die Einschränkung der ϑ-lhscb F auf Z. Dann reduziert das gedämpfte Newton-Verfahren auf X 0 x + : X 0 X 0, x p 1 (z + (p(x))), wobei z + einen Schritt des gedämpften Newton-Verfahrens bezüglich G und Z 0 darstellt, das Karmarkar-Potential φ(x) = G(p(x)) = G( x c T x ) = F (x) + ϑ log(ct x) in jedem Schritt um mindestens δ = 1 log(2). Weiter gilt für diese Folge (x k ) k N : ( c T x k = c T x k min x X ct x c T x exp ) F ( x) ˆF kδ. ϑ Johannes Stemick () Innere-Punkt-Methoden / 28

95 Zusammenfassung Lineare Optimierung: primales/duales Problem, Dualitätssatz Johannes Stemick () Innere-Punkt-Methoden / 28

96 Zusammenfassung Lineare Optimierung: primales/duales Problem, Dualitätssatz Path-following methods: Johannes Stemick () Innere-Punkt-Methoden / 28

97 Zusammenfassung Lineare Optimierung: primales/duales Problem, Dualitätssatz Path-following methods: Ersetze Nebenbedingung durch zusätzlichen Term F (x) (Barriere) Johannes Stemick () Innere-Punkt-Methoden / 28

98 Zusammenfassung Lineare Optimierung: primales/duales Problem, Dualitätssatz Path-following methods: Ersetze Nebenbedingung durch zusätzlichen Term F (x) (Barriere) Führe ein gedämpftes Newtonverfahren bezüglich speziellen Skalarprodukts durch Johannes Stemick () Innere-Punkt-Methoden / 28

99 Zusammenfassung Lineare Optimierung: primales/duales Problem, Dualitätssatz Path-following methods: Ersetze Nebenbedingung durch zusätzlichen Term F (x) (Barriere) Führe ein gedämpftes Newtonverfahren bezüglich speziellen Skalarprodukts durch Einfach zu implementieren, aber sehr langsam primal-duale Verfahren Johannes Stemick () Innere-Punkt-Methoden / 28

100 Zusammenfassung Lineare Optimierung: primales/duales Problem, Dualitätssatz Path-following methods: Ersetze Nebenbedingung durch zusätzlichen Term F (x) (Barriere) Führe ein gedämpftes Newtonverfahren bezüglich speziellen Skalarprodukts durch Einfach zu implementieren, aber sehr langsam primal-duale Verfahren Karmarkar-Verfahren: Johannes Stemick () Innere-Punkt-Methoden / 28

101 Zusammenfassung Lineare Optimierung: primales/duales Problem, Dualitätssatz Path-following methods: Ersetze Nebenbedingung durch zusätzlichen Term F (x) (Barriere) Führe ein gedämpftes Newtonverfahren bezüglich speziellen Skalarprodukts durch Einfach zu implementieren, aber sehr langsam primal-duale Verfahren Karmarkar-Verfahren: Konstruiere äquivalentes Problem auf unbeschränkter Menge Johannes Stemick () Innere-Punkt-Methoden / 28

102 Zusammenfassung Lineare Optimierung: primales/duales Problem, Dualitätssatz Path-following methods: Ersetze Nebenbedingung durch zusätzlichen Term F (x) (Barriere) Führe ein gedämpftes Newtonverfahren bezüglich speziellen Skalarprodukts durch Einfach zu implementieren, aber sehr langsam primal-duale Verfahren Karmarkar-Verfahren: Konstruiere äquivalentes Problem auf unbeschränkter Menge Laufe mittels des gedämpften Newtonverfahrens gegen Johannes Stemick () Innere-Punkt-Methoden / 28

103 Zusammenfassung Lineare Optimierung: primales/duales Problem, Dualitätssatz Path-following methods: Ersetze Nebenbedingung durch zusätzlichen Term F (x) (Barriere) Führe ein gedämpftes Newtonverfahren bezüglich speziellen Skalarprodukts durch Einfach zu implementieren, aber sehr langsam primal-duale Verfahren Karmarkar-Verfahren: Konstruiere äquivalentes Problem auf unbeschränkter Menge Laufe mittels des gedämpften Newtonverfahrens gegen LHSCB liefert ein direktes Maß für die Nähe zum Zielwert Johannes Stemick () Innere-Punkt-Methoden / 28

104 Zusammenfassung Lineare Optimierung: primales/duales Problem, Dualitätssatz Path-following methods: Ersetze Nebenbedingung durch zusätzlichen Term F (x) (Barriere) Führe ein gedämpftes Newtonverfahren bezüglich speziellen Skalarprodukts durch Einfach zu implementieren, aber sehr langsam primal-duale Verfahren Karmarkar-Verfahren: Konstruiere äquivalentes Problem auf unbeschränkter Menge Laufe mittels des gedämpften Newtonverfahrens gegen LHSCB liefert ein direktes Maß für die Nähe zum Zielwert Leicht verbesserbar (z.b. durch line-search), konvergiert deutlich schneller, als die Theorie suggeriert, aber starke Voraussetzungen an Problem Johannes Stemick () Innere-Punkt-Methoden / 28

105 Weiterführend Nicht behandelt: Johannes Stemick () Innere-Punkt-Methoden / 28

106 Weiterführend Nicht behandelt: Wie erhält man eine SCB? Gibt es immer eine SCB? Johannes Stemick () Innere-Punkt-Methoden / 28

107 Weiterführend Nicht behandelt: Wie erhält man eine SCB? Gibt es immer eine SCB? Ja, sofern wir auf einer abgeschlossenen, konvexen Menge arbeiten. Johannes Stemick () Innere-Punkt-Methoden / 28

108 Weiterführend Nicht behandelt: Wie erhält man eine SCB? Gibt es immer eine SCB? Ja, sofern wir auf einer abgeschlossenen, konvexen Menge arbeiten. Wie kann ein Startpunkt im Inneren der zulässigen Menge gefunden werden? Johannes Stemick () Innere-Punkt-Methoden / 28

109 Weiterführend Nicht behandelt: Wie erhält man eine SCB? Gibt es immer eine SCB? Ja, sofern wir auf einer abgeschlossenen, konvexen Menge arbeiten. Wie kann ein Startpunkt im Inneren der zulässigen Menge gefunden werden? Startpunktwahl ist ein Thema für sich Johannes Stemick () Innere-Punkt-Methoden / 28

110 Weiterführend Nicht behandelt: Wie erhält man eine SCB? Gibt es immer eine SCB? Ja, sofern wir auf einer abgeschlossenen, konvexen Menge arbeiten. Wie kann ein Startpunkt im Inneren der zulässigen Menge gefunden werden? Startpunktwahl ist ein Thema für sich Inwiefern verbessern primal-duale Algorithmen die Ergebnisse? Johannes Stemick () Innere-Punkt-Methoden / 28

111 Weiterführend Nicht behandelt: Wie erhält man eine SCB? Gibt es immer eine SCB? Ja, sofern wir auf einer abgeschlossenen, konvexen Menge arbeiten. Wie kann ein Startpunkt im Inneren der zulässigen Menge gefunden werden? Startpunktwahl ist ein Thema für sich Inwiefern verbessern primal-duale Algorithmen die Ergebnisse? Keine besseren worst-case bounds, aber erlauben agressivere Aktualisierungsschemata Johannes Stemick () Innere-Punkt-Methoden / 28

112 Weiterführend Nicht behandelt: Wie erhält man eine SCB? Gibt es immer eine SCB? Ja, sofern wir auf einer abgeschlossenen, konvexen Menge arbeiten. Wie kann ein Startpunkt im Inneren der zulässigen Menge gefunden werden? Startpunktwahl ist ein Thema für sich Inwiefern verbessern primal-duale Algorithmen die Ergebnisse? Keine besseren worst-case bounds, aber erlauben agressivere Aktualisierungsschemata Johannes Stemick () Innere-Punkt-Methoden / 28

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

Lineare Programmierung

Lineare Programmierung Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz Mathematik für Bioinformatik und Systembiologie - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz WS 2009/10 Universität Freiburg Dieses Vorlesungsskript ist auf der Basis von Vorlesungen

Mehr

Optimierung mit Matlab

Optimierung mit Matlab Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof. Dr. L. Cromme Computerbasierte Mathematische Modellierung für Mathematiker, Wirtschaftsmathematiker, Informatiker im Wintersemester

Mehr

Optimierung. Florian Jarre Josef Stoer. Springer

Optimierung. Florian Jarre Josef Stoer. Springer 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Florian Jarre Josef Stoer Optimierung Springer Inhaltsverzeichnis

Mehr

Mathematik 1 für Wirtschaftsinformatik

Mathematik 1 für Wirtschaftsinformatik Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Nichtlineare Optimierungsprobleme mit Komplexität

Nichtlineare Optimierungsprobleme mit Komplexität Definition eines Nichtlinearen Optimierungsproblemes (NLP) min f (x) bzw. min f (x) s.d. x S x S wobei die zulässige Menge S R n typischerweise definiert ist durch S {x R n : h(x) =, c(x) } für Gleichungs-

Mehr

3. Grundlagen der Linearen Programmierung

3. Grundlagen der Linearen Programmierung 3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations

Mehr

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 7 Lineare Programmierung II 1 Lineare Programme Lineares Programm: Lineare Zielfunktion Lineare Nebenbedingungen (Gleichungen oder Ungleichungen) Spezialfall der konvexen Optimierung

Mehr

Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau

Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau Ziele: Einführung in richtige Einordnung von Optimierungsproblemen Modellierungstechniken praktische Umsetzung

Mehr

OPERATIONS-RESEARCH (OR)

OPERATIONS-RESEARCH (OR) OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:

Mehr

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei

Mehr

TEILWEISE ASYNCHRONE ALGORITHMEN

TEILWEISE ASYNCHRONE ALGORITHMEN TEILWEISE ASYNCHRONE ALGORITHMEN FRANK LANGBEIN Literatur: D. Berseas, J. Tsitsilis: Parallel and distributed computatoin, pp. 48 489 URI: http://www.langbein.org/research/parallel/ Modell teilweiser asynchroner

Mehr

Induktive Limiten. Arpad Pinter, Tobias Wöhrer. 30. Jänner 2010

Induktive Limiten. Arpad Pinter, Tobias Wöhrer. 30. Jänner 2010 Induktive Limiten Arpad Pinter, Tobias Wöhrer 30. Jänner 2010 1 Inhaltsverzeichnis 1 Induktiver Limes von Mengen 2 2 Induktiver Limes von Vektorräumen 4 3 Lokalkonvexe topologische Vektorräumen 7 4 Induktiver

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel

Mehr

17. Penalty- und Barriere-Methoden

17. Penalty- und Barriere-Methoden H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende

Mehr

Schranken für zulässige Lösungen

Schranken für zulässige Lösungen Schranken für zulässige Lösungen Satz 5.9 Gegeben seien primales und duales LP gemäß der asymmetrischen Form der Dualität. Wenn x eine zulässige Lösung des primalen Programms und u eine zulässige Lösung

Mehr

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É.

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Tardos Janick Martinez Esturo jmartine@techfak.uni-bielefeld.de xx.08.2007 Sommerakademie Görlitz Arbeitsgruppe 5 Gliederung

Mehr

Computer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10

Computer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10 Computer Vision: AdaBoost D. Schlesinger () Computer Vision: AdaBoost 1 / 10 Idee Gegeben sei eine Menge schwacher (einfacher, schlechter) Klassifikatoren Man bilde einen guten durch eine geschickte Kombination

Mehr

Optimierung und Simulation ökonomischer Problemlagen privater Haushalte 2. Vorlesung

Optimierung und Simulation ökonomischer Problemlagen privater Haushalte 2. Vorlesung Optimierung und Simulation ökonomischer Problemlagen privater Haushalte 2. Vorlesung Rainer Hufnagel / Laura Wahrig 2006 Diese Woche LO - Rechnerische Lösung - Simplex- Algorithmus LO - Auswertung des

Mehr

OPTIMIERUNG I. Christian Clason. Fakultät für Mathematik Universität Duisburg-Essen

OPTIMIERUNG I. Christian Clason. Fakultät für Mathematik Universität Duisburg-Essen OPTIMIERUNG I Vorlesungsskript, Sommersemester 2014 Christian Clason Stand vom 1. Juli 2014 Fakultät für Mathematik Universität Duisburg-Essen INHALTSVERZEICHNIS I GRUNDLAGEN 1 theorie der linearen ungleichungen

Mehr

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Wintersemester 3/4 (.3.4). (a) Für z = + i und z = 3 4i berechne man z z und z z. Die Ergebnisse sind in kartesischer Form anzugeben.

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2013/14 Hochschule Augsburg : Gliederung 1 Aussagenlogik 2 Lineare Algebra 3 Lineare Programme 4 Folgen

Mehr

(Lineare) stochastische Optimierung

(Lineare) stochastische Optimierung (Lineare) stochastische Optimierung Bsp: Aus zwei Sorten Rohöl wird Benzin und Heizöl erzeugt. Die Produktivität sowie der Mindestbedarf (pro Woche) und die Kosten sind in folgender Tabelle angegeben:

Mehr

Monte Carlo Methoden in Kreditrisiko-Management

Monte Carlo Methoden in Kreditrisiko-Management Monte Carlo Methoden in Kreditrisiko-Management P Kreditportfolio bestehend aus m Krediten; Verlustfunktion L = n i=1 L i; Die Verluste L i sind unabhängig bedingt durch einen Vektor Z von ökonomischen

Mehr

Lineare Programmierung. Beispiel: Wahlkampf. Beispiel: Wahlkampf. Mathematische Schreibweise. Lineares Programm. Datenstrukturen & Algorithmen

Lineare Programmierung. Beispiel: Wahlkampf. Beispiel: Wahlkampf. Mathematische Schreibweise. Lineares Programm. Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Einführung Standard- und Schlupfformen Simplex Algorithmus Matthias Zwicker Universität Bern Frühling 2009 2 Beispiel: Wahlkampf Ziel: mit möglichst wenig Werbung eine gewisse

Mehr

Extremwertverteilungen

Extremwertverteilungen Seminar Statistik Institut für Stochastik 12. Februar 2009 Gliederung 1 Grenzwertwahrscheinlichkeiten 2 3 MDA Fréchet MDA Weibull MDA Gumbel 4 5 6 Darstellung von multivariaten, max-stabilen Verteilungsfunktionen

Mehr

Vorlesung. Informationsökonomik und die Theorie der Firma

Vorlesung. Informationsökonomik und die Theorie der Firma Vorlesung Informationsökonomik und die Theorie der Firma Ulrich Schwalbe Universität Hohenheim 5. Vorlesung 28.11.2007 Ulrich Schwalbe (Universität Hohenheim) Informationsökonomik 5. Vorlesung 28.11.2007

Mehr

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort: Tangentengleichung Wie Sie wissen, gibt die erste Ableitung einer Funktion deren Steigung an. Betrachtet man eine fest vorgegebene Stelle, gibt f ( ) also die Steigung der Kurve und somit auch die Steigung

Mehr

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.

Mehr

Modulabschlussklausur Analysis II

Modulabschlussklausur Analysis II Modulabschlussklausur Analysis II. Juli 015 Bearbeitungszeit: 150 min Aufgabe 1 [5/10 Punkte] Es sei a R und f a : R 3 R mit f a (x, y, z) = x cos(y) + z 3 sin(y) + a 3 + (z + ay a y) cos(x) a) Bestimmen

Mehr

Lineare Optimierung. Vorlesung von Prof. Christiane Tammer Author : Georg Kuschk (Quelle : www.rikuti.de)

Lineare Optimierung. Vorlesung von Prof. Christiane Tammer Author : Georg Kuschk (Quelle : www.rikuti.de) Lineare Optimierung Vorlesung von Prof Christiane Tammer Author : Georg Kuschk (Quelle : wwwrikutide) 11 August 2006 Inhaltsverzeichnis 1 Einleitung, Beispiele 2 2 Das allgemeine lineare Optimierungsproblem

Mehr

Approximationsalgorithmen

Approximationsalgorithmen Ausarbeitung zum Thema Approximationsalgorithmen im Rahmen des Fachseminars 24. Juli 2009 Robert Bahmann robert.bahmann@gmail.com FH Wiesbaden Erstellt von: Robert Bahmann Zuletzt berarbeitet von: Robert

Mehr

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum

Mehr

Outer Approximation für konvexe MINLP-Probleme

Outer Approximation für konvexe MINLP-Probleme Outer Approximation für konvexe MINLP-Probleme im Rahmen des Sears Globale Optimierung unter Leitung von Dr. Johannes Schlöder und Dr. Ekaterina Kostina, Sommersemester 2005, Universität Heidelberg Hans

Mehr

Vorlesung. Funktionen/Abbildungen 1

Vorlesung. Funktionen/Abbildungen 1 Vorlesung Funktionen/Abbildungen 1 1 Grundlagen Hinweis: In dieser Vorlesung werden Funktionen und Abbildungen synonym verwendet. In der Schule wird eine Funktion häufig als eindeutige Zuordnung definiert.

Mehr

MATTHIAS GERDTS. Einführung in die lineare und nichtlineare Optimierung

MATTHIAS GERDTS. Einführung in die lineare und nichtlineare Optimierung MATTHIAS GERDTS Einführung in die lineare und nichtlineare Optimierung Address of the Author: Matthias Gerdts Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Universität

Mehr

Numerische Verfahren zur Lösung nichtlinearer Gleichungen

Numerische Verfahren zur Lösung nichtlinearer Gleichungen Kapitel 2 Numerische Verfahren zur Lösung nichtlinearer Gleichungen 21 Aufgabenstellung und Motivation Ist f eine in einem abgeschlossenen Intervall I = [a, b] stetige und reellwertige Funktion, so heißt

Mehr

Approximationsalgorithmen: Klassiker I. Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling

Approximationsalgorithmen: Klassiker I. Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling Approximationsalgorithmen: Klassiker I Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling VO Approximationsalgorithmen WiSe 2011/12 Markus Chimani

Mehr

Einführung in die Optimierung Sommersemester 2005. Anita Schöbel

Einführung in die Optimierung Sommersemester 2005. Anita Schöbel Einführung in die Optimierung Sommersemester 2005 Anita Schöbel 9. Juli 2010 Vorwort Das vorliegende Vorlesungsskript entstand aufgrund der Notizen der von mir im Sommersemester 2005 gehaltenen Vorlesung

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

Beispiel 11.2. Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) =

Beispiel 11.2. Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) = Funktionentheorie, Woche Funktionen und Polstellen. Meromorphe Funktionen Definition.. Sei U C offen und sei f : U gilt, nennt man f meromorph auf U: Ĉ eine Funktion. Wenn folgendes. P := f hat keine Häufungspunkte;.

Mehr

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz Optimale Steuerung Kevin Sieg Fachbereich für Mathematik und Statistik Universität Konstanz 14. Juli 2010 1 / 29 Aufgabenstellung 1 Aufgabenstellung Aufgabenstellung 2 Die zusammengesetzte Trapezregel

Mehr

4. Dynamische Optimierung

4. Dynamische Optimierung 4. Dynamische Optimierung Allgemeine Form dynamischer Optimierungsprobleme 4. Dynamische Optimierung Die dynamische Optimierung (DO) betrachtet Entscheidungsprobleme als eine Folge voneinander abhängiger

Mehr

Die Komplexitätsklassen P und NP

Die Komplexitätsklassen P und NP Die Komplexitätsklassen P und NP Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 3. Dezember 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit und

Mehr

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist. Matrizennorm Es seien r,s N Mit M r,s (R bezeichnen wir die Menge der reellen r s- Matrizen (also der linearen Abbildungen R s R r, und setze M s (R := M s,s (R (also die Menge der linearen Abbildungen

Mehr

Transformation und Darstellung funktionaler Daten

Transformation und Darstellung funktionaler Daten Transformation und Darstellung funktionaler Daten Seminar - Statistik funktionaler Daten Jakob Bossek Fakultät für Statistik 7. Mai 2012 Übersicht Einleitung Einordnung im Seminar Motivation am Beispiel

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel

Mehr

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 ) Aufgabe 65. Ganz schön span(n)end. Gegeben sei folgende Menge M von 6 Vektoren v, v,..., v 6 R 4 aus Aufgabe P 6: M = v =, v =, v =, v 4 =, v 5 =, v 6 = Welche der folgenden Aussagen sind wahr? span(v,

Mehr

Literatur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS)

Literatur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS) Dominating Set 59 Literatur Dominating Set Grundlagen 60 Dominating Set (DS) M. V. Marathe, H. Breu, H.B. Hunt III, S. S. Ravi, and D. J. Rosenkrantz: Simple Heuristics for Unit Disk Graphs. Networks 25,

Mehr

Einführung in die Kodierungstheorie

Einführung in die Kodierungstheorie Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht

Mehr

Rekursionen (Teschl/Teschl 8.1-8.2)

Rekursionen (Teschl/Teschl 8.1-8.2) Rekursionen (Teschl/Teschl 8.1-8.2) Eine Rekursion kter Ordnung für k N ist eine Folge x 1, x 2, x 3,... deniert durch eine Rekursionsvorschrift x n = f n (x n 1,..., x n k ) für n > k, d. h. jedes Folgenglied

Mehr

Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen

Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen be/ji/3(2) 2-1 2 im Kontext der OR-Optimierungsmodelle Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen Standardform: - Planungsziel min bzw. min Z(x) = c 1 x 1 + c 2 x 2 + + c n x n Z(x)

Mehr

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Basis und Dimension Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Definition. Sei V ein K-Vektorraum und (v i ) i I eine Familie von Vektoren

Mehr

( ) als den Punkt mit der gleichen x-koordinate wie A und der

( ) als den Punkt mit der gleichen x-koordinate wie A und der ETH-Aufnahmeprüfung Herbst 05 Mathematik I (Analysis) Aufgabe [6 Punkte] Bestimmen Sie den Schnittwinkel α zwischen den Graphen der Funktionen f(x) x 4x + x + 5 und g(x) x x + 5 im Schnittpunkt mit der

Mehr

Integrierte Umlauf- und Dienstplanung im ÖPNV

Integrierte Umlauf- und Dienstplanung im ÖPNV Integrierte Umlauf- und Dienstplanung im ÖPNV Frico 2007 Weíder Dres. Löbel, Borndörfer und GbR Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB) weider@zib.de http://www.zib.de/weider Planung im

Mehr

Lineare und Ganzzahlige Optimierung

Lineare und Ganzzahlige Optimierung Lineare und Ganzzahlige Optimierung Tim Nieberg Research Institute for Discrete Mathematics University of Bonn Lennéstr. 2 D-53113 Bonn nieberg@or.uni-bonn.de This device is provided without warranty of

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

Datenstrukturen & Algorithmen

Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Binäre Suchbäume Einführung und Begriffe Binäre Suchbäume 2 Binäre Suchbäume Datenstruktur für dynamische Mengen

Mehr

Extrema von Funktionen in zwei Variablen

Extrema von Funktionen in zwei Variablen Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen in zwei Variablen Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,

Mehr

Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b

Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b Aufgabe 1: Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. (a) Nehmen Sie lineares Wachstum gemäß z(t) = at + b an, wobei z die Einwohnerzahl ist und

Mehr

Computer Vision: Optische Flüsse

Computer Vision: Optische Flüsse Computer Vision: Optische Flüsse D. Schlesinger TUD/INF/KI/IS Bewegungsanalyse Optischer Fluss Lokale Verfahren (Lukas-Kanade) Globale Verfahren (Horn-Schunck) (+ kontinuierliche Ansätze: mathematische

Mehr

Einführung in die Lineare Optimierung

Einführung in die Lineare Optimierung Kapitel 2 Einführung in die Lineare Optimierung lineare Modelle der relevanten Umwelt werden wegen ihrer Einfachheit häufig gegenüber nichtlinearen Ansätzen vorgezogen, lineare Optimierungsprobleme können

Mehr

Analytische Methoden und die Black-Scholes Modelle

Analytische Methoden und die Black-Scholes Modelle Analytische Methoden und die Black-Scholes Modelle Diplomverteidigung Universität Rostock Institut für Mathematik 20.01.2011 Agenda 1 Das Ornstein-Uhlenbeck Volatilitätsmodell 2 in L 2 (R 2 ) 3 4 Problem

Mehr

Theorien für die Darstellung von Unsicherheit Ein Vergleich der Wahrscheinlichkeits-, Möglichkeits- und Dempster-Shafer Theorie

Theorien für die Darstellung von Unsicherheit Ein Vergleich der Wahrscheinlichkeits-, Möglichkeits- und Dempster-Shafer Theorie Theorien für die Darstellung von Unsicherheit Ein Vergleich der Wahrscheinlichkeits-, Möglichkeits- und Dempster-Shafer Theorie Johannes Leitner Inhalt I Modellierung von Unschärfe Unscharfe Mengen Unscharfe

Mehr

Charakteristikenmethode im Beispiel

Charakteristikenmethode im Beispiel Charakteristikenmethode im Wir betrachten die PDE in drei Variablen xu x + yu y + (x + y )u z = 0. Das charakteristische System lautet dann ẋ = x ẏ = y ż = x + y und besitzt die allgemeine Lösung x(t)

Mehr

UNIVERSITÄT DORTMUND FACHBEREICH INFORMATIK

UNIVERSITÄT DORTMUND FACHBEREICH INFORMATIK UNIVERSITÄT DORTMUND FACHBEREICH INFORMATIK Thomas Fober Experimentelle Analyse Evolutionärer Algorithmen auf dem CEC 2005 Testfunktionensatz Diplomarbeit 01.07.2006 I N T E R N E B E R I C H T E I N T

Mehr

Bewertung von Forwards, Futures und Optionen

Bewertung von Forwards, Futures und Optionen Bewertung von Forwards, Futures und Optionen Olaf Leidinger 24. Juni 2009 Olaf Leidinger Futures und Optionen 2 24. Juni 2009 1 / 19 Überblick 1 Kurze Wiederholung Anleihen, Terminkontrakte 2 Ein einfaches

Mehr

MATTHIAS GERDTS. Optimierung für Wirtschaftsinformatiker

MATTHIAS GERDTS. Optimierung für Wirtschaftsinformatiker MATTHIAS GERDTS Optimierung für Wirtschaftsinformatiker Address of the Author: Matthias Gerdts Schwerpunkt Optimierung und Approximation Department Mathematik Universität Hamburg D-2146 Hamburg E-Mail:

Mehr

Institut für Geometrie und Praktische Mathematik Mathematisches Praktikum (MaPra) SS 2002. Aufgabe 7

Institut für Geometrie und Praktische Mathematik Mathematisches Praktikum (MaPra) SS 2002. Aufgabe 7 Rheinisch Westfälische Technische Hochschule Institut für Geometrie und Praktische Mathematik Mathematisches Praktikum (MaPra) SS 2002 Prof. Dr. Wolfgang Dahmen Dr. Karl Heinz Brakhage Aufgabe 7 Bearbeitungszeit:

Mehr

Heuristiken im Kontext von Scheduling

Heuristiken im Kontext von Scheduling Heuristiken im Kontext von Scheduling Expertenvortrag CoMa SS 09 CoMa SS 09 1/35 Übersicht Motivation Makespan Scheduling Lokale Suche Weitere Metaheuristiken Zusammenfassung Literatur CoMa SS 09 2/35

Mehr

Einführung in die Informatik I

Einführung in die Informatik I Einführung in die Informatik I Algorithmen und deren Programmierung Prof. Dr. Nikolaus Wulff Definition Algorithmus Ein Algorithmus ist eine präzise formulierte Handlungsanweisung zur Lösung einer gleichartigen

Mehr

Mathematik I für Wirtschaftswissenschaftler

Mathematik I für Wirtschaftswissenschaftler 1 Mathematik I für Wirtschaftswissenschaftler Lösungsvorschläge zur Klausur am 01.08.2003. Bitte unbedingt beachten: a) Verlangt und gewertet werden alle vier gestellten Aufgaben. Alle Aufgaben sind gleichwertig.

Mehr

Maximizing the Spread of Influence through a Social Network

Maximizing the Spread of Influence through a Social Network 1 / 26 Maximizing the Spread of Influence through a Social Network 19.06.2007 / Thomas Wener TU-Darmstadt Seminar aus Data und Web Mining bei Prof. Fürnkranz 2 / 26 Gliederung Einleitung 1 Einleitung 2

Mehr

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten: KAPITEL 4 Lineare Ausgleichsrechnung Beispiel 41 Das Ohmsche Gesetz: Eine Meßreihe von Daten: U = RI (U i, I i ) (Spannung, Stromstärke), i = 1,, m Aufgabe: man bestimme aus diesen Meßdaten den Widerstand

Mehr

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II. Aufgaben und Lösungen

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II. Aufgaben und Lösungen Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II Aufgaben und Lösungen SS 2005 Aufgaben Aufgabe 41 Ein Betrieb stellt zwei Produkte P 1 und P 2 her, die die

Mehr

Absolute Stetigkeit von Maßen

Absolute Stetigkeit von Maßen Absolute Stetigkeit von Maßen Definition. Seien µ und ν Maße auf (X, Ω). Dann heißt ν absolut stetig bezüglich µ (kurz ν µ ), wenn für alle A Ω mit µ(a) = 0 auch gilt dass ν(a) = 0. Lemma. Sei ν ein endliches

Mehr

Algorithmen II Vorlesung am 15.11.2012

Algorithmen II Vorlesung am 15.11.2012 Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales

Mehr

Effiziente numerische Methoden in der Elasto-Plastizität

Effiziente numerische Methoden in der Elasto-Plastizität Karlsruhe Institute of Technology Effiziente numerische Methoden in der Elasto-Plastizität Christian Wieners Institut für Angewandte und Numerische Mathematik, Karlsruhe KIT University of the State of

Mehr

Reelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 7. November 2013

Reelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 7. November 2013 Reelle Analysis Vorlesungsskript Enno Lenzmann, Universität Basel 7. November 2013 6 L p -Räume Mit Hilfe der Masstheorie können wir nun die sog. L p -Räume einführen. Diese Räume sind wichtig in vielen

Mehr

Das Briefträgerproblem

Das Briefträgerproblem Das Briefträgerproblem Paul Tabatabai 30. Dezember 2011 Inhaltsverzeichnis 1 Problemstellung und Modellierung 2 1.1 Problem................................ 2 1.2 Modellierung.............................

Mehr

34 5. FINANZMATHEMATIK

34 5. FINANZMATHEMATIK 34 5. FINANZMATHEMATIK 5. Finanzmathematik 5.1. Ein einführendes Beispiel Betrachten wir eine ganz einfache Situation. Wir haben einen Markt, wo es nur erlaubt ist, heute und in einem Monat zu handeln.

Mehr

1 Stochastische Prozesse in stetiger Zeit

1 Stochastische Prozesse in stetiger Zeit 1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.

Mehr

NP-Vollständigkeit. Krautgartner Martin (9920077) Markgraf Waldomir (9921041) Rattensberger Martin (9921846) Rieder Caroline (0020984)

NP-Vollständigkeit. Krautgartner Martin (9920077) Markgraf Waldomir (9921041) Rattensberger Martin (9921846) Rieder Caroline (0020984) NP-Vollständigkeit Krautgartner Martin (9920077) Markgraf Waldomir (9921041) Rattensberger Martin (9921846) Rieder Caroline (0020984) 0 Übersicht: Einleitung Einteilung in Klassen Die Klassen P und NP

Mehr

Realtime Human Body Tracking

Realtime Human Body Tracking Realtime Human Body Tracking Vortrag im Rahmen des Seminars Ausgewählte Themen zu Bildverstehen und Mustererkennung Lehrstuhl: Professor Dr. X. Jiang Referenten: Dipl.-Math. Kai Rothaus Dipl.-Inform. Steffen

Mehr

Ergänzungen zur Analysis I

Ergänzungen zur Analysis I 537. Ergänzungsstunde Logik, Mengen Ergänzungen zur Analysis I Die Behauptungen in Satz 0.2 über die Verknüpfung von Mengen werden auf die entsprechenden Regelnfür die Verknüpfung von Aussagen zurückgeführt.

Mehr

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete Kapitel 4: Dynamische Datenstrukturen Algorithmen und Datenstrukturen WS 2012/13 Prof. Dr. Sándor Fekete 4.4 Binäre Suche Aufgabenstellung: Rate eine Zahl zwischen 100 und 114! Algorithmus 4.1 INPUT: OUTPUT:

Mehr

Einleitung. Das Ein-Perioden-Modell ist das einfachste. von derivaten Finanzinstrumenten (hier: Optionen) zu erklären.

Einleitung. Das Ein-Perioden-Modell ist das einfachste. von derivaten Finanzinstrumenten (hier: Optionen) zu erklären. Einleitung Das Ein-Perioden-Modell ist das einfachste Modell, um die Idee der Preisgebung von derivaten Finanzinstrumenten (hier: Optionen) zu erklären. naive Idee der Optionspreisbestimmung: Erwartungswertprinzip

Mehr

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Sei K ein Körper, a ij K für 1 i m, 1 j n. Weiters seien b 1,..., b m K. Dann heißt a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2... a m1

Mehr

Ausgewählte Methoden der ganzzahligen Linearen Optimierung

Ausgewählte Methoden der ganzzahligen Linearen Optimierung Ausgewählte Methoden der ganzzahligen Linearen Optimierung Diplomarbeit zur Erlangung des akademischen Grades Magistra rerum naturalium eingereicht von Arntraud Bacher bei AUnivProf Dr Kurt Girstmair an

Mehr

1 Einführung 2 1.1 Zwei Beispiele (MIN JOB SCHEDULING und MAXCUT)... 2 1.2 Notationen und Definitionen... 7 1.3 Übungsaufgaben...

1 Einführung 2 1.1 Zwei Beispiele (MIN JOB SCHEDULING und MAXCUT)... 2 1.2 Notationen und Definitionen... 7 1.3 Übungsaufgaben... Vorwort v I Approximative Algorithmen 1 1 Einführung 2 1.1 Zwei Beispiele (MIN JOB SCHEDULING und MAXCUT).... 2 1.2 Notationen und Definitionen... 7 1.3 Übungsaufgaben..... 18 2 DieKomplexitätsklassen

Mehr

Die Verbindung von Linearer Programmierung und Graphentheorie

Die Verbindung von Linearer Programmierung und Graphentheorie Die Verbindung von Linearer Programmierung und Graphentheorie Definition 5.9. Ein kombinatorisches Optimierungsproblem entspricht einem LP, bei dem statt der Vorzeichenbedingungen x i 0 Bedingungen der

Mehr

5.2 Das All-Pairs-Shortest-Paths-Problem (APSP-Problem) Kürzeste Wege zwischen allen Knoten. Eingabe: Gerichteter Graph G =(V, E, c)

5.2 Das All-Pairs-Shortest-Paths-Problem (APSP-Problem) Kürzeste Wege zwischen allen Knoten. Eingabe: Gerichteter Graph G =(V, E, c) 5.2 Das All-Pairs-Shortest-Paths-Problem (APSP-Problem) Kürzeste Wege zwischen allen Knoten. Eingabe: Gerichteter Graph G =(V, E, c) mit V = {1,...,n} und E {(v, w) 1 apple v, w apple n, v 6= w}. c : E!

Mehr