Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Größe: px
Ab Seite anzeigen:

Download "Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung"

Transkript

1 Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden im nächsten Kapitel Verfahren zu ihrer Lösung untersuchen die Ideen und Aussagen dazu beruhen zum Teil auf einer allgemeineren Theorie diese Theorie beschäftigt sich mit konvexen Funktionen Grundlagen differenzierbare quadratische Funktionen 3 / 84 4 / 84

2 sei F R n ein Definitionsbereich und f : F R eine Funktion der Epigraph von f ist die Menge epi f = {(x, z) R n+1 x F, z R, z f (x)}. f heißt konvex, wenn der Epigraph epi f eine konvexe Menge in R n+1 darstellt Lemma 1 f : F R ist konvex genau dann, wenn gilt (i) F ist konvex; (ii) für alle x, y F und 0 < λ < 1: f [λx + (1 λ)y] λf (x) + (1 λ)f (y). Lemma 1 f : F R ist genau dann konvex, wenn gilt (i) F ist konvex; f(x) (ii) für alle x, y F und 0 < λ < 1: f [λx + (1 λ)y] λf (x) + (1 λ)f (y). x λ x + (1 λ) y y 5 / 84 6 / 84 Beweis: seien (x, z) und (y, w ) Punkte im Epigraphen von f ist f konvex, so gilt: (λx, λz) + `(1 λ)y, (1 λ)w epi f (0 < λ < 1). nach Komponenten aufgeschlüsselt bedeutet dies: λx + (1 λ)y F somit muss (i) erfüllt sein Lemma 2 Die konvexen Funktionen f : F R bilden einen Kegel. Beweis: mit f ist auch λf konvex, für λ 0 mit f 1 und f 2 ist auch f 1 + f 2 konvex außerdem muss gelten: f [λx + (1 λ)y] λz + (1 λ)w mit z = f (x) und w = f (y) folgt die Notwendigkeit von (ii). offensichtlich ist (ii) zusammen mit (i) aber auch hinreichend. 7 / 84 8 / 84

3 Grundlagen differenzierbare quadratische Funktionen Lemma 1 zeigt, dass Konvexität von Funktionen eine eindimensionale Eigenschaft ist das Lemma lässt sich auch wie folgt formulieren: Lemma 3 Sei F konvex und f : F R. Dann ist f genau dann konvex, wenn für alle x F und alle h R n die Funktion f h (t) = f (x + th) konvex ist auf dem Intervall {t x + th F}. es reicht also, sich auf Richtungen zu beschränken dies führt zur Untersuchung von differenzierbaren Funktionen 9 / / 84 Lemma 4 Sei F konvex und f : F R differenzierbar. f ist genau dann konvex, wenn gilt: f (y) f (x) + f (x)(y x) für alle x, y F. (1) Beweis: sei f konvex und seien x, y F dann gilt für alle λ mit 0 λ 1 damit ergibt sich für 0 < λ 1: f (λy + (1 λ)x) λf (y) + (1 λ)f (x) umgekehrt gelte für alle a, b F wähle x, y F und ein λ [0, 1] sei a = λx + (1 λ)y f (b) f (a) + f (a)(b a) (1) indem wir in (1) einmal b = x setzen und einmal b = y, folgt f (x) f (a) + f (a)(x a) (2) f (y) f (a) + f (a)(y a) (3) Multiplikation von (2) mit λ und von (3) mit 1 λ und Addition ergibt λf (x) + (1 λ)f (y) f (a) + f (a)`λx + (1 λ)y a mit λ 0 folgt: f `x + λ(y x) f (x) λ f (y) f (x) f (x)(y x) f (y) f (x) Rücksubstitution von a = λx + (1 λ)y liefert λf (x) + (1 λ)f (y) f (λx + (1 λ)y). die Bedingung ist also notwendig. 11 / / 84

4 f (y) f (x) + f (x)(y x) für alle x, y F. (1) Für den eindimensionalen Fall ergibt sich daraus: Korollar 5 Sei f : (a, b) R differenzierbar. f ist genau dann konvex, wenn die Ableitung f (x) auf (a, b) monoton wächst. f(x) Beweis: x y sei x < y nach (1) gilt f (y ) f (x) + f (x)(y x ) somit: mit y x folgt f (y ) f (x) f (y ) f (x) y x f (x) 13 / / 84 zum Beweis der Rückrichtung zeigen wir nach Lemma 4: f (y ) f (x ) + f (x )(y x) für alle x, y (a, b) wir nehmen wieder x < y an (y < x geht analog) nach dem Mittelwertsatz existiert ein x < ξ < y mit f (ξ) = f (y ) f (x ) y x wegen der Monotonie ist f (x) f (ξ) und somit f (y ) f (x) + f (x)(x y ) Grundlagen differenzierbare quadratische Funktionen 15 / / 84

5 sei Q = [q ij ] R n n eine Funktion f : R n R heißt ist: eine symmetrische Matrix und c R n f (x) = 1 2 xt Qx c T x = 1 2 f (x) hat den Gradienten quadratisch, wenn f von der Form nx nx q ij x i x j j=1 f (x) = x T Q c T nach Lemma 4 ist f genau dann konvex, wenn gilt: 1 2 yt Qy c T y = f (y) f (x) + f (x)(y x) nx c j x j. j=1 = 1 2 xt Qx c T x + x T Q(y x) c T (y x) somit ist f genau dann konvex, wenn für alle x, y R n (y x) T Q(y x) 0. gilt: eine Matrix Q heißt positiv semidefinit, wenn für alle x R n x T Qx = nx nx q ij x i x j 0. j=1 also erhalten wir mit dieser Terminologie: Proposition 6 Die quadratische Funktion f (x) = 1 2 xt Qx c T x ist genau dann konvex, wenn Q positiv semidefinit ist. gilt: 17 / / 84 Da die Nullmatrix Q = 0 trivialerweise positiv semidefinit ist, folgt: Korollar 7 Jede lineare Funktion ist konvex. Die Konvexität linearer Funktionen lässt sich natürlich viel einfacher direkt beweisen... freie Minimierung Minimierung über Teilräumen Beispiele 19 / / 84

6 sei f : F R eine differenzierbare konvexe Funktion und x F x heißt lokales Minimum von f, wenn es ein ε > 0 gibt mit: f (x) f (y) für alle y F mit x y ε. (4) sei f : F R eine differenzierbare konvexe Funktion wir betrachten das Problem min x F f (x). x heißt globales Minimum von f über F, wenn f (x) f (y) für alle y F. (5) wir beschränken uns auf das Minimierungsproblem das Maximierungsproblem ist für allgemeine sehr viel schwerer zu lösen x x x / / 84 im Allgemeinen sind wir nur in der Lage, Aussagen über lokale Minima zu machen für jedoch gilt: (i) jedes lokale Minimum ist auch ein globales Minimum, (ii) die Menge der globalen Minima ist konvex. Beweis: (i) sei x F ein lokales Minimum Lemma 8 Sei f : F R eine konvexe Funktion. Dann gilt: (i) jedes lokale Minimum ist auch ein globales Minimum, (ii) die Menge der globalen Minima ist konvex. angenommen es existiert ein y F mit f (y) < f (x) dann gilt für alle 0 < λ 1: f (λy + (1 λ)x) λf (y) + (1 λ)f (x) < f (x), im Widerspruch zur lokalen Minimalität von x (ii) sei x, y F globale Minima dann folgt aus der Konvexität von f : f (λy + (1 λ)x) λf (y) + (1 λ)f (x) = f (x), 23 / 84 damit ist die Menge der Minima konvex 24 / 84

7 welche Bedingungen muss der Punkt x F erfüllen, damit er als Minimum in Frage kommt? wir betrachten zuerst den Fall allgemeiner Funktionen f sei x F und sei h R n h heißt zulässige Richtung (in x), falls x + h F sei h eine zulässige Richtung dann ist x + th F für alle 0 t 1 für 0 t 1 sei p(t) = f (x + th) dann hat p ein lokales Minimum in 0 es ist p(t) p(0) = p (0)t + o(t) (6) wäre p (0) < 0, so wäre (6) negativ für kleine t Lemma 9 (notwendige Bedingung 1. Ordnung) Sei f : F R stetig differenzierbar und x F ein lokales Minimum. Dann gilt für jede zulässige Richtung h: im Widerspruch zur Minimalität von x somit p (0) = f (x)h 0 f (x)h / / 84 der Beweis beruht auf einer lokalen Approximation 1. Ordnung (Linearisierung) entsprechend lassen sich auch Bedingungen 2. Ordnung formulieren sie basieren auf lokaler quadratischer Approximation Satz 10 x F minimiert die differenzierbare konvexe Funktion f : F R genau dann, wenn für alle h mit x + h F gilt: f (x)h 0 (7) bei der notwendigen Bedingung 1. Ordnung gilt weiter: liegt das lokale Minimum im Innern von F, so folgt f (x) = 0. für ist die Bedingung auch hinreichend: Beweis: sei x F ein Punkt, der die Bedingung erfüllt für jedes andere y F gilt dann (mit h = y x) wegen der Konvexität von f : f (y) f (x) + f (x)h f (x). 27 / / 84

8 freie Minimierung Minimierung über Teilräumen Beispiele sei f : F R konvex und differenzierbar wir betrachten den Fall, dass F ein affiner Teilraum von R n F = {x R n Ax = b} (A R m n, b R m ) ist: dann gilt für jedes x F und jede zulässige Richtung h R n : x + h F x h F h ker A. nach Satz 10 minimiert der Punkt x F f genau dann, wenn f (x)h = nx j=1 f (x) x j h j = 0 für alle h ker A. (8) 29 / / 84 f (x)h = nx j=1 die Bedingung (8) besagt: f (x) x j h j = 0 für alle h ker A (8) f (x) ist orthogonal zu ker A f (x) liegt im Zeilenraum von A f (x) ist eine Linearkombination der Zeilen a T i von A Korollar 11 Sei F = {x R n Ax = b} ein affiner Raum. x F minimiert die differenzierbare konvexe Funktion f : F R genau dann, wenn für ein y R m gilt: mx f (x) = y T A = y i ai T (9) damit erhalten wir die zu (8) äquivalente Optimalitätsbedingung: f (x) = y T A = mx y i ai T (9) für einen geeigneten Vektor y T = [y 1,..., y m ]. 31 / / 84

9 Spezialfall: wir betrachten wiederum das Problem min x F f (x) mit F = {x R n Ax = b} und f : F R konvex sei f (x) = 1 2 xt Qx c T x eine quadratische konvexe Funktion dann ist f (x) = x T Q c T nach (9) ist x ein Minimum, wenn es ein y gibt mit f (x) = y T A freie Minimierung Minimierung über Teilräumen Beispiele damit muss nur das folgende (lineare) Gleichungssystem gelöst werden: Qx A T y = c Ax = b 33 / / Projektionen auf (affine) Teilräume sei p R n ein Vektor und F = {x R n Ax = b} ein Teilraum die Projektion von p auf F ist ein Vektor ˆp, der den (euklidischen) Abstand zu F minimiert: p ˆp 2 = min x F p x 2. min f (x) = 1 2 xt x p T x s.d. Ax = b. damit ergibt sich ˆp als Lösung von x A T y = p Ax = b es ist p x 2 = (p x) T (p x) = p T p 2p T x + x T x einsetzen von x = p + A T y führt auf das Gleichungssystem Ap + AA T y = b somit reduziert sich die Berechnung von ˆp auf das konvexe Minimierungsproblem: min f (x) = 1 2 xt x p T x s.d. Ax = b. bzw. mit A = AA T und b = b Ap: Ay = b 35 / / 84

10 2. Regressionsprobleme wir betrachten folgende Aufgabenstellung: bestimme eine beste Lösung des linearen Gleichungssystems Ax = b per Definition gilt x T Qx = x T A T Ax = Ax 2 0 damit ist Q positiv semidefinit und folglich f konvex also folgt: x R n löst das Regressionsproblem genau dann, wenn gilt: d.h. wir suchen ein x R n klein wie möglich ist: derart, dass der Abstand b Ax so Qx = c bzw. A T Ax = A T b. min b x R Ax 2 = b T b 2b T Ax + x T A T Ax. n das Regressionsproblem reduziert sich also auf das Lösen des linearen Gleichungssystems Qx = c. setzen wir c T = b T A und Q = A T A, dann ist das Problem äquivalent zu min x R n f (x) = 1 2 xt Qx c T x. 37 / / 84 Beispiel (Interpolation) wir gehen von einer (unbekannten) Funktion f : R R aus, f ist an m Stützstellen t 1,..., t m ausgewertet worden seien y i = f (t i ) ferner seien n Funktionen f 1 (t),..., f n (t) gegeben gesucht ist eine Linearkombination also suchen wir die beste Lösung (in den Unbekannten a 1,..., a n ) des linearen Gleichungssystems a 1 f 1 (t 1 ) + a 2 f 2 (t 1 ) a n f n (t 1 ) = y 1 a 1 f 1 (t 2 ) + a 2 f 2 (t 2 ) a n f n (t 2 ) = y a 1 f 1 (t m ) + a 2 f 2 (t m ) a n f n (t m ) = y m ˆf (t) = nx a j f j (t) j=1 bezeichne F die Matrix, y die rechte Seite und a den Vektor der Unbekannten die f an den Stützstellen bestmöglich interpoliert dann haben wir das folgende lineare Gleichungssystem zu lösen: F T F a = F T y. 39 / / 84

11 als Spezialfälle ergeben sich: lineare Regression n = 2 und {f 1 (t), f 2 (t)} = {1, t} konstruiere die Regressionsgerade: ˆf (t) = a1 + a 2 t Lagrange-Dualität lineare Programme quadratische Regression n = 3 und {f 1 (t), f 1 (t), f 2 (t)} = {1, t, t 2 } konstruiere das quadratische Regressionspolynom ˆf (t) = a1 + a 2 t + a 3 t / / 84 Dualität Dualität seien f, g 1,..., g m : R n R konvexe und differenzierbare Funktionen sei g(x) = (g 1 (x),..., g m (x)) wir betrachten das folgende allgemeine mathematische Optimierungsproblem: min f (x) g(x) 0 damit betrachten wir ein konvexes Minimierungsproblem über dem Zulässigkeitsbereich F = {x R n g i (x) 0, 1 i m} korrekterweise sollte man inf und sup verwenden (10) wir wollen versuchen, untere Schranken für das Minimum in (10) zu bestimmen seien dazu x F und y 0 dann gilt sicherlich mx y i g i (x) = y T g(x) 0 damit liefert jedes y 0 eine untere Schranke L(y): min x F f (x) min f (x) + x F yt g(x) min x R n =: L(y) f (x) + yt g(x) die Verwendung von min und max hat sich in der Literatur eingebürgert 43 / / 84

12 Dualität Dualität mit f und den g i, i = 1, m, ist auch f (x) + y T g(x) konvex für y 0 ist somit die Berechnung von L(y) = min x R n f (x) + yt g(x) Bemerkung: max y 0 L(y) = max y 0 min x R n m f (x) + X y i g i (x) (11) ein freies konvexes Minimierungsproblem für jedes y 0 liefert L(y) eine untere Schranke eine beste untere Schranke erhalten wir durch das duale Problem: max y 0 L(y) = max y 0 min x R n m f (x) + X y i g i (x) (11) das duale Problem ist wiederum ein konvexes Optimierungsproblem (über dem nichtnegativen Orthanten) dazu heiße eine Funktion f konkav, wenn f konvex ist die Maximierung einer konkaven Funktion ist damit äquivalent zur Minimerung einer konvexen Funktion das ursprüngliche Problem (10) wird dann als das primale Problem bezeichnet 45 / / 84 Dualität Dualität Lemma 12 L(y) = min x R n f (x) + yg(x) ist konkav. y = λy 1 + (1 λ)y 2 f (x) + y T g(x) < λl(y 1 ) + (1 λ)l(y 2 ) Beweis: seien y 1, y 2 R m + und λ (0, 1) angenommen für y = λy 1 + (1 λ)y 2 per Definition ist gilt: L(y) = L(λy 1 + (1 λ)y 2 ) < λl(y 1 ) + (1 λ)l(y 2 ) damit existiert ein x so, dass L(y) = min x R n f (x) + yt g(x) f (x) + y T g(x) < λl(y 1 ) + (1 λ)l 2 (y 2 ) ebenfalls per Definition gilt: f (x) + y T 1 g(x) min x f (x) + y T 1 g(x) = L(y 1 ) f (x) + y T 2 g(x) min x f (x) + y T 2 g(x) = L(y 2 ) Multiplikation mit λ und 1 λ führt zum Widerspruch. x heißt primal zulässig, falls g(x) 0 y heißt dual zulässig, falls y 0 zwischen primalem und dualem Problem besteht die folgende Beziehung 47 / / 84

13 Satz 13 (schwache Dualität) Seien x F und y 0 primal bzw. dual zulässig. Dann gilt: (i) L(y) f (x) Dualität (ii) gilt L(y) = f (x), so sind x und y primal bzw. dual optimal mit y T g(x) = 0. Beweis: Jedes y 0 liefert eine untere Schranke: Daraus folgen die Behauptungen. L(y) = min z R n f (z) + yt g(z) min z F f (z) + yt g(z) f (x) + y T g(x) Die Bedingung y T g(x) = 0 wird auch als Komplementarität bezeichnet. für festes y 0 ist die Berechnung von L(y) = min x R n f (x) + yt g(x) eine konvexes Minimierungsproblem Dualität daher gilt die Gleichheit L(y) = f (x) + y T g(x) genau dann, wenn x R n die Optimalitätsbedingung erfüllt: f (x) + mx y i g i (x) = 0 T. (12) damit können wir das duale Problem umformulieren zu: max f (x) + X m y i g i (x) (13) y 0 s.d. f (x) + mx y i g i (x) = 0 T 49 / / 84 Lagrange-Dualität lineare Programme Dualität wir betrachten zur Veranschaulichung ein lineares Optimierungsproblem max c T x Ax b sei f (x) = c T x und g i (x) = a T i x b i das daraus abgeleitete allgemeine duale Probgramm lautet: max y 0 (14) m f (x) + X mx y i g i (x) s.d. f (x) + y i g i (x) = 0 T. (11) in unserem Spezialfall führt dies zu max y 0 c T x + y T (Ax b) s.d. c T + y T A = 0 T. einsetzen von y T A = c T in die duale Zielfunktion ergibt die folgende Form des dualen Problems: min b T y s.d. A T y = c, y 0 51 / / 84

14 Dualität Dualität damit führt das primale lineare Problem max c T x Ax b zu dem dualen linearen Programm (15) Lemma 14 (Komplementarität für lineare Programme) Seien x und y primal bzw. dual zulässig. Dann sind x und y genau dann primal bzw. dual optimal, wenn die Komplementarität gilt y T (Ax b) = 0. min b T y y T A = c y 0 wegen c T = y T A ergibt die schwache Dualität: bzw. c T x b T y f (x) = c T x c T x + y T (Ax b) = y T b Beweis: aus der Komplementarität folgt die Optimalität: c T x y T b = (A T y) T x y T b = y T (Ax b) = 0 umgekehrt folgt aus der Optimalität: 0 = c T x y T b = (A T y) T x y T b = y T (Ax b). 53 / / 84 KKT-Bedingungen Programme mit linearen Nebenbedingungen lineare Programme Optimalitätsbedingungen im linearen Fall haben wir gerade gesehen: primale und duale Zulässigkeit und Komplementarität implizieren Optimalität wir wollen diesen Ansatz auf allgemeine konvexe Optimierungsprobleme übertragen wir suchen x, y so, dass x primal zulässig ist y dual zulässig ist beide die Komplementaritätsbedingung erfüllen d.h. es muss gelten: 55 / / 84

15 Optimalitätsbedingungen Karush-Kuhn-Tucker-Bedingungen (KKT-Bedingungen) mx f (x) + y i g i (x) = 0 T y T g(x) = 0 (16) g(x) 0 y 0 seien x, y so, dass sie die KKT-Bedingungen erfüllen Proposition 15 Optimalitätsbedingungen Sei x ein KKT-Punkt mit zugehörigem y 0. Dann ist x eine Optimallösung des konvexen Minimierungsproblems (10). Beweis: x x erfüllt alle Restriktionen g i (x ) 0 für i = 1,..., m minimiert die konvexe Funktion f (x) + y T g(x) wegen der Komplementarität folgt: f (x ) = f (x ) + y T g(x ) = L(y ) mit der schwachen Dualität folgt daraus die Minimalität von f (x ). dann heißt x KKT-Punkt des Optimierungsproblems min f (x) s.d. g(x) 0 (10) x Rn 57 / / 84 Optimalitätsbedingungen Zwischenfazit Für die KKT-Bedingungen gilt: sie sind im konvexen Fall hinreichend im linearen Fall hinreichend und notwendig in allgemeinen (nicht-konvexen) Fall weder hinreichend noch notwendig Wir zeigen als nächstes, dass sie im konvexen Fall unter linearen Nebenbedingungen auch notwendig sind. KKT-Bedingungen Programme mit linearen Nebenbedingungen lineare Programme 59 / / 84

16 Optimalitätsbedingungen Optimalitätsbedingungen seien jetzt speziell g i (x) = ai T x b i, 1 i m in kompakter Schreibweise g(x) = Ax b 0 der Zulässigkeitsbereich ist das Polyeder F = P(A, b) = {x R n Ax b} maw: die Ungleichung f (x)h 0 wird von Ah b Ax impliziert nach dem Farkas-Lemma existiert dann ein y 0 so, dass y T A = f (x) y T (b Ax) 0 ist x F Optimallösung, so muss gelten: x + h F = f (x)h 0 bzw. A(x + h) b = f (x)h 0 bzw. Ah b Ax = f (x)h 0 da y 0 und b Ax 0 ist die letzte Ungleichung äquivalent zu y T (b Ax) = 0 maw: die Ungleichung f (x)h 0 wird von Ah b Ax impliziert 61 / / 84 Optimalitätsbedingungen damit erfüllen x und y notwendigerweise die folgenden Bedingungen: f (x) + y T A = 0 y T (Ax b) = 0 Ax b y 0 dies sind genau die KKT-Bedingungen für Ungleichungsrestriktionen somit: Satz 16 Die KKT-Bedingungen sind hinreichend und notwendig dafür, dass x eine Optimallösung eines konvexen Optimierungsproblems folgender Form ist: Optimalitätsbedingungen KKT-Bedingungen Programme mit linearen Nebenbedingungen lineare Programme min f (x) s.d. Ax b. x Rn 63 / / 84

17 Bemerkung: Optimalitätsbedingungen ist f (x) nichtlinear, dann ergeben die KKT-Bedingungen (selbst bei linearen Restriktionen) ein nichtlineares Ungleichungssystem. betrachten wir jedoch ein lineares Programm max c T x Ax b dann ergeben die KKT-Bedingungen das lineare Ungleichungssystem A T y = c c T x b T y = 0 Ax b y 0 (17) LP-Dualität die KKT-Bedingungen reduzieren das Lösen eines linearen Programms auf das Lösen eines linearen Ungleichungssystems damit kann man also im Prinzip lineare Programme mit dem FM-Verfahren lösen umgekehrt kann natürlich jeder LP-Algorithmus dazu benutzt werden, ein lineares Ungleichungssystem zu lösen man braucht ja nur eine künstliche Zielfunktion einführen, z.b. also folgt: Ax b max 0 T x s.d. Ax b. das Lösen von linearen Programmen und das Lösen von (endlichen) linearen Ungleichungssystemen sind algorithmisch äquivalent 65 / / 84 Zur Erinnerung: zur Lösung eines konvexen Optimierungsproblems reicht es, einen KKT-Punkt zu berechnen dazu müssen nichtnegative Lösungen eines nichtlinearen Gleichungssystems bestimmt werden ein solches Gleichungssystem hat die allgemeine Form: F (x) = 0, x 0 hierbei ist F : R n R m eine Funktion, die aus m Koordinatenfunktionen f i : R n R zusammengesetzt ist: 2 3 f 1 (x) 6 F (x) = R m. f m (x) 67 / / 84

18 die exakte Lösung eines nichtlinearen Gleichungssystems ist im allgemeinen sehr schwierig oft genügt aber schon eine hinreichend gute approximative Lösung wir betrachten im folgenden zwei Spezialfälle: nichtlineare Gleichungssysteme ohne Vorzeichenbeschänkung KKT-Bedingungen von linearen Programmen das Newton-Verfahren die Methode der inneren Punkte 69 / / 84 wir suchen eine approximative Lösung des Systems F (x) = 0 wir verwenden dazu den Ansatz des Newton-Verfahrens zur Erinnerung der eindimensionale Fall: Vorgehensweise des Newton-Verfahrens in jedem Punkt x i konstruiere eine lineare Approximation von F bei x i d.h. eine Matrix A i derart, dass F (x i + h) F (x i ) + A i h (für h hinreichend klein), berechne eine Lösung h i des linearen Gleichungssystems A i h = F (x i ) setze anschließend x i+1 = x i + h i x2 x 1 x 0 71 / / 84

19 Newton-Verfahren (1) starte mit einem Punkt x 0 und i = 0 (2) while F (x i ) 0 do (3) wähle eine lineare Approximation von F im Punkt x i, (4) sei h i eine Lösung des Gleichungssystems A i h = F (x i ) (5) setze x i+1 = x i + h i (6) end while Beispiel wir suchen eine Lösung der Gleichung f (x ) = x 2 2 = 0. beginne mit einem x 0 sei x k schon berechnet wähle z.b. A k = f (x k ) dann folgt f (x k )h = f (x k ) d.h. h k = f (x k ) f (x k ) = x 2 k + 2 2x k und somit x k +1 = x k + h k = x k x k. 73 / / 84 f (x) = x 2 2 = 0. Schritt k f (x k ) , , , , , , , , , , , , , , , , Bemerkung sei F differenzierbar, dann wird oft die Jacobimatrix gewählt, sie hat als Zeilen gerade die m Gradienten f i (x k ):» fi (x k ) A k = f i (x k ) = R m n x j im allgemeinen hat man keine Garantie, dass das Newtonverfahren tatsächlich zu einer zulässigen Lösung der Ausgangsgleichung konvergiert 75 / / 84

20 das Newton-Verfahren die Methode der inneren Punkte wir wollen einen KKT-Punkt für das folgende lineare Programm bestimmen: max c T x Ax b die KKT-Bedingungen lauten: A T y = c c T x b T y = 0 Ax b y 0 mit s = b Ax und µ = 0 ist dies äquivalent zu: s i y i = µ (i = 1,..., m) Ax + s = b A T y = c s, y 0 (18) (19) 77 / / 84 wir relaxieren nun, indem wir s i y i = µ (i = 1,..., m) Ax + s = b A T y = c s, y 0 (19) Lemma 17 Sei (x µ, y µ, s µ ) eine Lösung des Systems (19) zu µ > 0. Dann ist x µ zulässige Lösung des linearen Programms. Für jede andere zulässige Lösung x gilt c T x µ c T x ε (mit ε mµ). eine einen Parameter µ > 0 wählen und das resultierende System mit einem Newtonverfahren zu lösen versuchen wir müssen in diesem Fall immer s i > 0 und y i > 0 (d.h. s, y > 0) sicherstellen deshalb spricht man von inneren Punkten (des positiven Quadranten von R m ). Beweis: die Zulässigkeit folgt aus der Definition aus der schwachen Dualität folgt c T x b T y µ = (Ax µ +s µ ) T y µ = (x µ ) T A T y µ +(s µ ) T y µ = c T x µ +mµ. Im Fall µ 0 sind die x µ also annähernd optimale Lösungen des ursprünglichen linearen Programms. 79 / / 84

21 wir wollen (19) mit einem Newtonansatz lösen wir gehen davon aus, dass wir bereits Vektoren y > 0 und x zur Verfügung haben mit der Eigenschaft c = A T y und s = b Ax > 0. (s i + s i )(y i + y i ) = µ (i = 1,..., m) A(x + x) + (s + s) = b A T (y + y) = c s + s, y + y 0 (20) nach Annahme gilt Ax + s = b und A T y = c wir suchen dann x, y, s so, dass damit reduziert sich dieses System auf: (s i + s i )(y i + y i ) = µ (i = 1,..., m) A(x + x) + (s + s) = b A T (y + y) = c s + s, y + y 0 (20) s i y i + y i s i + s i y i = µ s i y i (i = 1,..., m) A x + s = 0 A T y = 0 s + s, y + y 0 (21) 81 / / 84 damit reduziert sich dieses System auf: s i y i + y i s i + s i y i = µ s i y i (i = 1,..., m) A x + s = 0 A T y = 0 s + s, y + y 0 das letztere System relaxieren wir nun zu dem linearen Gleichungssystem s i y i + y i s i = µ s i y i (i = 1,..., m) A x + s = 0 A T y = 0 (21) (22) mit dessen Lösung schreiben wir fort: x + = x + x, y + = y + y, s + = s und verfährt nun wie zuvor mit x + und y + anstelle von x und y wobei man in jeder Iteration auch den Parameter µ reduziert, bis man eine hinreichend gute Lösung x des Ausgangsproblems gefunden hat liegt s i y i nahe an µ, so kann man zeigen: s + i y + i liegt noch näher an µ y + > 0, s + > 0 das Verfahren konvergiert sehr schnell gegen eine optimale Lösung des Ausgangsproblems 83 / / 84

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

1 Der Simplex Algorithmus I

1 Der Simplex Algorithmus I 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier

Mehr

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

18 Höhere Ableitungen und Taylorformel

18 Höhere Ableitungen und Taylorformel 8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

Serie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015

Serie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015 Analysis D-BAUG Dr. Cornelia Busch FS 05 Serie 4. Finden Sie die lokalen Extrema der Funktionen f : R R auf dem Einheitskreis S = {x, y R : x + y = } und geben Sie an, ob es sich um ein lokales Minimum

Mehr

2. Optimierungsprobleme 6

2. Optimierungsprobleme 6 6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen

Mehr

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z R Es sei f : R n D R eine einmal stetig differenzierbare Funktion, für die in einer Umgebung eines Punkte a = a 1, a,, a n D gilt: fa 1, a,, a n = 0, f xn a 1, a,, a n 0 Dann gibt es eines Umgebung U des

Mehr

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester

Mehr

8 Extremwerte reellwertiger Funktionen

8 Extremwerte reellwertiger Funktionen 8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform

Mehr

Konvergenz im quadratischen Mittel - Hilberträume

Konvergenz im quadratischen Mittel - Hilberträume CONTENTS CONTENTS Konvergenz im quadratischen Mittel - Hilberträume Contents 1 Ziel 2 1.1 Satz........................................ 2 2 Endlich dimensionale Vektorräume 2 2.1 Defintion: Eigenschaften

Mehr

10 Extremwerte mit Nebenbedingungen

10 Extremwerte mit Nebenbedingungen 10 Extremwerte mit Nebenbedingungen 49 10 Extremwerte mit Nebenbedingungen Wir betrachten nun Extremwertaufgaben, bei denen nach dem Extremwert einer fx 1,, x n gesucht wird, aber die Menge der zulässigen

Mehr

Folgerungen aus dem Auflösungsatz

Folgerungen aus dem Auflösungsatz Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und

Mehr

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0. Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Extrema mit Nebenbedingungen

Extrema mit Nebenbedingungen Extrema mit Nebenbedingungen Gesucht ist das Extremum der Funktion f(x,y) = 5 x y unter der Nebenbedingung g(x,y) = x+y =. 5 y x In diesem einfachen Fall kann die Nebenbedingung nach einer Variablen aufgelöst

Mehr

11 Optimierung von Funktionen einer Veränderlichen

11 Optimierung von Funktionen einer Veränderlichen 11 Optimierung von Funktionen einer Veränderlichen In diesem Kapitel werden die bis hier behandelten Grundlagen der Analysis genutzt, um Methoden aus der Optimierungstheorie für eindimensionale Entscheidungsmengen

Mehr

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 7 Lineare Programmierung II 1 Lineare Programme Lineares Programm: Lineare Zielfunktion Lineare Nebenbedingungen (Gleichungen oder Ungleichungen) Spezialfall der konvexen Optimierung

Mehr

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum. Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

17. Penalty- und Barriere-Methoden

17. Penalty- und Barriere-Methoden H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Mathematik 2 für Wirtschaftsinformatik

Mathematik 2 für Wirtschaftsinformatik für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar

Mehr

Kapitel 16 : Differentialrechnung

Kapitel 16 : Differentialrechnung Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Aufgaben zur nicht-linearen Optimierung Teil II Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Aufgabe 5 Bestimmen

Mehr

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz Optimale Steuerung Kevin Sieg Fachbereich für Mathematik und Statistik Universität Konstanz 14. Juli 2010 1 / 29 Aufgabenstellung 1 Aufgabenstellung Aufgabenstellung 2 Die zusammengesetzte Trapezregel

Mehr

Nichtlineare Optimierung

Nichtlineare Optimierung Nichtlineare Optimierung Roland Pulch Vorlesung im Wintersemester 2015/16 Institut für Mathematik und Informatik Mathematisch-Naturwissenschaftliche Fakultät Ernst-Moritz-Arndt-Universität Greifswald Inhalt:

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 5. Juni 2016 Definition 5.21 Ist a R, a > 0 und a 1, so bezeichnet man die Umkehrfunktion der Exponentialfunktion x a x als

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Numerische Verfahren der nicht-linearen Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Line

Mehr

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems Kapitel 2 Newton Verfahren 2.1 Das lokale Newton Verfahren Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems F (x) = 0 (2.1) mit einer zumindest

Mehr

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen 11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen Ziel: Wir wollen lokale Extrema von Funktionen f : M R untersuchen, wobei M R n eine k-dimensionale Untermannigfaltigkeit des

Mehr

NUMERISCHE METHODEN DER OPTIMIERUNG

NUMERISCHE METHODEN DER OPTIMIERUNG NUMERISCHE METHODEN DER OPTIMIERUNG VORLESUNGSSKRIPT FS 2008 (Vorläufige Fassung vom 14. Mai 2008) D. Peterseim Institut für Mathematik Universität Zürich Inhaltsverzeichnis Inhaltsverzeichnis iii 1 Einführung

Mehr

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra

Mehr

Lösungen zu den Hausaufgaben zur Analysis II

Lösungen zu den Hausaufgaben zur Analysis II Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin

Mehr

55 Lokale Extrema unter Nebenbedingungen

55 Lokale Extrema unter Nebenbedingungen 55 Lokale Extrema unter Nebenbedingungen Sei f : O R mit O R n differenzierbar. Notwendige Bescheinigung für ein lokales Extremum in p 0 ist dann die Bedingung f = 0 (siehe 52.4 und 49.14). Ist nun F :

Mehr

Lösung allgemeiner linearer Programme

Lösung allgemeiner linearer Programme Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt

Mehr

Seminar Einführung in die Kunst mathematischer Ungleichungen

Seminar Einführung in die Kunst mathematischer Ungleichungen Seminar Einführung in die Kunst mathematischer Ungleichungen Geometrie und die Summe von Quadraten Clara Brünn 25. April 2016 Inhaltsverzeichnis 1 Einleitung 2 1.1 Geometrie allgemein.................................

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge ÜBUNGSBLATT 0 LÖSUNGEN MAT/MAT3 ANALYSIS II FRÜHJAHRSSEMESTER 0 PROF DR CAMILLO DE LELLIS Aufgabe Finden Sie für folgende Funktionen jene Punkte im Bildraum, in welchen sie sich lokal umkehren lassen,

Mehr

MAA = MAB + B AA = B CA + CAA BA A Nun sehen wir mit Proposition 10.7 aus dem Skript, dass A M AB gelten muss.

MAA = MAB + B AA = B CA + CAA BA A Nun sehen wir mit Proposition 10.7 aus dem Skript, dass A M AB gelten muss. 1. Konvexität in der absoluten Ebene In einem Dreieck in der Euklidischen Ebene hat die Strecke zwischen zwei Seitenmittelpunkten die halbe Länge der dritten Seite. In der absoluten Ebene hat man eine

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 2 Nichtlineare Gleichungssysteme Problem: Für vorgegebene Abbildung f : D R n R n finde R n mit oder ausführlicher f() = 0 (21) f 1 ( 1,, n ) = 0, f n ( 1,, n ) = 0 Einerseits führt die mathematische

Mehr

4 Affine Koordinatensysteme

4 Affine Koordinatensysteme 4 Affine Koordinatensysteme Sei X φ ein affiner Raum und seien p,, p r X Definition: Nach ( c ist der Durchschnitt aller affinen Unterräume Z X, welche die Menge {p,,p r } umfassen, selbst ein affiner

Mehr

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 5 Anwendungen der Differentialrechnung 5.1 Maxima und Minima einer Funktion......................... 80 5.2 Mittelwertsatz.................................... 82 5.3 Kurvendiskussion..................................

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

5.10. Mehrdimensionale Extrema und Sattelpunkte

5.10. Mehrdimensionale Extrema und Sattelpunkte 5.1. Mehrdimensionale Extrema und Sattelpunkte Zur Erinnerung: Eine Funktion f von einer Teilmenge A des R n nach R hat im Punkt a ein (strenges) globales Maximum, falls f( x ) f( a ) (bzw. f( x ) < f(

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Kapitel 5: Differentialrechnung im R n Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 17. Juni 2009 1 / 31 5.1 Erinnerung Kapitel

Mehr

Höhere Mathematik für Physiker II

Höhere Mathematik für Physiker II Universität Heidelberg Sommersemester 2013 Wiederholungsblatt Übungen zur Vorlesung Höhere Mathematik für Physiker II Prof Dr Anna Marciniak-Czochra Dipl Math Alexandra Köthe Fragen Machen Sie sich bei

Mehr

ist reelles lineares Funktional. x(t) ϕ(t) dt ist reelles lineares Funktional für alle ϕ L 2 (0, 1).

ist reelles lineares Funktional. x(t) ϕ(t) dt ist reelles lineares Funktional für alle ϕ L 2 (0, 1). Kapitel 4 Stetige lineare Funktionale 4.1 Der Satz von Hahn - Banach Definition 4.1. Sei X ein linearer normierter Raum über dem Körper K (R oder C). Ein linearer Operator f : X K heißt (reelles oder komplexes)

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

Musterlösung. TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Klausur Mathematik für Physiker 3 (Analysis 2) I... II...

Musterlösung. TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Klausur Mathematik für Physiker 3 (Analysis 2) I... II... ................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 3 Unterschrift der Kandidatin/des Kandidaten 4 TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik

Mehr

Kapitel 3. Konvergenz von Folgen und Reihen

Kapitel 3. Konvergenz von Folgen und Reihen Kapitel 3. Konvergenz von Folgen und Reihen 3.1. Normierte Vektorräume Definition: Sei V ein Vektorraum (oder linearer Raum) über (dem Körper) R. Eine Abbildung : V [0, ) heißt Norm auf V, falls die folgenden

Mehr

ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS

ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS Aufgabe 1. a) Gegeben sei die Gleichung 2x 2 4xy +y 2 3x+4y = 0. Verifizieren Sie, dass diese Gleichung

Mehr

3 Nichtlineare Gleichungssysteme

3 Nichtlineare Gleichungssysteme 3 Nichtlineare Gleichungsssteme 3.1 Eine Gleichung in einer Unbekannten Problemstellung: Gegeben sei die stetige Funktion f(). Gesucht ist die Lösung der Gleichung f() = 0. f() f() a) f ( ) 0 b) f ( )

Mehr

5 Potenzreihenansatz und spezielle Funktionen

5 Potenzreihenansatz und spezielle Funktionen 5 Potenzreihenansatz und spezielle Funktionen In diesem Kapitel betrachten wir eine Methode zur Lösung linearer Differentialgleichungen höherer Ordnung, die sich anwenden läßt, wenn sich alle Koeffizienten

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Mathematik I für Biologen, Geowissenschaftler und Geoökologen 28. November 2011 Definition Beispiel: Wassermengen und Konzentrationen in einem Fluss Beispiel Zeilenstufenform Beispiel (Fortsetzung) Anhang

Mehr

Lineare Algebra I (WS 13/14)

Lineare Algebra I (WS 13/14) Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 29.11.2013 Alexander Lytchak 1 / 13 Wiederholung Der Rang einer linearen Abbildung ist gleich dem Spaltenrang der darstellenden

Mehr

Analysis I. 4. Beispielklausur mit Lösungen

Analysis I. 4. Beispielklausur mit Lösungen Fachbereich Mathematik/Informatik Prof. Dr. H. Brenner Analysis I 4. Beispielklausur mit en Aufgabe 1. Definiere die folgenden (kursiv gedruckten) Begriffe. (1) Eine bijektive Abbildung f: M N. () Ein

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

2 Euklidische Vektorräume

2 Euklidische Vektorräume Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,

Mehr

Elementare Beweismethoden

Elementare Beweismethoden Elementare Beweismethoden Christian Hensel 404015 Inhaltsverzeichnis Vortrag zum Thema Elementare Beweismethoden im Rahmen des Proseminars Mathematisches Problemlösen 1 Einführung und wichtige Begriffe

Mehr

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen 3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange

Mehr

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle 2. Matrixalgebra Warum Beschäftigung mit Matrixalgebra? Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle bequeme mathematische

Mehr

Mathematik für Anwender I. Beispielklausur I mit Lösungen

Mathematik für Anwender I. Beispielklausur I mit Lösungen Fachbereich Mathematik/Informatik Prof. Dr. H. Brenner Mathematik für Anwender I Beispielklausur I mit en Dauer: Zwei volle Stunden + 10 Minuten Orientierung, in denen noch nicht geschrieben werden darf.

Mehr

Skript zur Vorlesung im SS 2013+SS Konvexe Optimierung. Thorsten Raasch. 14. August 2014

Skript zur Vorlesung im SS 2013+SS Konvexe Optimierung. Thorsten Raasch. 14. August 2014 Skript zur Vorlesung im SS 2013+SS 2014 Konvexe Optimierung Thorsten Raasch 14. August 2014 Inhaltsverzeichnis I. Konvexe Optimierung I 5 1. Einführung 7 2. Konvexe Mengen 11 3. Konvexe Funktionen 13

Mehr

Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206

Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Kapitel 1 Unimodularität Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Inhalt 1 Unimodularität Total unimodulare Matrizen Inzidenzmatrix Optimierungsprobleme auf Graphen Peter

Mehr

Analysis I - Stetige Funktionen

Analysis I - Stetige Funktionen Kompaktheit und January 13, 2009 Kompaktheit und Funktionengrenzwert Definition Seien X, d X ) und Y, d Y ) metrische Räume. Desweiteren seien E eine Teilmenge von X, f : E Y eine Funktion und p ein Häufungspunkt

Mehr

Schranken für zulässige Lösungen

Schranken für zulässige Lösungen Schranken für zulässige Lösungen Satz 5.9 Gegeben seien primales und duales LP gemäß der asymmetrischen Form der Dualität. Wenn x eine zulässige Lösung des primalen Programms und u eine zulässige Lösung

Mehr

00. Einiges zum Vektorraum R n

00. Einiges zum Vektorraum R n 00. Einiges zum Vektorraum R n In diesem einleitenden Kapitel werden die in der LV Einführung in die mathematischen Methoden erwähnten Konzepte über Vektoren (im R 2 und R 3 ) im Rahmen des n-dimensionalen

Mehr

Lineare Algebra. I. Vektorräume. U. Stammbach. Professor an der ETH-Zürich

Lineare Algebra. I. Vektorräume. U. Stammbach. Professor an der ETH-Zürich Lineare Algebra U Stammbach Professor an der ETH-Zürich I Vektorräume Kapitel I Vektorräume 1 I1 Lineare Gleichungssysteme 1 I2 Beispiele von Vektorräumen 7 I3 Definition eines Vektorraumes 8 I4 Linearkombinationen,

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

ε δ Definition der Stetigkeit.

ε δ Definition der Stetigkeit. ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x

Mehr

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung 4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax

Mehr

9 Vektorräume mit Skalarprodukt

9 Vektorräume mit Skalarprodukt 9 Skalarprodukt Pink: Lineare Algebra 2014/15 Seite 79 9 Vektorräume mit Skalarprodukt 9.1 Normierte Körper Sei K ein Körper. Definition: Eine Norm auf K ist eine Abbildung : K R 0, x x mit den folgenden

Mehr

Outline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel

Outline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel Outline 1 Funktionen von mehreren Veränderlichen 2 Grenzwert und Stetigkeit 3 Partielle Ableitungen 4 Die verallgemeinerte Kettenregel 5 Das totale Differential 6 Extremstellen Roman Wienands (Universität

Mehr

KLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen)

KLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen) Mathematisches Institut WS 2012/13 der Heinrich-Heine-Universität 7.02.2013 Düsseldorf Prof. Dr. Achim Schädle KLAUSUR zu Einführung in die Optimierung Bitte folgende Angaben ergänzen und DEUTLICH LESBAR

Mehr

λ i x i λ i 0, x i X, nur endlich viele λ i 0}.

λ i x i λ i 0, x i X, nur endlich viele λ i 0}. jobname LinOpt Sommer Aufgabe a) Sei X R n. Dann ist b) Cone X = { x i X λ i x i λ i, x i X, nur endlich viele λ i }. x Cone S = Lin S x Lin S = Cone S. Also gibt es nicht-negative Koeffizienten µ i von

Mehr

Optimierung. Florian Jarre Josef Stoer. Springer

Optimierung. Florian Jarre Josef Stoer. Springer 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Florian Jarre Josef Stoer Optimierung Springer Inhaltsverzeichnis

Mehr

Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom

Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom Prof. Dr. M. Kaßmann Fakultät für Mathematik Wintersemester 2011/2012 Universität Bielefeld Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom 27.10.2011 Aufgabe III.1 (4 Punkte) Sei Ω R

Mehr

Graphentheorie. Maximale Flüsse. Maximale Flüsse. Maximale Flüsse. Rainer Schrader. 31. Oktober Gliederung. sei G = (V, A) ein gerichteter Graph

Graphentheorie. Maximale Flüsse. Maximale Flüsse. Maximale Flüsse. Rainer Schrader. 31. Oktober Gliederung. sei G = (V, A) ein gerichteter Graph Graphentheorie Rainer Schrader Zentrum ür Angewandte Inormatik Köln 31. Oktober 2007 1 / 30 2 / 30 Gliederung maximale Flüsse Schnitte Edmonds-Karp-Variante sei G = (V, A) ein gerichteter Graph sei c eine

Mehr

1 Lineare Optimierung, Simplex-Verfahren

1 Lineare Optimierung, Simplex-Verfahren 1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und

Mehr

Abb lokales Maximum und Minimum

Abb lokales Maximum und Minimum .13 Lokale Extrema, Monotonie und Konvexität Wir kommen nun zu den ersten Anwendungen der Dierentialrechnung. Zwischen den Eigenschaten einer Funktion, dem Verlau des zugehörigen Graphen und den Ableitungen

Mehr

INGENIEURMATHEMATIK. 9. Differentialrechnung für Funktionen mehrerer Variablen. Sommersemester Prof. Dr. Gunar Matthies

INGENIEURMATHEMATIK. 9. Differentialrechnung für Funktionen mehrerer Variablen. Sommersemester Prof. Dr. Gunar Matthies Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik INGENIEURMATHEMATIK 9. Differentialrechnung für Funktionen mehrerer Variablen Prof. Dr. Gunar Matthies Sommersemester

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 4

Technische Universität München Zentrum Mathematik. Übungsblatt 4 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 4 Hausaufgaben Aufgabe 4. Gegeben sei die Funktion f : D R mit f(x) :=

Mehr

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9 Chr.Nelius: Zahlentheorie (SS 2007) 9 4. ggt und kgv (4.1) DEF: Eine ganze Zahl g heißt größter gemeinsamer Teiler (ggt) zweier ganzer Zahlen a und b, wenn gilt: GGT 0 ) g 0 GGT 1 ) g a und g b GGT 2 )

Mehr

2 Stetigkeit und Differenzierbarkeit

2 Stetigkeit und Differenzierbarkeit 2.1) Sei D R. a) x 0 R heißt Häufungspunkt von D, wenn eine Folge x n ) n N existiert mit x n D,x n x 0 und lim n x n = x 0. D sei die Menge der Häufungspunkte von D. b) x 0 D heißt innerer Punkt von D,

Mehr

Definition: Differenzierbare Funktionen

Definition: Differenzierbare Funktionen Definition: Differenzierbare Funktionen 1/12 Definition. Sei f :]a, b[ R eine Funktion. Sie heißt an der Stelle ξ ]a, b[ differenzierbar, wenn der Grenzwert existiert. f(ξ + h) f(ξ) lim h 0 h = lim x ξ

Mehr