Optimalitätskriterien

Größe: px
Ab Seite anzeigen:

Download "Optimalitätskriterien"

Transkript

1 Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen sowohl unter theoretischen als auch unter numerischen Aspekten Bedeutung. In diesem Kapitel werden lokale und globale Optimalitätskriterien hergeleitet. 4.1 Einleitung Ein Gegenstand dieses Kapitels ist die Verallgemeinerung der Methode der Lagrangeschen Multiplikatoren auf Probleme mit Bedingungsungleichungen und beschränkten Variablen. Es wird der Zusammenhang zwischen der Lösung eines Optimierungsproblems und dem Sattelpunkt eines Lagrangeschen Funktionals hergestellt. Wir betrachten zunächst die Lagrangesche Methode für ein Optimierungsproblem mit Nebenbedingungen in Gleichungsform {fx : x Ω R n } min!, 4.1 Ω = {x R n : h i x = 0, i {1,..., p}, p < n}. Seien fx in Ω und h i x, i = 1,..., p, in R n differenzierbar. Für beliebiges festes x Ω werden die Matrizen H 0 x := h 1 x,..., h p x T R p n H0 x, Hx := fx T R p+1 n definiert. Für das Problem 4.1 wird die Lagrange Funktion p Lx, λ = λ 0 fx + λ i h i x, x Ω, λ R p+1, i=1 eingeführt. Die Zahlen λ 0,..., λ p nennt man Lagrangesche Multiplikatoren. Man kann beispielsweise folgendes Optimalitätskriterium für Problem 4.1 beweisen. Satz 4.1 Seien x 0 Ω und rgh 0 x 0 = rghx 0. Dann gilt: besitzt fx in x 0 T ein lokales Minimum bezüglich Ω, so existiert ein λ 0 = λ 0 0,..., λ0 p R p+1, mit λ und x Lx 0, λ 0 = λ 0 0 fx 0 + p i=1 λ 0 i h i x 0 =

2 Verallgemeinerungen dieser Aussage auf den Fall, dass die Matrizen unterschiedlichen Rang besitzen, sind möglich. Mit Hilfe des Gleichungssystems 4. hat man ein Kriterium zur Bestimmung von Punkten, in denen fx ein lokales Minimum annehmen kann. Sofern dies möglich ist, berechnet man alle Lösungen x, λ von 4.. Im allgemeinen sind jedoch nicht alle Lösungen auch lokale Extrempunkte. Das heißt, man erweitert das gegebene Problem so, dass - man für die Lösung des erweiterten Problems Standardkriterien, zum Beispiel dass Ableitungen verschwinden, für ein Minimum hat, - die Lösung des erweiterten Problems Rückschlüsse auf die Lösung des gegebenen Problems zulässt. 4. Lokale Minima für Optimierungsprobleme ohne Einschränkungen an das zulässige Gebiet Wir betrachten das Optimierungsproblem z = min{fx : x Ω} 4.3 mit f C 1 R n an sich reicht f C 1 Ω mit Ω Ω, Ω offen. Für diese Problem sollen im folgenden lokale Optimalitätskriterien hergeleitet werden. Zunächst werden spezielle konvergente Folgen betrachtet. Definition 4. Konvergent gegen x 0 in Richtung y, gerichtet konvergent. Eine konvergente Folge {x k } k N, x k R n, mit x k x 0 heißt konvergent gegen x 0 in Richtung y R n oder gerichtet konvergent, wenn gilt Die Schreibweise ist k x k x 0 x k x 0 = y, y = 1. x k y x0. Beispiel 4.3 Sei {x k } k N mit x k = 1 k, 1 T. k Dann ist x 0 = 0, 0 T und es gilt k x k x k = k k 1 k 1 k = = y. Man kann aus jeder gegen x 0 konvergenten Folge {x k } k N eine gerichtet konvergente Teilfolge auswählen, sofern unendlich viele Elemente der Folge ungleich x 0 sind. Sei x k x 0 für k k 0, dann sind alle Glieder der Folge y k := x k x 0 x k x 0, k k 0, Elemente der kompakten Menge {x R n : x = 1}. Damit besitzt {y k } k N einen Häufungspunkt in dieser Menge und man findet in {y k } k N eine konvergente Teilfolge. Die Aussage des folgenden Lemmas kann in gewisser Weise als Verallgemeinerung der Richtungsableitung aufgefasst werden. 88

3 Lemma 4.4 Die Folge {x k } k N sei konvergent gegen x 0 in Richtung y. Dann gilt: 1. Ist f : R n R in x 0 stetig differenzierbar, so folgt fx k fx 0 = y T fx 0. k x k x 0. Ist f : R n R in x 0 zweimal stetig differenzierbar, so gilt fx k fx 0 x k x 0 T fx 0 k x k x 0 = 1 yt H f x 0 y. Beweis: Es wird nur die erste Aussage bewiesen, der Beweis der zweiten Aussage ist analog. Da fx in x 0 differenzierbar ist, also insbesondere alle Richtungsableitungen existieren, folgt unter Nutzung der Definition der Richtungsableitung, dass fx fx0 x x 0 T fx 0 = 0. x x 0 x x 0 x x 0 Außerdem existiert nach Voraussetzung der Grenzwert Damit folgt x k x 0 T fx 0 = y T fx 0. x k x 0 x k x 0 fx k fx 0 x k x 0 T = fx 0 = y T fx 0. x k x 0 x k x 0 x k x 0 x k x 0 Definition 4.5 Tangentenkegel. Der Tangentenkegel T x 0 an die Menge Ω im Punkt x 0 Ω ist gegeben durch { } y T x 0 := λy : y = 1, {x k } k N Ω, x k x0, λ 0. Der Tangentenkegel T x 0 hat nur etwas mit dem zulässigen Gebiet Ω zu tun und nicht mit der zu minimierenden Funktion fx. Er beschreibt die Richtungen, aus denen man sich x 0 mit einer Folge annähern kann, deren Glieder alle in Ω liegen. Der Begriff des Tangentenkegels ist eine Verallgemeinerung der Tangetialhyperebene. Die Menge T x 0 ist ein Kegel. Für jeden inneren Punkt x 0 Ω gilt T x 0 = R n. Für isolierte Punkte setzen wir T x 0 = {0}. Beispiel 4.6 Sei Ω = {x R : x 1 + x = 1, x 1 0, 0 < x < }. Für den Punkt x 0 = 0, 1 T Ω erhält man, direkt aus der geometrischen Anschauung, { } T x 0 = y R 1 : y = λ, λ 0. 0 Analytisches Nachrechnen: Übungsaufgabe Lemma 4.7 Für jeden Punkt x 0 Ω ist der Tangentenkegel T x 0 abgeschlossen. 89

4 Beweis: Siehe Literatur. Der folgende Satz gibt ein notwendiges Kriterium für die Existenz eines lokalen Minimums von fx bezüglich Ω an. Das lokale Minimum kann auch auf dem Rand von Ω liegen. Beachte, dass fx nach Voraussetzung auf dem Rand von Ω stetig differenzierbar ist. Satz 4.8 Sei f : R n R in x 0 Ω stetig differenzierbar. Besitzt fx in x 0 ein lokales Minimum bezüglich Ω, dann gilt y T fx 0 0 y T x 0. Beweis: Sei y T x 0. Für y = 0 ist y T fx 0 = 0. Ansonsten existieren ein λ R, λ > 0, und ein y T x 0, y = 1, mit y = λy. Ferner sei {x k } k N Ω y eine Folge mit x k x 0. Da fx in x 0 ein lokales Minimum bezüglich Ω annimmt, gilt für hinreichend große k die Ungleichung fx k fx 0. Daraus folgt unter Beachtung von Lemma 4.4, 1 fx k fx 0 = y T fx 0 0 k x k x 0 und damit auch y T fx 0 0. Aus diesem Satz folgt nicht, dass fx in x 0 ein lokales Minimum nur annehmen kann, wenn fx 0 = 0 gilt. Gilt jedoch fx 0 = 0, dann hat man ein zweites notwendiges Kriterium. Satz 4.9 Sei f : R n R in x 0 Ω zweimal stetig differenzierbar. Besitzt fx in x 0 ein lokales Minimum bezüglich Ω und gilt fx 0 = 0, dann folgt y T H f x 0 y 0 y T x 0. Beweis: Der Beweis ist analog zum Beweis von Satz 4.8, wobei jedoch jetzt Lemma 4.4, verwendet wird. Aus x k x 0 T fx 0 = 0 und fx k fx 0 für hinreichend große Indizes k folgt dann fx k fx 0 x k x 0 T fx 0 k x k x 0 = 1 y T H f x 0 y 0. Der folgende Satz enthält eine hinreichende Bedingung für die Existenz eines eigentlichen lokalen Minimums von fx bezüglich Ω. Satz 4.10 Sei f : R n R in x 0 Ω zweimal stetig differenzierbar. Gelten fx 0 = 0 und y T H f x 0 y > 0 für alle y T x 0, y 0, dann besitzt fx in x 0 ein isoliertes lokales Minimum bezüglich Ω. Beweis: Indirekter Beweis. Wir nehmen an, dass fx in x 0 kein isoliertes lokales Minimum bezüglich Ω besitzt. Dann existiert eine Folge {x k } k N Ω mit x k x 0, mit unendlich vielen Elementen, die ungleich x 0 sind, und fx k fx 0, k 1. Es existiert eine Teilfolge von {x k }, die gegen ein ỹ gerichtet konvergent ist. Ohne ỹ Beschränkung der Allgemeinheit kann auch x k x0 angenommen werden. Dann folgt aus Lemma 4.4 fx k fx 0 k x k x 0 = 1 ỹt H f x 0 ỹ 0 mit ỹ T x 0, im Widerspruch zur Voraussetzung. Für jeden inneren Punkt x 0 Ω gilt T x 0 = R n und aus den Aussagen der Sätze folgen die bekannten notwendigen und hinreichenden Bedingungen für die Existenz lokaler Minima einer Funktion f : R n R. 90

5 4.3 Lokale Minima für Optimierungsprobleme, bei denen das zulässige Gebiet durch Ungleichungen gegeben ist In diesem Abschnitt wird das Optimierungsproblem z = min{fx : x Ω} mit Ω = {x R n : gx 0} 4.4 mit f C 1 R n und g : R n R m, g C 1 R n untersucht. Unter Verwendung der Resultate aus Abschnitt 4. werden nun lokale Optimierungskriterien für 4.4 hergeleitet. Dazu wird eine lokale Theorie von Lagrange Multiplikatoren entwickelt. Definition 4.11 Aktive Nebenbedingung. Eine Nebenbedingung g i x 0, i = 1,..., m, wird im Punkt x 0 Ω aktiv genannt, wenn gilt g i x 0 = 0. Bezeichnung: I 0 := {i {1,..., m} : g i x 0 = 0}. Sei I 0. Die in x 0 aktiven Nebenbedingungen werden nun durch affine Funktionen ersetzt g i x 0 T x x 0, x R n, i I 0, beziehungsweise in Matrixnotation g I0 x 0 T x x 0, g I0 x 0 R n I0. Der Gradient einer vektorwertigen Funktion gx ist wie folgt definiert: gx = g 1x x1 g m x x1 g 1 x xn g m x xn R n m. Ausgehend von der Anschauung, könnte man die Menge { x : g I0 x 0 T x x 0 0, g I\I0 x 0 + g I\I0 x 0 } T x x0 0 als eine lineare Approximation der Menge Ω im Punkt x 0 ansehen. Dies ist jedoch in gewissen ausgearteten Punkten nicht zutreffend, siehe Beispiel 4.15 Definition 4.1 Linearisierter Kegel. Die Menge Kx 0 := {y R n : g I0 x 0 T y 0} heißt linearisierter Kegel von Ω im Punkt x 0 Ω. Für I 0 = setzen wir Kx 0 = R n. Lemma 4.13 Es gilt T x 0 Kx 0. Beweis: Für I 0 = gilt die Behauptung trivialerweise. Sei also I 0. Der Nullvektor gehört per Definition zu beiden Mengen. Sei y T x 0, y 0. Dann existieren ein y T x 0, y = 1 und ein λ > 0 mit y = λy und eine Folge y {x k } k N Ω mit x k x 0. Wegen g i x k 0 für alle i und g i x 0 = 0 für alle i I 0 hat man g i x k g i x 0 0 = g i x 0 T y i I 0, k x k x 0 wobei Lemma 4.4, 1 verwendet wurde. Folglich gilt y Kx 0. 91

6 Lemma 4.14 Es gilt K 0 x 0 := {y R n : g I0 x 0 T y < 0} T x 0. Beweis: Siehe Literatur, zum Beispiel [ERSD77, S. 145]. Beispiel 4.15 Sei Ω = {x R : x x 0, x 0}, d.h. die Menge Ω ist begrenzt von der positiven x 1 Achse und der Funktion x 3 1. Damit sind x 3 gx = 1 + x, gx T 3x = 1 1. x 0 1 Wir betrachten den Punkt x 0 = 0, 0 T. In diesem Punkt sind beide Nebenbedingungen mit Gleichheit erfüllt, also I 0 = {1, }. Es folgt g I0 x 0 T 0 1 y1 =, = Kx =, y 0 1 R. Für den Tangentialkegel gilt T x 0 = {y R : y 1 0, y = 0}. Es ist also T x 0 Kx 0. Dieses Beispiel zeigt insbesondere, dass man für den Punkt x 0 = 0, 0 T mit Kx 0 keine lineare Approximation von Ω erhält. Beispiel 4.16 Der linearisierte Kegel Kx 0 ist im Gegensatz zum Tangentenkegel T x 0 von der analytischen Darstellung von Ω abhängig. Die Menge aus Beispiel 4.15 kann auch dargestellt werden durch Ω = {x R : x x 0, x 3 0} In diesem Fall hat man x 3 gx = 1 + x x 3, gx T 3x = x und man erhält für x 0 = 0, 0 T, dass I 0 = {1, } und g I0 x 0 T 0 1 = 0 0, = Kx 0 = y1 y mit y 1 R und y 0. Für den nächsten Beweis benötigen wir einen Hilfssatz. Lemma 4.17 Alternativsatz von Gordan. Sei A R m n, dann hat von den beiden Systemen Ay < 0 und genau eines eine Lösung. z T A = 0, z 0, z 0 Beweis: Literatur. Seien die Voraussetzungen von Satz 4.8 erfüllt und I 0. Dann folgt wegen K 0 x 0 T x 0 g I0 x 0 T y < 0 = y T fx 0 0 y K 0 x 0. 9

7 Diese Beziehung ist äquivalent damit, dass das Ungleichungssystem g I0 x 0 T y < 0, y T fx 0 < 0 keine Lösung y K 0 x 0 besitzt. Nach Lemma 4.17 besitzt dieses System genau dann keine Lösung, wenn das System η η fx 0 + g I0 x 0 z I0 = 0, 0, η R z +, 4.5 I0 eine nichttriviale Lösung besitzt. Hierbei ist z I0 ein I 0 dimensionaler Vektor, dessen Einträge durch die Indizes der aktiven Nebenbedingungen unter Beibehaltung der natürlichen Reihenfolge bestimmt sind. Setzt man z i = 0 für i I 0, so kann man 4.5 mit z R m wie folgt formulieren: η η η fx 0 + gx 0 z = 0, gx 0 0, }{{} z T gx 0 = 0, 0, 0. } {{ } z z =0,i I 0 =0,i I 0 Sei I 0 = und hat fx in x 0 Ω ein lokales Minimum, das heißt es gelten x 0 intω, z = 0 und fx 0 = 0, dann besitzt dieses System eine Lösung η > 0, z = 0. Wir betrachten jetzt das Problem: Gesucht ist ein Paar x 0, z 0 T R n R m + 0, η 0 0, η 0, z 0 T 0, welches das System η fx + gxz = 0, gx 0, z T η gx = 0, z löst. Mit dem Lagrange Funktional L η x, z = ηfx + z T gx ergibt sich die äquivalente Formulierung x L η x, z = 0, z L η x, z 0, z T z L η x, z = 0, η z Der Zusammenhang zwischen den Problemen 4.4 und 4.6 ist wie folgt. Satz 4.18 Seien f : R n R, g : R n R m differenzierbar und x 0 Ω Stelle eines lokalen Minimums von fx bezüglich Ω. Dann existieren ein z 0 R m + und ein η 0 0, so dass x 0, z 0 T und η 0 eine Lösung von 4.6 bzw. von 4.7 sind. Beweis: Literatur, Fritz John Damit haben wir für den Fall η 0 > 0 ein Optimalitätskriterium gefunden. Ist jedoch η 0 = 0, so kann der Funktionswert von fx in 4.6 beliebig sein. Es wird jetzt eine Regularitätsbedingung eingeführt, die sichert, dass unter den Voraussetzungen von Satz 4.18 für jede Lösung von 4.6 η 0 > 0 gilt. Regularitätsbedingung. Seien g : R n R m differenzierbar und Kx 0 = T x Bemerkung Für Optimierungsprobleme mit ausschließlich affinen Nebenbedingungen ist die Regularitätsbedingung stets erfüllt. - Die Regularitätsbedingung stellt eine Bedingung an die analytische Darstellung der Menge Ω dar, vergleiche Beispiele 4.15 und

8 - Man kann andere Regularitätsbedingungen formulieren, die die obige Bedingung implizieren, aber leichter zu überprüfen sind. Anstelle von 4.6 betrachten wir jetzt das Optimierungsproblem: Finde ein Paar x 0, z 0 T R n R m +, welches das Problem fx + gxz = 0, gx 0, z T gx = 0, z löst. Man bezeichnet 4.9 als lokale Kuhn Tucker Bedingung Kuhn, Tucker Unter Verwendung des Lagrange Funktionals Lx, z := fx + z T gx, x, z T R n R m + erhält man eine zu 4.9 äquivalente Formulierung x Lx, z = 0, z Lx, z 0, z T z Lx, z = 0, z Die Optimierungsprobleme 4.9, 4.10 hat man aus 4.6, 4.7 durch die Festsetzung von η = 1 erhalten. Lemma 4.0 Satz von Farkas. Seien A R m n und b R n. Dann hat von den beiden Systemen Ax 0, b T x > 0, und genau eines eine Lösung. Beweis: Siehe Literatur. y T A = b T, y 0 Satz 4.1 Satz von Kuhn/Tucker. Seien f : R n R, g : R n R m stetig differenzierbar und x 0 Ω Stelle eines lokalen Minimums von fx bezüglich Ω. Ist in x 0 die Regularitätsbedingung 4.8 erfüllt, dann existiert ein z 0 R m +, so dass x 0, z 0 T eine Lösung von 4.9 bzw. von 4.10 ist. Beweis: Sei I 0. Per Definition des linearisierten Kegels gilt Da 4.8 erfüllt ist, folgt aus Satz 4.8 für I 0 g I0 x 0 T y 0 y Kx fx 0 T y 0 = fx 0 T y 0 y T x 0 = Kx Aus Lemma 4.0 folgt, dass 4.11 und 4.1 genau dann gleichzeitig gelten, wenn das System g I0 x 0 z I0 = fx 0, z I0 0 eine Lösung besitzt. Setzt man z i = 0 für i I 0, so folgt die erste Gleichung von 4.9 für I 0. Die Beziehung gx 0 0 gilt per Definition des Optimierungsproblems. Aus der Konstruktion von z folgt schließlich z T gx 0 = 0. Für I 0 = ist z = 0 eine Lösung von 4.9. Im Falle x 0 intω gilt wegen der Regularitätsbedingung 4.8 T x 0 = Kx 0 = R n. Aus der Definition von Kx 0 folgt dann, dass gx 0 = 0 sein muss, da die Bedingung aus Satz 4.8 für jedes y R n, insbesondere für y gelten muss. Aus der ersten Gleichung der Kuhn Tucker Bedingung 4.9 folgt dann die bekannte notwendige Bedingung für ein lokales Minimum: fx 0 = 0. 94

9 Die Gültigkeit der Implikation von 4.11 nach 4.1 kann mit Hilfe eines linearen Programms überprüft werden. Diese Implikation gilt genau dann, wenn 0 der optimale Wert des Problem z = z T fx 0 min! z T g I0 x 0 0 ist. Sind die Zielfunktion und die Nebenbedingungen zweimal differenzierbar, kann man weitere Kriterien mit Hilfe der Hesse Matrix formulieren. 4.4 Globale Theorie der Lagrange Multiplikatoren Wir betrachten das Optimierungsproblem z = min{fx : x G Ω } mit G Ω = {x R n : gx 0, x Ω}, 4.13 wobei Ω R n eine nichtleere Menge ist, f : Ω R, g : Ω R m. Bei dieser sogenannten konischen Formulierung der Menge G Ω ist x genau dann zulässig, wenn x Ω und gx 0. Für Ω = R n haben wir als Spezialfall das Problem 4.4. Im folgenden werden Optimalitätskriterien in Form von Sattelpunktaussagen formuliert. Definition 4. Sattelpunkt. Die Funktion Lx, λ mit x Ω, λ D λ besitzt in x 0, λ 0 einen lokalen Sattelpunkt, wenn es ein ε > 0 gibt, so dass Lx 0, λ Lx 0, λ 0 Lx, λ 0 x, λ Ω D λ U ε x 0, λ 0, 4.14 wobei U ε x 0, λ 0 eine ε Umgebung von x 0, λ 0 ist. Gilt 4.14 für alle x, λ Ω D λ, so hat Lx, λ in x 0, λ 0 einen globalen Sattelpunkt. Zur Formulierung von globalen Optimalitätskriterien wird das folgende Sattelpunktproblem betrachtet: Gesucht sind x 0 Ω und η 0, y 0 T R m+1 + mit η 0, y 0 T 0, so dass für das Lagrange Funktional gilt L η x, y := ηfx + y T gx, x, y T Ω R m +, 4.15 L η0 x 0, y L η0 x 0, y 0 L η0 x, y 0, x, y T Ω R m +. Als nächstes soll ein notwendiges Optimalitätskriterium für 4.13 bewiesen werden. Dazu benötigen wir folgendes Lemma. Lemma 4.3 Seien Ω R n eine konvexe Menge, f : Ω R, g : Ω R q konvexe Funktionen und h : Ω R r affine Funktionen. Das System fx < 0, gx 0, hx 0, x Ω besitzt genau dann keine Lösung, wenn ein Vektor u, v, w T R + R q + Rr +, u, v, w T 0, existiert mit ufx + v T gx + w T hx 0, x Ω. Existiert ein x intω welches zusätzlich g x < 0 erfüllt, dann gilt u 0. Beweis: Siehe Literatur. 95

10 Satz 4.4 Seien Ω R n eine konvexe Menge, f : Ω R und g : Ω R m konvexe Funktionen. Ist x 0 eine Lösung von 4.13, so existieren ein η 0 R + und ein y 0 R m +, so dass x 0, η 0, y 0 T Ω R m+1 + eine Lösung des Sattelpunktproblems 4.15 ist. Beweis: Sei x 0 eine Lösung von Dann besitzt das System fx fx 0 < 0, gx 0, x Ω keine Lösung. Nach Lemma 4.3, mit hx 0, existiert dann ein Vektor η 0, y 0 T R m+1 +, η 0, y 0 T 0, mit L η0 x, y 0 = η 0 fx + y T 0 gx η 0 fx 0 x Ω. Wegen gx 0 0 folgt für alle y 0 damit L η0 x, y 0 = η 0 fx+y T 0 gx η 0fx 0 +y T gx 0 = L η0 x 0, y x, y Ω R m Setzt man in 4.16 rechts y = y 0, ergibt sich η 0 fx + y T 0 gx η 0 fx 0 + y T 0 gx 0 = L η0 x 0, y 0 x Ω. Setzt man in 4.16 links x = x 0, erhält man η 0 fx 0 + y T 0 gx 0 η 0 fx 0 + y T gx 0 y R m +. Aus den letzten beiden Ungleichungen folgt die Behauptung. Die Aussage dieses Satzes hat in gewissem Sinne Ähnlichkeit mit der von Satz Für einen gegebenen zulässigen Bereich ist die notwendige Bedingung nichtnegative Lösung von 4.15 für beliebige Werte der Zielfunktion erfüllt, falls η 0 = 0 ist. Analog wie bei den lokalen Lagrange Multiplikatoren wird deshalb eine Regularitätsbedingung eingeführt, die η 0 > 0 sichert. Regularitätsbedingung. Seien die Menge Ω R n sowie die Funktionen g i : Ω R, i {1,..., m} =: I, konvex. Es existiere ein x intω mit g i x < 0 für i I N, g i x 0 für i I L Hierbei ist I L die Menge aller i {1,..., m}, für die g i x eine affine Funktion ist und I N die Menge aller Indizes, für die g i x keine affine Funktion ist. Unter dieser Regularitätsbedingung wird das Sattelpunktproblem: Finde einen Sattelpunkt x 0, y 0 Ω R m + des Lagrange Funktional betrachtet. Lx, y := fx + y T gx, x, y T Ω R m +, 4.18 Satz 4.5 Seien die Menge Ω R n konvex, die Funktionen f : Ω R, g i : Ω R, i I, konvex und die Regularitätsbedingung 4.17 erfüllt. Ist x 0 Ω eine Lösung von 4.13, dann existiert ein y 0 R m +, so dass x 0, y 0 ein Sattelpunkt von 4.18 ist. Beweis: Da x 0 eine Lösung von 4.13 ist, ist das System fx fx 0 < 0, gx 0, x Ω nicht lösbar. Wegen der Regularitätsbedingung 4.17 besitzt jedoch das System g IN x < 0, g IL x 0, x intω 96

11 eine Lösung. Nach Lemma 4.3 existiert ein η 0, y 0 T R m+1 +, η 0 0, das g IN spielt die Rolle von g aus Lemma 4.3 mit η 0 fx fx 0 + y T 0 gx 0 x Ω. Bei dieser Darstellung wurden die Vektoren v und w aus Lemma 4.3 zum Vektor y zusammengefasst. Man kann so skalieren, dass η 0 = 1 gilt. Dann folgt Lx, y 0 = fx + y T 0 gx fx 0 x Ω. Wegen gx 0 0 folgt für alle y 0 gilt Lx 0, y = fx 0 + y T gx 0 fx 0 y R m +. Aus den letzten beiden Beziehungen folgt, indem man x = x 0 beziehungsweise y = y 0 setzt, Lx 0, y 0 = fx 0. Nach Definition ist x 0, y 0 T somit ein Sattelpunkt des Lagrange Funktionals Nun wird eine hinreichende Bedingung für eine Lösung von 4.13 formuliert. Dabei gilt eine gewisse Umkehrung von Satz 4.5, die ohne weitere Voraussetzungen an 4.13 gilt. Satz 4.6 Sei x 0, y 0 T Ω R m + ein Sattelpunkt von Dann ist x 0 eine Lösung von Beweis: Zunächst wird gezeigt, dass x 0 die Nebenbedingungen erfüllt. Aus Lx 0, y Lx 0, y 0 für alle y R m + folgt y y 0 T gx 0 0 y R m Es gilt R m + {y y 0 : y, y 0 R m + }. Somit gilt y T gx 0 0 y R m +. Sei g i x 0 > 0. Dann würde diese Beziehung nicht für den i ten Einheitsvektor gelten, der aber zu R m + gehört. Damit folgt gx 0 0. Nun wird gezeigt, dass fx in x 0 ein globales Minimum annimmt. Aus 4.19 folgt für y = 0 die Ungleichung y T 0 gx 0 0. Da y 0 0 und gx 0 0, kann das Skalarprodukt nur nichtpositiv sein, also gilt y T 0 gx 0 = 0. Mit dieser Beziehung und Lx 0, y 0 Lx, y 0 für alle x Ω folgt fx 0 fx + y T 0 gx x Ω und damit für alle x G Ω fx 0 fx + y0 T gx fx. }{{} }{{} 0 0 Bemerkung 4.7 Dualitätstheorie. Auch für die nichtlineare Optimierung gibt es eine Dualitätstheorie. Die Dualitätstheorie für lineare Programme ist darin als Spezialfall enthalten. Gegeben sei das primale Problem z = min{fx : x G Ω } mit G Ω = {x R n : gx 0, x Ω},

12 wobei Ω R n eine nichtleere Menge ist und f : Ω R, g : Ω R m Abbildungen sind. Dem Problem 4.0 wird unter Verwendung des Lagrange Funktionals das duale Problem z = max{φy : y R m + } zugeordnet, wobei φy : R m + R { }, φy = inf Lx, y = inf fx + y T gx. x Ω x Ω Man sieht, dass hier die Nichtnegativitätsbedingung im dualen Problem steckt, anders als wir es bei linearen Programmen hatten. Da wir dort jedoch gezeigt hatten, dass das duale Problem des dualen Problems wieder das primale Problem ist, ist das kein Widerspruch dazu, dass die Theorie für lineare Programme als Spezialfall enthalten ist. Man kann wieder schnell zeigen, dass der Maximalwert des dualen Problems, falls er existiert, kleiner oder gleich dem Minimalwert des primalen Problems ist. Gleichheit muss im allgemeinen jedoch nicht gelten. Man spricht dann von einer Dualitätslücke. Des weiteren sind die Fragen bezüglich der Lösbarkeit der beiden Probleme wesentlich komplizierter zu beantworten als bei linearen Programmen. 98

Mathematik 1 für Wirtschaftsinformatik

Mathematik 1 für Wirtschaftsinformatik Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Vorlesung. Funktionen/Abbildungen 1

Vorlesung. Funktionen/Abbildungen 1 Vorlesung Funktionen/Abbildungen 1 1 Grundlagen Hinweis: In dieser Vorlesung werden Funktionen und Abbildungen synonym verwendet. In der Schule wird eine Funktion häufig als eindeutige Zuordnung definiert.

Mehr

17. Penalty- und Barriere-Methoden

17. Penalty- und Barriere-Methoden H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende

Mehr

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.

Mehr

Extrema von Funktionen in zwei Variablen

Extrema von Funktionen in zwei Variablen Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen in zwei Variablen Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag

Mehr

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

3. Grundlagen der Linearen Programmierung

3. Grundlagen der Linearen Programmierung 3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations

Mehr

1 Konvexe Funktionen. 1.1 Definition. 1.2 Bedingung 1.Ordnung. Konvexität und Operationen, die die Konvexität bewahren Seite 1

1 Konvexe Funktionen. 1.1 Definition. 1.2 Bedingung 1.Ordnung. Konvexität und Operationen, die die Konvexität bewahren Seite 1 Konvexität und Operationen, die die Konvexität bewahren Seite 1 1 Konvexe Funktionen 1.1 Definition Eine Funktion f heißt konvex, wenn domf eine konvexe Menge ist und x,y domf und 0 θ 1: f(θx + (1 θ)y)

Mehr

55 Lokale Extrema unter Nebenbedingungen

55 Lokale Extrema unter Nebenbedingungen 55 Lokale Extrema unter Nebenbedingungen Sei f : O R mit O R n differenzierbar. Notwendige Bescheinigung für ein lokales Extremum in p 0 ist dann die Bedingung f = 0 (siehe 52.4 und 49.14). Ist nun F :

Mehr

Folgerungen aus dem Auflösungsatz

Folgerungen aus dem Auflösungsatz Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und

Mehr

Optimierung. Florian Jarre Josef Stoer. Springer

Optimierung. Florian Jarre Josef Stoer. Springer 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Florian Jarre Josef Stoer Optimierung Springer Inhaltsverzeichnis

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrangetex,v 18 01/11/09 14:07:08 hk Exp $ $Id: untermfgtex,v 14 01/11/1 10:00:34 hk Exp hk $ Extrema unter Nebenbedingungen Lagrange-Multiplikatoren In der letzten Sitzung hatten wir begonnen die

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel

Mehr

Modulabschlussklausur Analysis II

Modulabschlussklausur Analysis II Modulabschlussklausur Analysis II. Juli 015 Bearbeitungszeit: 150 min Aufgabe 1 [5/10 Punkte] Es sei a R und f a : R 3 R mit f a (x, y, z) = x cos(y) + z 3 sin(y) + a 3 + (z + ay a y) cos(x) a) Bestimmen

Mehr

Abiturvorbereitung Mathematik -Dierentialrechnungc Max. Hoffmann

Abiturvorbereitung Mathematik -Dierentialrechnungc Max. Hoffmann Abiturvorbereitung Mathematik -Dierentialrechnungc Max Hoffmann 1 Ganzrationale Funktionen Im Folgenden wollen wir uns mit ganzrationale Funktionen und der Untersuchung solcher beschäftigen. Dabei werden

Mehr

Definition 3.1: Ein Differentialgleichungssystem 1. Ordnung

Definition 3.1: Ein Differentialgleichungssystem 1. Ordnung Kapitel 3 Dynamische Systeme Definition 31: Ein Differentialgleichungssystem 1 Ordnung = f(t, y) ; y R N ; f : R R N R N heißt namisches System auf dem Phasenraum R N Der Parameter t wird die Zeit genannt

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

Rückblick auf die letzte Vorlesung

Rückblick auf die letzte Vorlesung Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige

Mehr

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Basis und Dimension Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Definition. Sei V ein K-Vektorraum und (v i ) i I eine Familie von Vektoren

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra

Mehr

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang Sommersemester 03 6.06.03 Höhere Mathematik II für die Fachrichtungen Elektrotechnik und Informationstechnik

Mehr

Lösungen der Übungsaufgaben von Kapitel 3

Lösungen der Übungsaufgaben von Kapitel 3 Analysis I Ein Lernbuch für den sanften Wechsel von der Schule zur Uni 1 Lösungen der Übungsaufgaben von Kapitel 3 zu 3.1 3.1.1 Bestimmen Sie den Abschluss, den offenen Kern und den Rand folgender Teilmengen

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

OPERATIONS-RESEARCH (OR)

OPERATIONS-RESEARCH (OR) OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 7 Lineare Programmierung II 1 Lineare Programme Lineares Programm: Lineare Zielfunktion Lineare Nebenbedingungen (Gleichungen oder Ungleichungen) Spezialfall der konvexen Optimierung

Mehr

8 Extremwerte reellwertiger Funktionen

8 Extremwerte reellwertiger Funktionen 8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist. Matrizennorm Es seien r,s N Mit M r,s (R bezeichnen wir die Menge der reellen r s- Matrizen (also der linearen Abbildungen R s R r, und setze M s (R := M s,s (R (also die Menge der linearen Abbildungen

Mehr

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum. Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit

Mehr

Regularitätsbedingungen

Regularitätsbedingungen Kapitel 5 Regularitätsbedingungen 5.1 Eine notwendige und hinreichende Regularitätsbedingung Beim Studium Lagrangescher Multiplikatorenregeln in ihrer Grundform, bestehend aus Stationaritäts und Komplementaritätsbedingung,

Mehr

Absolute Stetigkeit von Maßen

Absolute Stetigkeit von Maßen Absolute Stetigkeit von Maßen Definition. Seien µ und ν Maße auf (X, Ω). Dann heißt ν absolut stetig bezüglich µ (kurz ν µ ), wenn für alle A Ω mit µ(a) = 0 auch gilt dass ν(a) = 0. Lemma. Sei ν ein endliches

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

Mathematik 2 für Wirtschaftsinformatik

Mathematik 2 für Wirtschaftsinformatik für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar

Mehr

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0. Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Sei K ein Körper, a ij K für 1 i m, 1 j n. Weiters seien b 1,..., b m K. Dann heißt a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2... a m1

Mehr

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester 2015. gehalten von Harald Baum

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester 2015. gehalten von Harald Baum Fachschaft Mathematik und Informatik (FIM) LA I VORKURS Herbstsemester 2015 gehalten von Harald Baum 2. September 2015 Inhaltsverzeichnis 1. Stichpunkte zur Linearen Algebra I 2. Körper 3. Vektorräume

Mehr

16. FUNKTIONEN VON MEHREREN VARIABLEN

16. FUNKTIONEN VON MEHREREN VARIABLEN 16. FUNKTIONEN VON MEHREREN VARIABLEN 1 Reelle Funktionen auf dem R 2 Wir betrachten Funktionen f(x 1, x 2 ) von zwei reellen Variablen x 1, x 2, z.b. f(x 1, x 2 ) = x 2 1 + x2 2, g(x 1, x 2 ) = x 2 1

Mehr

5.10. Mehrdimensionale Extrema und Sattelpunkte

5.10. Mehrdimensionale Extrema und Sattelpunkte 5.1. Mehrdimensionale Extrema und Sattelpunkte Zur Erinnerung: Eine Funktion f von einer Teilmenge A des R n nach R hat im Punkt a ein (strenges) globales Maximum, falls f( x ) f( a ) (bzw. f( x ) < f(

Mehr

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Zählen und Zahlbereiche Übungsblatt 1 1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Für alle m, n N gilt m + n = n + m. in den Satz umschreiben:

Mehr

Seminararbeit für das SE Reine Mathematik- Graphentheorie

Seminararbeit für das SE Reine Mathematik- Graphentheorie Seminararbeit für das SE Reine Mathematik- Graphentheorie Der binäre Rang, der symplektische Graph, die Spektralzerlegung und rationale Funktionen Vortrag am 24.01.2012 Heike Farkas 0410052 Inhaltsverzeichnis

Mehr

3. Zusammenhang. 22 Andreas Gathmann

3. Zusammenhang. 22 Andreas Gathmann 22 Andreas Gathmann 3. Zusammenhang Eine der anschaulichsten Eigenschaften eines topologischen Raumes ist wahrscheinlich, ob er zusammenhängend ist oder aus mehreren Teilen besteht. Wir wollen dieses Konzept

Mehr

2.12 Potenzreihen. 1. Definitionen. 2. Berechnung 2.12. POTENZREIHEN 207. Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen.

2.12 Potenzreihen. 1. Definitionen. 2. Berechnung 2.12. POTENZREIHEN 207. Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen. 2.2. POTENZREIHEN 207 2.2 Potenzreihen. Definitionen Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen. Eine Potenzreihe mit Entwicklungspunkt x 0 ist eine Reihe a n x x 0 n. Es gilt: es

Mehr

Eigenwerte und Eigenvektoren von Matrizen

Eigenwerte und Eigenvektoren von Matrizen Eigenwerte und Eigenvektoren von Matrizen Das Eigenwertproblem Sei A eine quadratische Matrix vom Typ m,m. Die Aufgabe, eine Zahl λ und einen dazugehörigen Vektor x zu finden, damit Ax = λx ist, nennt

Mehr

Newton-Verfahren für ein Skalarfunktion

Newton-Verfahren für ein Skalarfunktion Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren

Mehr

Extremwerte von Funktionen mehrerer reeller Variabler

Extremwerte von Funktionen mehrerer reeller Variabler Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein

Mehr

1 Lineare Optimierung, Simplex-Verfahren

1 Lineare Optimierung, Simplex-Verfahren 1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und

Mehr

5 Stetigkeit und Differenzierbarkeit

5 Stetigkeit und Differenzierbarkeit 5 Stetigkeit und Differenzierbarkeit 5.1 Stetigkeit und Grenzwerte von Funktionen f(x 0 ) x 0 Graph einer stetigen Funktion. Analysis I TUHH, Winter 2006/2007 Armin Iske 127 Häufungspunkt und Abschluss.

Mehr

10 Extremwerte mit Nebenbedingungen

10 Extremwerte mit Nebenbedingungen 10 Extremwerte mit Nebenbedingungen 49 10 Extremwerte mit Nebenbedingungen Wir betrachten nun Extremwertaufgaben, bei denen nach dem Extremwert einer fx 1,, x n gesucht wird, aber die Menge der zulässigen

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

Musterlösung. TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Klausur Mathematik für Physiker 3 (Analysis 2) I... II...

Musterlösung. TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Klausur Mathematik für Physiker 3 (Analysis 2) I... II... ................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 3 Unterschrift der Kandidatin/des Kandidaten 4 TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik

Mehr

$Id: folgen.tex,v /05/31 12:40:06 hk Exp $ an 1 2 n 1 ist gerade, 3a n 1 + 1, a n 1 ist ungerade.

$Id: folgen.tex,v /05/31 12:40:06 hk Exp $ an 1 2 n 1 ist gerade, 3a n 1 + 1, a n 1 ist ungerade. $Id: folgen.tex,v. 202/05/3 2:40:06 hk Exp $ 6 Folgen Am Ende der letzten Sitzung hatten wir Folgen in einer Menge X als Abbildungen a : N X definiert, die dann typischerweise in der Form (a n ) n N, also

Mehr

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz Mathematik für Bioinformatik und Systembiologie - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz WS 2009/10 Universität Freiburg Dieses Vorlesungsskript ist auf der Basis von Vorlesungen

Mehr

OPTIMIERUNG I. Christian Clason. Fakultät für Mathematik Universität Duisburg-Essen

OPTIMIERUNG I. Christian Clason. Fakultät für Mathematik Universität Duisburg-Essen OPTIMIERUNG I Vorlesungsskript, Sommersemester 2014 Christian Clason Stand vom 1. Juli 2014 Fakultät für Mathematik Universität Duisburg-Essen INHALTSVERZEICHNIS I GRUNDLAGEN 1 theorie der linearen ungleichungen

Mehr

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist: Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,

Mehr

Serie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015

Serie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015 Analysis D-BAUG Dr. Cornelia Busch FS 05 Serie 4. Finden Sie die lokalen Extrema der Funktionen f : R R auf dem Einheitskreis S = {x, y R : x + y = } und geben Sie an, ob es sich um ein lokales Minimum

Mehr

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Wintersemester 3/4 (.3.4). (a) Für z = + i und z = 3 4i berechne man z z und z z. Die Ergebnisse sind in kartesischer Form anzugeben.

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Technische Universität München Zentrum Mathematik. Übungsblatt 12 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 1 Hausaufgaben Aufgabe 1.1 Sei f : R R gegeben durch f(x 1, x ) = x 3

Mehr

Analysis I. 4. Beispielklausur mit Lösungen

Analysis I. 4. Beispielklausur mit Lösungen Fachbereich Mathematik/Informatik Prof. Dr. H. Brenner Analysis I 4. Beispielklausur mit en Aufgabe 1. Definiere die folgenden (kursiv gedruckten) Begriffe. (1) Eine bijektive Abbildung f: M N. () Ein

Mehr

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen 11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen Ziel: Wir wollen lokale Extrema von Funktionen f : M R untersuchen, wobei M R n eine k-dimensionale Untermannigfaltigkeit des

Mehr

Ergänzungen zur Analysis I

Ergänzungen zur Analysis I 537. Ergänzungsstunde Logik, Mengen Ergänzungen zur Analysis I Die Behauptungen in Satz 0.2 über die Verknüpfung von Mengen werden auf die entsprechenden Regelnfür die Verknüpfung von Aussagen zurückgeführt.

Mehr

Die Verbindung von Linearer Programmierung und Graphentheorie

Die Verbindung von Linearer Programmierung und Graphentheorie Die Verbindung von Linearer Programmierung und Graphentheorie Definition 5.9. Ein kombinatorisches Optimierungsproblem entspricht einem LP, bei dem statt der Vorzeichenbedingungen x i 0 Bedingungen der

Mehr

Aufgabe 1. Zunächst wird die allgemeine Tangentengleichung in Abhängigkeit von a aufgestellt:

Aufgabe 1. Zunächst wird die allgemeine Tangentengleichung in Abhängigkeit von a aufgestellt: Aufgabe 1 1.1. Bestimmung von D max : 1. Bedingung: x >0 ; da ln(x) nur für x > 0 definiert ist. 2. Bedingung: Somit ist die Funktion f a nur für x > 0 definiert und sie besitzt eine Definitionslücke an

Mehr

Von Skalarprodukten induzierte Normen

Von Skalarprodukten induzierte Normen Von Skalarprodukten induzierte Normen Niklas Angleitner 4. Dezember 2011 Sei ein Skalarproduktraum X,, gegeben, daher ein Vektorraum X über C bzw. R mit einer positiv definiten Sesquilinearform,. Wie aus

Mehr

Lineare Programmierung

Lineare Programmierung Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in

Mehr

7 Rechnen mit Polynomen

7 Rechnen mit Polynomen 7 Rechnen mit Polynomen Zu Polynomfunktionen Satz. Zwei Polynomfunktionen und f : R R, x a n x n + a n 1 x n 1 + a 1 x + a 0 g : R R, x b n x n + b n 1 x n 1 + b 1 x + b 0 sind genau dann gleich, wenn

Mehr

Teil II Optimierung. Peter Buchholz 2016. Modellgestützte Analyse und Optimierung Kap. 9 Einführung Optimierung

Teil II Optimierung. Peter Buchholz 2016. Modellgestützte Analyse und Optimierung Kap. 9 Einführung Optimierung Teil II Optimierung Gliederung 9 Einführung, Klassifizierung und Grundlagen 10 Lineare Optimierung 11 Ganzzahlige und kombinatorische Optimierung 12 Dynamische Optimierung Literatur: zu 10-12: Neumann,

Mehr

Lagrange-Multiplikatoren

Lagrange-Multiplikatoren Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Physiker II, SS Mittwoch 8.6 $Id: jordan.tex,v.6 /6/7 8:5:3 hk Exp hk $ 5 Eigenwerte und die Jordansche Normalform 5.4 Die Jordansche Normalform Wir hatten bereits erwähnt, dass eine n n

Mehr

5 Lagrangeformalismus

5 Lagrangeformalismus 63 5 Lagrangeformalismus 5.1 Lagrange und Sattelfunktionen Eine typische Aufgabe ist, daß eine Funktion zweier Veränderlicher L(x, y) gegeben ist und diese Funktion bezüglich einer Variabler (hier x) maximiert

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Kapitel 5: Differentialrechnung im R n Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 17. Juni 2009 1 / 31 5.1 Erinnerung Kapitel

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 5. Juni 2016 Definition 5.21 Ist a R, a > 0 und a 1, so bezeichnet man die Umkehrfunktion der Exponentialfunktion x a x als

Mehr

4. Anwendung der Differentialrechnung: Kurvendiskussion 4.1. Maxima und Minima einer Funktion.

4. Anwendung der Differentialrechnung: Kurvendiskussion 4.1. Maxima und Minima einer Funktion. 4. Anwendung der Differentialrechnung: Kurvendiskussion 4.1. Maxima und Minima einer Funktion. Definition 4.3. Es sei f : R D R eine auf D erklarte Funktion. Die Funktion f hat in a D eine globales oder

Mehr

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden

Mehr

Übungsklausur. Bitte wählen Sie fünf Aufgaben aus! Aufgabe 1. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr.

Übungsklausur. Bitte wählen Sie fünf Aufgaben aus! Aufgabe 1. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr. Gert Zöller Übungsklausur Hilfsmittel: Taschenrechner, Formblatt mit Formeln. Lösungswege sind stets anzugeben. Die alleinige Angabe eines

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

Periodische Fahrpläne und Kreise in Graphen

Periodische Fahrpläne und Kreise in Graphen Periodische Fahrpläne und Kreise in Graphen Vorlesung Algorithmentechnik WS 2009/10 Dorothea Wagner Karlsruher Institut für Technologie Eisenbahnoptimierungsprozess 1 Anforderungserhebung Netzwerkentwurf

Mehr

Optimale Steuerung, Prof.Dr. L. Blank 1. II Linear-quadratische elliptische Steuerungsprobleme

Optimale Steuerung, Prof.Dr. L. Blank 1. II Linear-quadratische elliptische Steuerungsprobleme Optimale Steuerung, Prof.Dr. L. Blank 1 II Linear-quadratische elliptische Steuerungsprobleme Zuerst: Zusammenstellung einiger Begriffe und Aussagen aus der Funktionalanalysis (FA), um dann etwas über

Mehr

Kevin Caldwell. 18.April 2012

Kevin Caldwell. 18.April 2012 im Rahmen des Proseminars Numerische Lineare Algebra von Prof.Dr.Sven Beuchler 18.April 2012 Gliederung 1 2 3 Mathematische Beschreibung von naturwissenschaftlich-technischen Problemstellungen führt häufig

Mehr

11. Primfaktorzerlegungen

11. Primfaktorzerlegungen 78 Andreas Gathmann 11 Primfaktorzerlegungen Euch ist sicher aus der Schule bekannt, dass sich jede positive ganze Zahl a als Produkt a = p 1 p n von Primzahlen schreiben lässt, und dass diese Darstellung

Mehr

Klausur Mathematik 1 für Wirtschaftswissenschaftler

Klausur Mathematik 1 für Wirtschaftswissenschaftler Klausur Mathematik 1 für Wirtschaftswissenschaftler WS 2003/04 Prof. Dr. Matthias Blonski Man beachte folgende Hinweise: 1. Die Klausur umfaßt 5 Aufgaben (jeweils auf einem Blatt) zuzüglich einer Lösungsliste,

Mehr

Lösungen zum 3. Aufgabenblatt

Lösungen zum 3. Aufgabenblatt SS, Lineare Algebra Die Lösungen wurden erstellt von: Isabel Voigt, Vanessa Lamm und Matthias Rehder Hinweis: Eine Liste der zur Bearbeitung verwendeten Literatur ist unter www.mathematiwelt.com aufrufbar.

Mehr

3 Lineare Differentialgleichungen

3 Lineare Differentialgleichungen 3 Lineare Differentialgleichungen In diesem Kapitel behandeln wir die allgemeine Theorie linearer Differentialgleichungen Sie werden zahlreiche Parallelen zur Theorie linearer Gleichungssysteme feststellen,

Mehr

Seminar Analysis Konvexe Funktionen und einige wichtige Ungleichungen

Seminar Analysis Konvexe Funktionen und einige wichtige Ungleichungen Seminar Analysis Konvexe Funktionen und einige wichtige Ungleichungen Michael Schaeer 3.04.03 Abstract This seminar is about convex functions and several imortant ineualities. At the beginning the term

Mehr

Multivariate Analysis

Multivariate Analysis Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle

Mehr

Ein Buch. Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler

Ein Buch. Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler Ein Buch Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler (Aber bei der Mathematik ein bisschen aufpassen!) 4 Extremstellen

Mehr

18 Höhere Ableitungen und Taylorformel

18 Höhere Ableitungen und Taylorformel 8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a

Mehr