Die Lagrange-duale Funktion

Größe: px
Ab Seite anzeigen:

Download "Die Lagrange-duale Funktion"

Transkript

1 Die Lagrange-duale Funktion Gregor Leimcke 21. April Die Lagrangefunktion Wir betrachten das allgemeine Optimierungsproblem wobei minimiere f 0 über D sodass f i 0, i = 1,..., m 1.1 D = h i = 0, i = 1,..., p, m dom f i i=0 p dom h i die Grundmenge der Optimierungsaufgabe ist. Wir nehmen an, dass die Grundmenge D nicht leer ist. f 0 : R n R heißt Zielfunktion von 1.1. Die Ungleichungen f i 0 für i = 1,..., m mit f i : R n R heißen Ungleichungsnebenbedingungen. Die Gleichungen h i = 0 für i = 1,..., p mit h i : R n R heißen Gleichungsnebenbedingungen. Desweiteren heißt X = D : f i 0, i = 1,..., m, h i = 0, i = 1,..., p} zulässige Menge und ein X zulässiger Punkt. Das Problem 1.1 heißt zulässig, wenn X und sonst unzulässig. Der Optimalwert p des Optimierungsproblems 1.1 ist definiert durch p = inff 0 : f i 0, i = 1,..., m, h i = 0, i = 1,..., p}. p kann auch die Werte ± annehmen. p = + falls das Problem 1.1 unzulässig. Ist p =, so heißt 1.1 unbeschränkt. Definition 1.1 Die Funktion L : R n R m R p R mit L, λ, ν = f 0 + λ i f i + ν i h i 1.2 heißt die zu 1.1 gehörende Lagrangefunktion mit dom L = D R m R p. λ i und ν i nennt man Lagrange-Multplikator bzgl. der i-ten Ungleichungsnebenbedingung f i 0 bzw. der i-ten Gleichungsnebenbedingung h i = 0. Die Vektoren λ und ν werden duale Variablen oder Lagrange-Multiplikator- Vektoren des Problems 1.1 genannt. 1

2 Gregor Leimcke Lagrange-duale Funktion 2 2 Die Lagrange-duale Funktion Definition 2.1 Die Funktion g : R m R p R mit gλ, ν = inf L, λ, ν = inf f 0 + λ i f i + D D heißt die Lagrange-duale Funktion oder nur duale Funktion. ν i h i Bemerkung 2.2 a Die Lagrange-duale Funktion g ist der Minimalwert der Lagrangefunktion über D für λ R m, ν R p. b Wenn die Lagrangefunktion in nach unten unbeschränkt ist, dann nimmt die duale Funktion den Wert an, d. h. g ist nicht notwendig reellwertig. Der wesentliche Definitionsbereich der dualen Funktion ist somit dom g = λ, ν R m R p : gλ, ν > }. c Die duale Funktion ist im Allgemeinen nicht differenzierbar. d Die duale Funktion ist konkav, da sie das punktweise Infimum von einer Familie von affin-linearen Funktionen von λ,ν ist. 3 Untere Schranken des Optimalwertes Die duale Funktion liefert untere Schranken für den Optimalwert p des Problems 1.1: Satz 3.1 Für alle λ R m mit λ 0 und ν R p gilt gλ, ν p. 3.1 Beweis: Sei D ein zulässiger Punkt für das Problem 1.1, d. h. f i 0 für alle i = 1,..., m und h i = 0 für alle i = 1,..., p, und λ 0. Dann haben wir λ i f i + ν i h i 0, da jeder Term in der ersten Summe nicht positiv ist und jeder Term in der zweiten Summe Null ist, und folglich Also L, λ, ν = f 0 + λ i f i + ν i h i f 0. gλ, ν = inf D L, λ, ν L, λ, ν f 0. Da gλ, ν f 0 für jeden zulässigen Punkt gilt, folgt daraus die Ungleichung 3.1.

3 Gregor Leimcke Lagrange-duale Funktion 3 Bemerkung 3.2 a Für gλ, ν = liefert die Ungleichung 3.1 keine neuen Erkenntnisse. b Die duale Funktion liefert nur eine nicht triviale untere Schranke für p, wenn λ 0 und λ, ν dom g, d. h. gλ, ν >. Definition 3.3 Ein Paar λ, ν dom g mit λ 0 heißt dual zulässig. 4 Interpretation als lineare Approimation In diesem Abschnitt sehen wir, dass die Lagrangefunktion als lineare Approimation des Problems 1.1 interpretiert werden kann. Zurerst schreiben wir das ursprüngliche Problem 1.1 als ein Optimierungsproblem ohne Nebenbedingungen: minimiere f 0 + I f i + I 0 h i über D, 4.1 wobei I : R R die Indikatorfuntkion für nichtpositive Zahlen ist, I u = 0 u 0 u > 0, und I 0 : R R die Indikatorfunktion für 0} ist, I 0 u = 0 u = 0 u 0. Jetzt ersetzen wir in 4.1 die Indikatorfuntkion I u mit der linearen Funktion λ i u wobei λ i 0 und die Indikatorfunktion I 0 u mit ν i u. Aus der Zielfunktion wird so die Lagrangefunktion L, λ, ν und die duale Funktion gλ, ν ist der Optimalswert des Problems minimiere L, λ, ν = f 0 + λ i f i + ν i h i über D. Offensichtlich ist die Approimation der Indikatorfunktion I u mit der linearen Funktion λ i u eher schlecht. Aber die lineare Funktion ist immerhin eine untere Schätzfunktion für die Indikatorfunktion. Da λ i u I u und ν i u I 0 u für alle u, sehen wir sofort, dass die duale Funktion eine untere Schranke für den Optimalwert des ursprünglichen Problems 1.1 liefert.

4 Gregor Leimcke Lagrange-duale Funktion 4 5 Beispiele In diesem Abschnitt sind Beispiele zu finden, bei denen die Lagrange-duale Funktion eplizit angegeben werden kann. Beispiel 5.1 Kleinste-Quadrat-Lösung eines LGS Wir betrachten das Problem minimiere T über R n 5.1 sodass A = b, mit A R p n und b R p. Dieses Problem hat keine Ungleichungsnebenbedingungen und p lineare Gleichungsnebenbedingungen. Die Lagrangefunktion ist L, ν = T + ν T A b mit dem Definitionsbereich R n R p. Die duale Funktion ist gν = inf L, ν. Da L, ν eine glm. konvee quadratische Funktion von ist, können wir das Minimum mit der Optimalitätsbedingung L, ν = 2 + A T ν = 0 ausrechnen, was = 1 2 AT ν liefert. Folglich ist die duale Funktion gν = L, ν = 1 4 νt AA T ν + ν T 1 2 AAT ν b = 1 4 νt AA T ν b T ν, welche ein konkave quadratische Funktion mit dom g = ν R p } ist. Wegen Satz 3.1 gilt 1 4 νt AA T ν b T ν inf T : A = b} ν R p. Beispiel 5.2 LP in Normalform Wir betrachten ein lineares Programm in Normalform minimiere c T über R n sodass A = b 5.2 und 0, mit A R p n und b R p. Dieses Problem hat die Ungleichungsnebenbedingungen f i = i für alle i = 1,..., n. Um die Lagrangefunktion zu bilden, führen wir Multiplikatoren λ i für die n Ungleichungsnebenbendingungen und Multiplikatoren ν i für die p Gleichungsnebenbendingungen ein und erhalten L, λ, ν = c T λ i i + ν T A b = b T ν + c + A T ν λ T.

5 Gregor Leimcke Lagrange-duale Funktion 5 Die duale Funktion ist gλ, ν = inf R n L, λ, ν = bt ν + inf R nc + AT ν λ T, welche einfach eplizit bestimmt werden kann, da eine lineare Funktion nur nach unten beschränkt ist, wenn sie identisch Null ist. Folglich ist gλ, ν = außer, wenn c + A T ν λ = 0; in dem Fall ist gλ, ν = b T ν. Also gλ, ν = b T ν mit dom g = λ, ν R m R p : A T ν λ + c = 0}. Die duale Funktion g ist also nur in einem bestimmten affin-linearen Unterraum von R m R p endlich. 6 Die Lagrange-duale Funktion und die konjugierte Funktion Zwischen der Lagrange-dualen Funktion und der konjugierten Funktion besteht ein enger Zusammenhang. Zur Wiederholung: Die konjugierte Funktion f der Funktion f : R n R ist definiert durch f y = sup y T f. dom f Um einen einfachen Zusammenhang zwischen der konjugierten und der Lagrangedualen Funktion zu sehen, betrachten wir das sinnfreie Problem minimiere f sodass = 0. Dieses Problem hat die Lagrangefunktion und die duale Funktion gν = inf L, ν = f + ν T f + ν T = sup ν T f = f ν. Allgemeiner und nützlicher ist folgendes Optimierungsproblem: minimiere f 0 über R n sodass A b 6.1 und C = d mit A R m n, C R p n, b R m und d R p. Mit Hilfe der konjugierten Funktion f können wir die duale Funktion des Problems 6.1 wie folgt schreiben: gλ, ν = inf f0 + λ T A b + ν T C d = b T λ d T ν + inf f0 + A T λ + C T ν T = b T λ d T ν f 0 A T λ C T ν. 6.2

6 Gregor Leimcke Lagrange-duale Funktion 6 Der Definitonsbereich von g folgt aus dem Defintionsbereich von f 0 : dom g = λ, ν R m R p : A T λ C T ν dom f 0 }. Nun folgen einige Beispiele zur Veranschaulichung. Beispiel 6.1 Normminimierung mit Gleichungsbeschränkung Wir betrachten das Problem minimiere über R n sodass A = b, 6.3 mit A R m n, b R m und wobei eine beliebige Norm ist. Wir wissen, dass die konjugierte Funktion von f 0 = folgende Gestalt hat: f0 0 y 1 y = sonst Indikatorfunktion der dualen Norm bzgl. des Einheitskreises. Aus 6.2 folgt, dass die duale Funktion des Problems 6.3 gν = b T ν f 0 A T ν = b T ν mit dom g = ν R m : A T ν 1} ist. Beispiel 6.2 Entropiemaimierung Wir betrachten das Entropiemaimierungsproblem minimiere f 0 = i ln i über R n sodass A b 6.4 und 1 T = 1 mit A R m n, b R m und wobei dom f 0 = R n ++ und 1 := 1,..., 1} R n. Wir wissen, dass die konjugierte Funktion von der negativen Entropiefunktion u ln u mit skalarer Variable u e v 1 ist. Da f 0 eine Summe von negativen Entropiefunktionen mit verschiedenen Variablen ist, ergibt sich die konjugierte Funktion f0 y = e yi 1, mit dom f0 = R n. Aus 6.2 folgt, dass die duale Funktion für das Problem 6.4 folgende Gestalt hat: gλ, ν = b T λ ν f0 A T λ 1ν = b T λ ν e at i λ ν 1 wobei a i die i-te Spalte von A ist. n = b T λ ν e ν 1 e at i λ,

7 Gregor Leimcke Lagrange-duale Funktion 7 Beispiel 6.3 Minimales Volumen eines Ellipsoids Wir betrachten das Problem mit a i R n minimiere f 0 X = log det X 1 sodass a T i Xa i 1, i = 1,..., m 6.5 i = 1,..., m und wobei dom f 0 = X R n n : X = X T, X 0} =: S n ++. Das Problem 6.5 hat eine einfache geometrische Interpretation. Zu jedem X S n ++ kann man ein Ellipsoid E X = z R n : z T Xz 1} mit Mittelpunkt im Ursprung konstruieren. Das Volumen des Ellipsoids ist proportional zu det X Also ist die Zielfunktion von 6.5, bis auf einen Faktor von zwei, der Logarithmus des Volumens von E X. Die Nebenbedingungen des Problems 6.5 sind, dass a i E X. Folglich besteht das Problem 6.5 darin, dass minimale Volumen eines Ellipsoids mit Mittelpunkt im Ursprung zu bestimmen, der die Punkte a 1,..., a m enthält. Die Ungleichungsnebenbedingungen im Problem 6.5 sind affin-linear; Sie können auch als tr a i a T i X 1, i = 1,..., m dargestellt werden. Wir wissen, dass die konjugierte Funktion von f 0 folgende Gestalt hat: f0 ln det Y 1 n Y S n ++ Y = sonst. Durch Anwendung von 6.2 auf das Problem 6.5 ergibt sich die duale Funktion gλ = ln det X 1 + λ i tr ai a T i X 1 Also inf X S n ++ = e T λ + inf X S n ++ = e T λ f 0 m ln det X 1 + tr λ i a i a T i X λ i a i a T i 1 e T λ ln det λ i a i a T i n λ i a i a T i 0 = sonst ln det λ i a i a T i + n e T λ λ i a i a T i 0 = sonst mit dom g = λ R m : m gλ = ln det λ i a i a T i + n e T λ λ i a i a T i 0}.

Das Lagrange-duale Problem

Das Lagrange-duale Problem Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h

Mehr

Geometrische Interpretation

Geometrische Interpretation Geometrische Interpretation Stefanie Riedel 10. Mai 2010 1 Starke und schwache Dualität über Wertemengen Wir betrachten eine einfache geometrische Interpretation dualer Funktionen aus der Menge G: G =

Mehr

Die Lagrange - duale Optimierungsaufgabe und ihre geometrische Interpretation

Die Lagrange - duale Optimierungsaufgabe und ihre geometrische Interpretation und ihre geometrische Interpretation Vortrag von Elisabeth Zschorlich 09.12.2008 Inhaltsverzeichnis 1 Die Lagrange - duale Optimierungsaufgabe 2 1.1 Einführung...................................... 2 1.2

Mehr

Optimalitätsbedingungen

Optimalitätsbedingungen Optimalitätsbedingungen Nadja Irmscher 28. Mai 2010 1 Nachweis von Suboptimalität und Abbruchkriterien Über das gegebene Programm minimiere f 0 (x) über x D sodass f i (x) 0, i = 1,..., m h i (x) = 0,

Mehr

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sandro Grunert WS 08/09 Seminar Optimierung Technische Universität Chemnitz 1 Inhaltsverzeichnis 0 Grundlegende Situation

Mehr

4.4 Quadratische Optimierungsprobleme

4.4 Quadratische Optimierungsprobleme 4.4 Quadratische Optimierungsprobleme 1. Quadratische Programme (QP) 1 2 xt P x + q T x + r s.t. Gx h (4.34) wobei P S n +, G R (m n) und A R (p n) Zielfunktion (ZF) ist (konvex) quadratisch Nebenbedingungen

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sandro Grunert WS 08/09 Seminar Optimierung Technische Universität Chemnitz Inhaltsverzeichnis 2 Inhaltsverzeichnis 0 Grundlegende

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Optimierung. Vorlesung 08

Optimierung. Vorlesung 08 Optimierung Vorlesung 08 Heute Dualität Ganzzahligkeit Optimierung der Vorlesung durch Evaluierung 2 Das duale LP Das primale LP Maximiere c T x unter Ax b, x R d 0. wird zu dem dualen LP Minimiere b T

Mehr

Zahlen und metrische Räume

Zahlen und metrische Räume Zahlen und metrische Räume Natürliche Zahlen : Die natürlichen Zahlen sind die grundlegendste Zahlenmenge, da man diese Menge für das einfache Zählen verwendet. N = {1, 2, 3, 4,...} bzw. N 0 = {0, 1, 2,

Mehr

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis Innere-Punkte-Verfahren 3 1 Theoretische Grundlagen 3 1.1 Die KKT-Bedingungen........................... 3 1.2 Der zentrale Pfad.............................. 4

Mehr

6. Einführung 43. gilt. Dann soll also A B x B = b eindeutig lösbar sein, also A B vollen Rang haben, d. h. invertierbar (regulär) sein.

6. Einführung 43. gilt. Dann soll also A B x B = b eindeutig lösbar sein, also A B vollen Rang haben, d. h. invertierbar (regulär) sein. 6. Einführung 43 und aus der linearen Unabhängigkeit der (a i ) i I(x) folgt y i = z i auch für i I(x). Insgesamt gilt also y = z, d. h., nach Definition 6.9 ist x eine Ecke von P. Beachte: Der Koordinatenvektor

Mehr

Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1)

Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Anna Raaz 21.12.2007 Einführung Die Relaxierung von Lagrange wird in der stochastischen Optimierung meistens

Mehr

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2 Kapitel 12 Lagrange-Funktion Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28 Optimierung unter Nebenbedingungen Aufgabe: Berechne die Extrema der Funktion unter der Nebenbedingung

Mehr

Innere-Punkt-Methoden

Innere-Punkt-Methoden Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction

Mehr

Optimierung unter Nebenbedingungen

Optimierung unter Nebenbedingungen Optimierung unter Nebenbedingungen Kapitel 7: Optimierung unter Nebenbedingungen Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 1. Juli 2009 1 / 18 7.1 Bemerkung

Mehr

1 0, x C X (A). = 1 χ A(x).

1 0, x C X (A). = 1 χ A(x). Aufgabe 1 a) Wir müssen nur zeigen, dass χ A B (x) = χ A (x) χ B (x) für alle x X gilt. (Dass χ A χ B Abbildung von X in {0, 1} ist, ist klar.) Sei also x X beliebig. Fall 1: x A B. Dies bedeutet x A und

Mehr

Seminar Optimierung - Approximation and fitting. Christian Bretzke

Seminar Optimierung - Approximation and fitting. Christian Bretzke Seminar Optimierung - Approximation and fitting Christian Bretzke 1 Inhaltsverzeichnis 1 Norm Approximation 3 1.1 Verschiedene Interpretation.................................. 3 1.2 Gewichtete NAP........................................

Mehr

KAPITEL 10 DIE INNERE-PUNKTE-METHODE

KAPITEL 10 DIE INNERE-PUNKTE-METHODE KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach

Mehr

Übung 5, Analytische Optimierung

Übung 5, Analytische Optimierung Übung 5, 5.7.2011 Analytische Optimierung Aufgabe 5.1 Bei der Herstellung von Konserven werden für Boden und Deckel bzw. für den Konservenmantel verschiedene Materialien verwendet, die g 1 = bzw. g 2 =

Mehr

Konvexe Optimierungsprobleme

Konvexe Optimierungsprobleme von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel

Mehr

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist: Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,

Mehr

Sattelpunkt-Interpretation

Sattelpunkt-Interpretation Sattelpunkt-Interpretation Vinzenz Lang 14. Mai 2010 Die Sattelpunkt-Interpretation befasst sich mit der Interpretation der Lagrange- Dualität. Sie wird im weiteren Verlauf des Seminars nicht noch einmal

Mehr

Nachklausur zur Analysis 2, SoSe 2017

Nachklausur zur Analysis 2, SoSe 2017 BERGISCHE UNIVERSITÄT WUPPERTAL 18.9.17 Fakultät 4 - Mathematik und Naturwissenschaften Prof. N. V. Shcherbina Dr. T. P. Pawlaschyk www.kana.uni-wuppertal.de Nachklausur zur Analysis 2, SoSe 217 Aufgabe

Mehr

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden

Mehr

Technische Universität München. Grundlagen der konvexen Optimierung

Technische Universität München. Grundlagen der konvexen Optimierung Technische Universität München Fakultät für Mathematik Lehrstuhl für Mathematische Optimierung Grundlagen der konveen Optimierung Michael Ulbrich April 2012 Gliederung der Vorlesung 1. Einführung Konvee

Mehr

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 markus.sinnl@univie.ac.at http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.

Mehr

Extremwerte von Funktionen mehrerer reeller Variabler

Extremwerte von Funktionen mehrerer reeller Variabler Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein

Mehr

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode 6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,

Mehr

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge ÜBUNGSBLATT 0 LÖSUNGEN MAT/MAT3 ANALYSIS II FRÜHJAHRSSEMESTER 0 PROF DR CAMILLO DE LELLIS Aufgabe Finden Sie für folgende Funktionen jene Punkte im Bildraum, in welchen sie sich lokal umkehren lassen,

Mehr

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende) . Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)

Mehr

6 Metrische Klassifikation der Quadriken

6 Metrische Klassifikation der Quadriken 6 Metrische Klassifikation der Quadriken A Wiederholung von Kap V, 5 Sei A = (a ij ) eine symmetrische n n Matrix. n x 1 q(x) := x t Ax = a ij x i x j, x =. i,j=1 ist dann ein quadratisches Polynom in

Mehr

Die duale Simplexmethode

Die duale Simplexmethode Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen

Mehr

TU Dresden Fachrichtung Mathematik Institut für Numerische Mathematik 1. Dr. M. Herrich SS 2017

TU Dresden Fachrichtung Mathematik Institut für Numerische Mathematik 1. Dr. M. Herrich SS 2017 TU Dresden Fachrichtung Mathematik Institut für Numerische Mathematik Prof. Dr. K. Eppler Institut für Numerische Mathematik Dr. M. Herrich SS 207 Aufgabe Gegeben sei die Funktion f : R 2 R mit Übungen

Mehr

Wirtschaftsmathematik: Mathematische Grundlagen

Wirtschaftsmathematik: Mathematische Grundlagen Wirtschaftsmathematik: Mathematische Grundlagen 1. Zahlen 2. Potenzen und Wurzeln 3. Rechenregeln und Vereinfachungen 4. Ungleichungen 5. Intervalle 6. Beträge 7. Lösen von Gleichungen 8. Logarithmen 9.

Mehr

Zahlen und metrische Räume

Zahlen und metrische Räume Zahlen und metrische Räume Natürliche Zahlen : Die natürlichen Zahlen sind die grundlegendste Zahlenmenge, da man diese Menge für das einfache Zählen verwendet. N = {1, 2, 3, 4,...} Ganze Zahlen : Aus

Mehr

Analysis II 14. Übungsblatt

Analysis II 14. Übungsblatt Jun.-Prof. PD Dr. D. Mugnolo Wintersemester 01/13 F. Stoffers 04. Februar 013 Analysis II 14. Übungsblatt 1. Aufgabe (8 Punkte Man beweise: Die Gleichung z 3 + z + xy = 1 besitzt für jedes (x, y R genau

Mehr

Optimierung. Vorlesung 02

Optimierung. Vorlesung 02 Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j

Mehr

Mathematik 2 für Wirtschaftsinformatik

Mathematik 2 für Wirtschaftsinformatik für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar

Mehr

11 Optimierung von Funktionen einer Veränderlichen

11 Optimierung von Funktionen einer Veränderlichen 11 Optimierung von Funktionen einer Veränderlichen In diesem Kapitel werden die bis hier behandelten Grundlagen der Analysis genutzt, um Methoden aus der Optimierungstheorie für eindimensionale Entscheidungsmengen

Mehr

3.1 Sukzessive Minima und reduzierte Basen: Resultate

3.1 Sukzessive Minima und reduzierte Basen: Resultate Gitter und Codes c Rudolf Scharlau 4. Juni 2009 202 3.1 Sukzessive Minima und reduzierte Basen: Resultate In diesem Abschnitt behandeln wir die Existenz von kurzen Basen, das sind Basen eines Gitters,

Mehr

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen 10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie

Mehr

Dualität bei konvexer Optimierung

Dualität bei konvexer Optimierung Dualität bei konvexer Optimierung Seminar zur Numerik I im SS 2016 Laslo Hunhold 10. Mai 2016 Ausarbeitung zum Seminarvortrag vom 2. Mai 2016 Mathematisches Institut Mathematisch-Naturwissenschaftliche

Mehr

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze

Mehr

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten

Mehr

Mathematik für Wirtschaftswissenschaftler

Mathematik für Wirtschaftswissenschaftler Mathematik für Wirtschaftswissenschaftler Yves Schneider Universität Luzern Frühjahr 2016 Repetition Kapitel 1 bis 3 2 / 54 Repetition Kapitel 1 bis 3 Ausgewählte Themen Kapitel 1 Ausgewählte Themen Kapitel

Mehr

KAPITEL 3. Konvexe Funktionen

KAPITEL 3. Konvexe Funktionen KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn

Mehr

Kuhn-Tucker Bedingung

Kuhn-Tucker Bedingung Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,

Mehr

Inhalt der Vorlesung. 1 Einführung 2 Konvexe Mengen 3 Konvexe Funktionen 4 Konvexe Optimierung 5 Lösungsverfahren (6 Anwendungen)

Inhalt der Vorlesung. 1 Einführung 2 Konvexe Mengen 3 Konvexe Funktionen 4 Konvexe Optimierung 5 Lösungsverfahren (6 Anwendungen) Inhalt der Vorlesung 1 Einführung 2 Konvexe Mengen 3 Konvexe Funktionen 4 Konvexe Optimierung 5 Lösungsverfahren (6 Anwendungen) 1 S-M. Grad - Optimierung II / Universität Leipzig, SS2018 Beispiel 1.1

Mehr

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach

Mehr

Übungsblatt

Übungsblatt Übungsblatt 4 5..9 Mehrdimensionale Differentialrechnung ) Stellen Sie den Gradientenvektor für folgende Funktionen so auf, daß Sie möglichst alle Faktoren, die allen Vektorelementen gemeinsam sind, in

Mehr

Inhaltsübersicht für heute:

Inhaltsübersicht für heute: Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen Relaxation Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen

Mehr

Probeklausur zur Analysis 2, SoSe 2017

Probeklausur zur Analysis 2, SoSe 2017 BERGISCHE UNIVERSITÄT WUPPERTAL 21717 Fakultät 4 - Mathematik und Naturwissenschaften Prof N V Shcherbina Dr T P Pawlaschyk wwwkanauni-wuppertalde Probeklausur zur Analysis 2, SoSe 217 Hinweis Die Lösungen

Mehr

4 Holomorphie-Konvexität. Definition Satz. 42 Kapitel 2 Holomorphiegebiete

4 Holomorphie-Konvexität. Definition Satz. 42 Kapitel 2 Holomorphiegebiete 42 Kapitel 2 Holomorphiegebiete 4 Holomorphie-Konvexität Wir wollen weitere Beziehungen zwischen Pseudokonvexität und affiner Konvexität untersuchen. Zunächst stellen wir einige Eigenschaften konvexer

Mehr

Eigenschaften von LPs

Eigenschaften von LPs 2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört

Mehr

2.4 Verallgemeinerte Ungleichungen

2.4 Verallgemeinerte Ungleichungen 2.4 Verallgemeinerte Ungleichungen 2.4.1 Eigentliche Kegel und verallgemeinerte Ungleichungen Ein Kegel K R heißt eigentlicher Kegel, wenn er die folgenden Bedingungen erfüllt: K ist konvex K ist abgeschlossen

Mehr

6.6 Stetige Funktionen in mehreren Variablen

6.6 Stetige Funktionen in mehreren Variablen 6.6 Stetige Funktionen in mehreren Variablen Das Näherungs-Kriterium zur Überprüfung der Stetigkeit in einem Punkt a besagte, daß man zu jedem positiven ein positives finden muß, so daß für alle Punkte,

Mehr

6 Lineare Gleichungssysteme

6 Lineare Gleichungssysteme 6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α

Mehr

Optimale Steuerung 1 Prozessoptimierung 1

Optimale Steuerung 1 Prozessoptimierung 1 Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung

Mehr

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005 Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung

Mehr

3.1. Existenzsatz und Struktur der Lösungsmenge

3.1. Existenzsatz und Struktur der Lösungsmenge 3. EXISTENZ UND DUALITÄT 3.1. Existenzsatz und Struktur der Lösungsmenge Nach dem Satz von Weierstraß besitzt eine lineare Funktion auf einem Polytop stets ein Minimum und ein Maximum. Im allgemeinen Fall

Mehr

Lineare Optimierungsaufgaben - eine Einführung

Lineare Optimierungsaufgaben - eine Einführung Lineare Optimierungsaufgaben - eine Einführung Aufgabenstellung, Beispiele, graphisches Lösen und Trafo auf Normalform Vortragsskript von Lorenz Fischer Operations Research bedeutet die Suche nach einer

Mehr

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,

Mehr

1.6 Implizite Funktionen

1.6 Implizite Funktionen 1 1.6 Implizite Funktionen Wir werden uns jetzt mit nichtlinearen Gleichungen beschäftigen, f(x) = 0, wobei f = (f 1,..., f m ) stetig differenzierbar auf einem Gebiet G R n und m < n ist. Dann hat man

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Nichtlineare Optimierung

Nichtlineare Optimierung Nichtlineare Optimierung Roland Griesse Numerische Mathematik Chemnitzer Skiseminar Gerlosberg, 07. 14. März 2009 Gliederung Konvexe Optimierung 1 Konvexe Optimierung Bedeutung Beispiele Charakterisierung

Mehr

Kuhn-Tucker-Bedingung

Kuhn-Tucker-Bedingung Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann

Mehr

Kuhn-Tucker-Bedingung

Kuhn-Tucker-Bedingung Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann

Mehr

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1 Vortrag: Lineare Gleichungen am 11. März 2009 von Maximilian Wahner Technische Universität Dortmund Fakultät für Mathematik Proseminar Lineare

Mehr

(3D-)Extrema unter Nebenbedingungen. Problemstellung (lokale Optimierung)

(3D-)Extrema unter Nebenbedingungen. Problemstellung (lokale Optimierung) (3D-)Extrema unter Nebenbedingungen Wir beschränken uns wieder (meistens) auf Funktionen von zwei Variablen x, y. Bei drei oder mehr Variablen x 1,..., x n sind die gleichen Techniken analog anwendbar,

Mehr

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden

Mehr

1. Hausaufgabenblatt (16.04./ )

1. Hausaufgabenblatt (16.04./ ) Lehrstuhl Ingenieurmathematik Modul: (Wirtschaftsingenieurwesen/Betriebswirtschaftslehre/Informatik) Sommersemester 2014 1. Hausaufgabenblatt (16.04./23.04.2015) Aufgabe H 1.1 Lösen Sie die linearen Gleichungssysteme

Mehr

Affine Geometrie (Einfachere, konstruktive Version)

Affine Geometrie (Einfachere, konstruktive Version) Affine Geometrie (Einfachere, konstruktive Version) Def. Affiner Raum der Dimension n über Körper K ist nach Definition K n. Bemerkung. Man könnte Theorie von affinen Raumen auch axiomatisch aufbauen mit

Mehr

Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf )

Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf ) Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 65 (das agraökonomische Schaf ) Sascha Kurz Jörg Rambau 25 November 2009 2 66 Die Karush-Kuhn-Tucker-Methode Die Erkenntnisse

Mehr

5.4 Basis, Lineare Abhängigkeit

5.4 Basis, Lineare Abhängigkeit die allgemeine Lösung des homogenen Systems. Wieder ist 2 0 L i = L h + 0 1 Wir fassen noch einmal zusammen: Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbekannten hat n Rang(A)

Mehr

z 2 + 2z + 10 = 0 = 2 ± 36 2 Aufgabe 2 (Lineares Gleichungssystem) Sei die reelle 3 4 Matrix

z 2 + 2z + 10 = 0 = 2 ± 36 2 Aufgabe 2 (Lineares Gleichungssystem) Sei die reelle 3 4 Matrix Mathematik für Wirtschaftswissenschaftler im WS 03/04 Lösungsvorschläge zur Klausur im WS 03/04 Aufgabe (Komplexe Zahlen (4 Punkte a Berechnen Sie das Produkt der beiden komplexen Zahlen + i und 3 + 4i

Mehr

Wirtschaftsmathematik II

Wirtschaftsmathematik II WMS: Wirtschaftsmathematik 2 :: WS 2009/10 Wirtschaftsmathematik II Reinhard Ullrich http://homepage.univie.ac.at/reinhard.ullrich Basierend auf Folien von Dr. Ivana Ljubic October 11, 2009 1 Funktionen

Mehr

Gerade, ungerade oder weder noch? Algebraische und graphische Beweise. 4-E1 Vorkurs, Mathematik

Gerade, ungerade oder weder noch? Algebraische und graphische Beweise. 4-E1 Vorkurs, Mathematik Gerade, ungerade oder weder noch? Algebraische und graphische Beweise 4-E1 Symmetrie einer Funktion: Aufgabe 3 Bestimmen Sie algebraisch und graphisch, ob die Funktionen gerade oder ungerade sind, oder

Mehr

Lagrange-Multiplikatoren

Lagrange-Multiplikatoren Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i

Mehr

Lösungen der Aufgaben zu Abschnitt 5.4

Lösungen der Aufgaben zu Abschnitt 5.4 A Filler: Elementare Lineare Algebra Lösungen zu Abschnitt 54 Lösungen der Aufgaben zu Abschnitt 54 B ist linear unabhängig, wenn die Vektorgleichung ( ) ( ) ( ) ( ) 456 λ + λ + λ = bzw das LGS λ +4λ +λ

Mehr

Wirtschaftsmathematik Formelsammlung

Wirtschaftsmathematik Formelsammlung Wirtschaftsmathematik Formelsammlung Binomische Formeln Stand März 2019 (a + b) 2 = a 2 + 2ab + b 2 (a b) 2 = a 2 2ab + b 2 (a + b) (a b) = a 2 b 2 Fakultät (Faktorielle) n! = 1 2 3 4 (n 1) n Intervalle

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte Teschl/Teschl 4. Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x 0, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

1. EINFÜHRUNG INS STATE-PRICING 1

1. EINFÜHRUNG INS STATE-PRICING 1 1. EINFÜHRUNG INS STATE-PRICING 1 1. Einführung ins State-Pricing In diesem Kapitel betrachten wir eine Periode. Das heisst, wir können nur zu den Zeitpunkten 0 und 1 handeln. Im weiteren arbeiten wir

Mehr

(a), für i = 1,..., n.

(a), für i = 1,..., n. .4 Extremwerte Definition Sei M R n eine Teilmenge, f : M R stetig, a M ein Punkt. f hat in a auf M ein relatives (oder lokales) Maximum bzw. ein relatives (oder lokales) Minimum, wenn es eine offene Umgebung

Mehr

10 Extremwerte mit Nebenbedingungen

10 Extremwerte mit Nebenbedingungen 10 Extremwerte mit Nebenbedingungen 49 10 Extremwerte mit Nebenbedingungen Wir betrachten nun Extremwertaufgaben, bei denen nach dem Extremwert einer fx 1,, x n gesucht wird, aber die Menge der zulässigen

Mehr

Institut für Analysis WiSe 2018/2019 Prof. Dr. Dirk Hundertmark Dr. Markus Lange. Analysis 1. Aufgabenzettel 4

Institut für Analysis WiSe 2018/2019 Prof. Dr. Dirk Hundertmark Dr. Markus Lange. Analysis 1. Aufgabenzettel 4 Institut für Analysis WiSe 2018/2019 Prof. Dr. Dirk Hundertmark 08.11.2018 Dr. Markus Lange Analysis 1 Aufgabenzettel 4 Abgabe bis 14. November 2018, 19:00 Uhr Erinnerung: Die Anmeldung für den Übungsschein

Mehr

Bericht zur Mathematischen Zulassungsprüfung im Mai 2013

Bericht zur Mathematischen Zulassungsprüfung im Mai 2013 Bericht zur Mathematischen Zulassungsprüfung im Mai 3 Heinz-Willi Goelden, Wolfgang Lauf, Martin Pohl Am. Mai 3 fand die Mathematische Zulassungsprüfung statt. Die Prüfung bestand aus einer 9-minütigen

Mehr

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie

Mehr

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit ME Lineare Algebra HT 2008 99 5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 5.1 Ein Beispiel zur Motivation Als einfachstes Beispiel eines dynamischen Systems untersuchen wir folgendes Differentialgleichungssystem

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrange.tex,v 1.6 2012/11/06 14:26:21 hk Exp hk $ 2 Extrema unter Nebenbedingungen 2.1 Restringierte Optimierungsaufgaben Nachdem wir jetzt die bereits bekannten Techniken zur Bestimmung der lokalen

Mehr

Elemente in Φ werden Wurzeln genannt. Bemerkung 3.2. (a) Zu einem Wurzelsystem können wir immer eine Spiegelungsgruppe definieren

Elemente in Φ werden Wurzeln genannt. Bemerkung 3.2. (a) Zu einem Wurzelsystem können wir immer eine Spiegelungsgruppe definieren 3. Wurzelsysteme Als erstes führen wir den Begriff eines Wurzelsystems ein. Definition 3.1 (Wurzelsystem). Eine endliche Teilmenge Φ V {0} heißt Wurzelsystem falls gilt: (R1) Φ Rα = {±α} für α Φ, (R2)

Mehr

2 Funktionen in mehreren Variablen: Differentiation

2 Funktionen in mehreren Variablen: Differentiation Satz 2. (Richtungsableitung) Für jede auf der offenen Menge D R n total differenzierbaren Funktion f (insbesondere für f C 1 (D, R) und für jeden Vektor v R n, v 0, gilt: n v f(x) = f(x) v = f xi (x)v

Mehr

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung

Mehr

Extremalprobleme mit Nebenbedingungen

Extremalprobleme mit Nebenbedingungen Extremalprobleme mit Nebenbedingungen In diesem Abschnitt untersuchen wir Probleme der folgenden Form: g(x 0 ) = inf{g(x) : x Ω, f(x) = 0}, (x 0 Ω, f(x 0 ) = 0). (1) Hierbei sind Ω eine offene Menge des

Mehr