Die Lagrange-duale Funktion
|
|
- Norbert Geiger
- vor 6 Jahren
- Abrufe
Transkript
1 Die Lagrange-duale Funktion Gregor Leimcke 21. April Die Lagrangefunktion Wir betrachten das allgemeine Optimierungsproblem wobei minimiere f 0 über D sodass f i 0, i = 1,..., m 1.1 D = h i = 0, i = 1,..., p, m dom f i i=0 p dom h i die Grundmenge der Optimierungsaufgabe ist. Wir nehmen an, dass die Grundmenge D nicht leer ist. f 0 : R n R heißt Zielfunktion von 1.1. Die Ungleichungen f i 0 für i = 1,..., m mit f i : R n R heißen Ungleichungsnebenbedingungen. Die Gleichungen h i = 0 für i = 1,..., p mit h i : R n R heißen Gleichungsnebenbedingungen. Desweiteren heißt X = D : f i 0, i = 1,..., m, h i = 0, i = 1,..., p} zulässige Menge und ein X zulässiger Punkt. Das Problem 1.1 heißt zulässig, wenn X und sonst unzulässig. Der Optimalwert p des Optimierungsproblems 1.1 ist definiert durch p = inff 0 : f i 0, i = 1,..., m, h i = 0, i = 1,..., p}. p kann auch die Werte ± annehmen. p = + falls das Problem 1.1 unzulässig. Ist p =, so heißt 1.1 unbeschränkt. Definition 1.1 Die Funktion L : R n R m R p R mit L, λ, ν = f 0 + λ i f i + ν i h i 1.2 heißt die zu 1.1 gehörende Lagrangefunktion mit dom L = D R m R p. λ i und ν i nennt man Lagrange-Multplikator bzgl. der i-ten Ungleichungsnebenbedingung f i 0 bzw. der i-ten Gleichungsnebenbedingung h i = 0. Die Vektoren λ und ν werden duale Variablen oder Lagrange-Multiplikator- Vektoren des Problems 1.1 genannt. 1
2 Gregor Leimcke Lagrange-duale Funktion 2 2 Die Lagrange-duale Funktion Definition 2.1 Die Funktion g : R m R p R mit gλ, ν = inf L, λ, ν = inf f 0 + λ i f i + D D heißt die Lagrange-duale Funktion oder nur duale Funktion. ν i h i Bemerkung 2.2 a Die Lagrange-duale Funktion g ist der Minimalwert der Lagrangefunktion über D für λ R m, ν R p. b Wenn die Lagrangefunktion in nach unten unbeschränkt ist, dann nimmt die duale Funktion den Wert an, d. h. g ist nicht notwendig reellwertig. Der wesentliche Definitionsbereich der dualen Funktion ist somit dom g = λ, ν R m R p : gλ, ν > }. c Die duale Funktion ist im Allgemeinen nicht differenzierbar. d Die duale Funktion ist konkav, da sie das punktweise Infimum von einer Familie von affin-linearen Funktionen von λ,ν ist. 3 Untere Schranken des Optimalwertes Die duale Funktion liefert untere Schranken für den Optimalwert p des Problems 1.1: Satz 3.1 Für alle λ R m mit λ 0 und ν R p gilt gλ, ν p. 3.1 Beweis: Sei D ein zulässiger Punkt für das Problem 1.1, d. h. f i 0 für alle i = 1,..., m und h i = 0 für alle i = 1,..., p, und λ 0. Dann haben wir λ i f i + ν i h i 0, da jeder Term in der ersten Summe nicht positiv ist und jeder Term in der zweiten Summe Null ist, und folglich Also L, λ, ν = f 0 + λ i f i + ν i h i f 0. gλ, ν = inf D L, λ, ν L, λ, ν f 0. Da gλ, ν f 0 für jeden zulässigen Punkt gilt, folgt daraus die Ungleichung 3.1.
3 Gregor Leimcke Lagrange-duale Funktion 3 Bemerkung 3.2 a Für gλ, ν = liefert die Ungleichung 3.1 keine neuen Erkenntnisse. b Die duale Funktion liefert nur eine nicht triviale untere Schranke für p, wenn λ 0 und λ, ν dom g, d. h. gλ, ν >. Definition 3.3 Ein Paar λ, ν dom g mit λ 0 heißt dual zulässig. 4 Interpretation als lineare Approimation In diesem Abschnitt sehen wir, dass die Lagrangefunktion als lineare Approimation des Problems 1.1 interpretiert werden kann. Zurerst schreiben wir das ursprüngliche Problem 1.1 als ein Optimierungsproblem ohne Nebenbedingungen: minimiere f 0 + I f i + I 0 h i über D, 4.1 wobei I : R R die Indikatorfuntkion für nichtpositive Zahlen ist, I u = 0 u 0 u > 0, und I 0 : R R die Indikatorfunktion für 0} ist, I 0 u = 0 u = 0 u 0. Jetzt ersetzen wir in 4.1 die Indikatorfuntkion I u mit der linearen Funktion λ i u wobei λ i 0 und die Indikatorfunktion I 0 u mit ν i u. Aus der Zielfunktion wird so die Lagrangefunktion L, λ, ν und die duale Funktion gλ, ν ist der Optimalswert des Problems minimiere L, λ, ν = f 0 + λ i f i + ν i h i über D. Offensichtlich ist die Approimation der Indikatorfunktion I u mit der linearen Funktion λ i u eher schlecht. Aber die lineare Funktion ist immerhin eine untere Schätzfunktion für die Indikatorfunktion. Da λ i u I u und ν i u I 0 u für alle u, sehen wir sofort, dass die duale Funktion eine untere Schranke für den Optimalwert des ursprünglichen Problems 1.1 liefert.
4 Gregor Leimcke Lagrange-duale Funktion 4 5 Beispiele In diesem Abschnitt sind Beispiele zu finden, bei denen die Lagrange-duale Funktion eplizit angegeben werden kann. Beispiel 5.1 Kleinste-Quadrat-Lösung eines LGS Wir betrachten das Problem minimiere T über R n 5.1 sodass A = b, mit A R p n und b R p. Dieses Problem hat keine Ungleichungsnebenbedingungen und p lineare Gleichungsnebenbedingungen. Die Lagrangefunktion ist L, ν = T + ν T A b mit dem Definitionsbereich R n R p. Die duale Funktion ist gν = inf L, ν. Da L, ν eine glm. konvee quadratische Funktion von ist, können wir das Minimum mit der Optimalitätsbedingung L, ν = 2 + A T ν = 0 ausrechnen, was = 1 2 AT ν liefert. Folglich ist die duale Funktion gν = L, ν = 1 4 νt AA T ν + ν T 1 2 AAT ν b = 1 4 νt AA T ν b T ν, welche ein konkave quadratische Funktion mit dom g = ν R p } ist. Wegen Satz 3.1 gilt 1 4 νt AA T ν b T ν inf T : A = b} ν R p. Beispiel 5.2 LP in Normalform Wir betrachten ein lineares Programm in Normalform minimiere c T über R n sodass A = b 5.2 und 0, mit A R p n und b R p. Dieses Problem hat die Ungleichungsnebenbedingungen f i = i für alle i = 1,..., n. Um die Lagrangefunktion zu bilden, führen wir Multiplikatoren λ i für die n Ungleichungsnebenbendingungen und Multiplikatoren ν i für die p Gleichungsnebenbendingungen ein und erhalten L, λ, ν = c T λ i i + ν T A b = b T ν + c + A T ν λ T.
5 Gregor Leimcke Lagrange-duale Funktion 5 Die duale Funktion ist gλ, ν = inf R n L, λ, ν = bt ν + inf R nc + AT ν λ T, welche einfach eplizit bestimmt werden kann, da eine lineare Funktion nur nach unten beschränkt ist, wenn sie identisch Null ist. Folglich ist gλ, ν = außer, wenn c + A T ν λ = 0; in dem Fall ist gλ, ν = b T ν. Also gλ, ν = b T ν mit dom g = λ, ν R m R p : A T ν λ + c = 0}. Die duale Funktion g ist also nur in einem bestimmten affin-linearen Unterraum von R m R p endlich. 6 Die Lagrange-duale Funktion und die konjugierte Funktion Zwischen der Lagrange-dualen Funktion und der konjugierten Funktion besteht ein enger Zusammenhang. Zur Wiederholung: Die konjugierte Funktion f der Funktion f : R n R ist definiert durch f y = sup y T f. dom f Um einen einfachen Zusammenhang zwischen der konjugierten und der Lagrangedualen Funktion zu sehen, betrachten wir das sinnfreie Problem minimiere f sodass = 0. Dieses Problem hat die Lagrangefunktion und die duale Funktion gν = inf L, ν = f + ν T f + ν T = sup ν T f = f ν. Allgemeiner und nützlicher ist folgendes Optimierungsproblem: minimiere f 0 über R n sodass A b 6.1 und C = d mit A R m n, C R p n, b R m und d R p. Mit Hilfe der konjugierten Funktion f können wir die duale Funktion des Problems 6.1 wie folgt schreiben: gλ, ν = inf f0 + λ T A b + ν T C d = b T λ d T ν + inf f0 + A T λ + C T ν T = b T λ d T ν f 0 A T λ C T ν. 6.2
6 Gregor Leimcke Lagrange-duale Funktion 6 Der Definitonsbereich von g folgt aus dem Defintionsbereich von f 0 : dom g = λ, ν R m R p : A T λ C T ν dom f 0 }. Nun folgen einige Beispiele zur Veranschaulichung. Beispiel 6.1 Normminimierung mit Gleichungsbeschränkung Wir betrachten das Problem minimiere über R n sodass A = b, 6.3 mit A R m n, b R m und wobei eine beliebige Norm ist. Wir wissen, dass die konjugierte Funktion von f 0 = folgende Gestalt hat: f0 0 y 1 y = sonst Indikatorfunktion der dualen Norm bzgl. des Einheitskreises. Aus 6.2 folgt, dass die duale Funktion des Problems 6.3 gν = b T ν f 0 A T ν = b T ν mit dom g = ν R m : A T ν 1} ist. Beispiel 6.2 Entropiemaimierung Wir betrachten das Entropiemaimierungsproblem minimiere f 0 = i ln i über R n sodass A b 6.4 und 1 T = 1 mit A R m n, b R m und wobei dom f 0 = R n ++ und 1 := 1,..., 1} R n. Wir wissen, dass die konjugierte Funktion von der negativen Entropiefunktion u ln u mit skalarer Variable u e v 1 ist. Da f 0 eine Summe von negativen Entropiefunktionen mit verschiedenen Variablen ist, ergibt sich die konjugierte Funktion f0 y = e yi 1, mit dom f0 = R n. Aus 6.2 folgt, dass die duale Funktion für das Problem 6.4 folgende Gestalt hat: gλ, ν = b T λ ν f0 A T λ 1ν = b T λ ν e at i λ ν 1 wobei a i die i-te Spalte von A ist. n = b T λ ν e ν 1 e at i λ,
7 Gregor Leimcke Lagrange-duale Funktion 7 Beispiel 6.3 Minimales Volumen eines Ellipsoids Wir betrachten das Problem mit a i R n minimiere f 0 X = log det X 1 sodass a T i Xa i 1, i = 1,..., m 6.5 i = 1,..., m und wobei dom f 0 = X R n n : X = X T, X 0} =: S n ++. Das Problem 6.5 hat eine einfache geometrische Interpretation. Zu jedem X S n ++ kann man ein Ellipsoid E X = z R n : z T Xz 1} mit Mittelpunkt im Ursprung konstruieren. Das Volumen des Ellipsoids ist proportional zu det X Also ist die Zielfunktion von 6.5, bis auf einen Faktor von zwei, der Logarithmus des Volumens von E X. Die Nebenbedingungen des Problems 6.5 sind, dass a i E X. Folglich besteht das Problem 6.5 darin, dass minimale Volumen eines Ellipsoids mit Mittelpunkt im Ursprung zu bestimmen, der die Punkte a 1,..., a m enthält. Die Ungleichungsnebenbedingungen im Problem 6.5 sind affin-linear; Sie können auch als tr a i a T i X 1, i = 1,..., m dargestellt werden. Wir wissen, dass die konjugierte Funktion von f 0 folgende Gestalt hat: f0 ln det Y 1 n Y S n ++ Y = sonst. Durch Anwendung von 6.2 auf das Problem 6.5 ergibt sich die duale Funktion gλ = ln det X 1 + λ i tr ai a T i X 1 Also inf X S n ++ = e T λ + inf X S n ++ = e T λ f 0 m ln det X 1 + tr λ i a i a T i X λ i a i a T i 1 e T λ ln det λ i a i a T i n λ i a i a T i 0 = sonst ln det λ i a i a T i + n e T λ λ i a i a T i 0 = sonst mit dom g = λ R m : m gλ = ln det λ i a i a T i + n e T λ λ i a i a T i 0}.
Das Lagrange-duale Problem
Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h
MehrGeometrische Interpretation
Geometrische Interpretation Stefanie Riedel 10. Mai 2010 1 Starke und schwache Dualität über Wertemengen Wir betrachten eine einfache geometrische Interpretation dualer Funktionen aus der Menge G: G =
MehrDie Lagrange - duale Optimierungsaufgabe und ihre geometrische Interpretation
und ihre geometrische Interpretation Vortrag von Elisabeth Zschorlich 09.12.2008 Inhaltsverzeichnis 1 Die Lagrange - duale Optimierungsaufgabe 2 1.1 Einführung...................................... 2 1.2
MehrOptimalitätsbedingungen
Optimalitätsbedingungen Nadja Irmscher 28. Mai 2010 1 Nachweis von Suboptimalität und Abbruchkriterien Über das gegebene Programm minimiere f 0 (x) über x D sodass f i (x) 0, i = 1,..., m h i (x) = 0,
MehrSattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen
Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sandro Grunert WS 08/09 Seminar Optimierung Technische Universität Chemnitz 1 Inhaltsverzeichnis 0 Grundlegende Situation
Mehr4.4 Quadratische Optimierungsprobleme
4.4 Quadratische Optimierungsprobleme 1. Quadratische Programme (QP) 1 2 xt P x + q T x + r s.t. Gx h (4.34) wobei P S n +, G R (m n) und A R (p n) Zielfunktion (ZF) ist (konvex) quadratisch Nebenbedingungen
MehrOptimierung für Wirtschaftsinformatiker: Lineare Programme
Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen
MehrSattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen
Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sandro Grunert WS 08/09 Seminar Optimierung Technische Universität Chemnitz Inhaltsverzeichnis 2 Inhaltsverzeichnis 0 Grundlegende
MehrDualitätssätze der linearen Optimierung
Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =
MehrKapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)
MehrTeil I. Lineare Optimierung
Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrOptimierung. Vorlesung 08
Optimierung Vorlesung 08 Heute Dualität Ganzzahligkeit Optimierung der Vorlesung durch Evaluierung 2 Das duale LP Das primale LP Maximiere c T x unter Ax b, x R d 0. wird zu dem dualen LP Minimiere b T
MehrZahlen und metrische Räume
Zahlen und metrische Räume Natürliche Zahlen : Die natürlichen Zahlen sind die grundlegendste Zahlenmenge, da man diese Menge für das einfache Zählen verwendet. N = {1, 2, 3, 4,...} bzw. N 0 = {0, 1, 2,
MehrInhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1
Inhaltsverzeichnis 1 Inhaltsverzeichnis Innere-Punkte-Verfahren 3 1 Theoretische Grundlagen 3 1.1 Die KKT-Bedingungen........................... 3 1.2 Der zentrale Pfad.............................. 4
Mehr6. Einführung 43. gilt. Dann soll also A B x B = b eindeutig lösbar sein, also A B vollen Rang haben, d. h. invertierbar (regulär) sein.
6. Einführung 43 und aus der linearen Unabhängigkeit der (a i ) i I(x) folgt y i = z i auch für i I(x). Insgesamt gilt also y = z, d. h., nach Definition 6.9 ist x eine Ecke von P. Beachte: Der Koordinatenvektor
MehrSeminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1)
Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Anna Raaz 21.12.2007 Einführung Die Relaxierung von Lagrange wird in der stochastischen Optimierung meistens
MehrKapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2
Kapitel 12 Lagrange-Funktion Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28 Optimierung unter Nebenbedingungen Aufgabe: Berechne die Extrema der Funktion unter der Nebenbedingung
MehrInnere-Punkt-Methoden
Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction
MehrOptimierung unter Nebenbedingungen
Optimierung unter Nebenbedingungen Kapitel 7: Optimierung unter Nebenbedingungen Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 1. Juli 2009 1 / 18 7.1 Bemerkung
Mehr1 0, x C X (A). = 1 χ A(x).
Aufgabe 1 a) Wir müssen nur zeigen, dass χ A B (x) = χ A (x) χ B (x) für alle x X gilt. (Dass χ A χ B Abbildung von X in {0, 1} ist, ist klar.) Sei also x X beliebig. Fall 1: x A B. Dies bedeutet x A und
MehrSeminar Optimierung - Approximation and fitting. Christian Bretzke
Seminar Optimierung - Approximation and fitting Christian Bretzke 1 Inhaltsverzeichnis 1 Norm Approximation 3 1.1 Verschiedene Interpretation.................................. 3 1.2 Gewichtete NAP........................................
MehrKAPITEL 10 DIE INNERE-PUNKTE-METHODE
KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach
MehrÜbung 5, Analytische Optimierung
Übung 5, 5.7.2011 Analytische Optimierung Aufgabe 5.1 Bei der Herstellung von Konserven werden für Boden und Deckel bzw. für den Konservenmantel verschiedene Materialien verwendet, die g 1 = bzw. g 2 =
MehrKonvexe Optimierungsprobleme
von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel
MehrMusterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:
Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,
MehrSattelpunkt-Interpretation
Sattelpunkt-Interpretation Vinzenz Lang 14. Mai 2010 Die Sattelpunkt-Interpretation befasst sich mit der Interpretation der Lagrange- Dualität. Sie wird im weiteren Verlauf des Seminars nicht noch einmal
MehrNachklausur zur Analysis 2, SoSe 2017
BERGISCHE UNIVERSITÄT WUPPERTAL 18.9.17 Fakultät 4 - Mathematik und Naturwissenschaften Prof. N. V. Shcherbina Dr. T. P. Pawlaschyk www.kana.uni-wuppertal.de Nachklausur zur Analysis 2, SoSe 217 Aufgabe
MehrOperations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung
Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden
MehrTechnische Universität München. Grundlagen der konvexen Optimierung
Technische Universität München Fakultät für Mathematik Lehrstuhl für Mathematische Optimierung Grundlagen der konveen Optimierung Michael Ulbrich April 2012 Gliederung der Vorlesung 1. Einführung Konvee
MehrFK WMS: Wirtschaftsmathematik 2, Einheit 7/8
FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 markus.sinnl@univie.ac.at http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.
MehrExtremwerte von Funktionen mehrerer reeller Variabler
Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein
Mehr6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode
6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,
Mehr(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge
ÜBUNGSBLATT 0 LÖSUNGEN MAT/MAT3 ANALYSIS II FRÜHJAHRSSEMESTER 0 PROF DR CAMILLO DE LELLIS Aufgabe Finden Sie für folgende Funktionen jene Punkte im Bildraum, in welchen sie sich lokal umkehren lassen,
Mehr1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)
. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)
Mehr6 Metrische Klassifikation der Quadriken
6 Metrische Klassifikation der Quadriken A Wiederholung von Kap V, 5 Sei A = (a ij ) eine symmetrische n n Matrix. n x 1 q(x) := x t Ax = a ij x i x j, x =. i,j=1 ist dann ein quadratisches Polynom in
MehrDie duale Simplexmethode
Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen
MehrTU Dresden Fachrichtung Mathematik Institut für Numerische Mathematik 1. Dr. M. Herrich SS 2017
TU Dresden Fachrichtung Mathematik Institut für Numerische Mathematik Prof. Dr. K. Eppler Institut für Numerische Mathematik Dr. M. Herrich SS 207 Aufgabe Gegeben sei die Funktion f : R 2 R mit Übungen
MehrWirtschaftsmathematik: Mathematische Grundlagen
Wirtschaftsmathematik: Mathematische Grundlagen 1. Zahlen 2. Potenzen und Wurzeln 3. Rechenregeln und Vereinfachungen 4. Ungleichungen 5. Intervalle 6. Beträge 7. Lösen von Gleichungen 8. Logarithmen 9.
MehrZahlen und metrische Räume
Zahlen und metrische Räume Natürliche Zahlen : Die natürlichen Zahlen sind die grundlegendste Zahlenmenge, da man diese Menge für das einfache Zählen verwendet. N = {1, 2, 3, 4,...} Ganze Zahlen : Aus
MehrAnalysis II 14. Übungsblatt
Jun.-Prof. PD Dr. D. Mugnolo Wintersemester 01/13 F. Stoffers 04. Februar 013 Analysis II 14. Übungsblatt 1. Aufgabe (8 Punkte Man beweise: Die Gleichung z 3 + z + xy = 1 besitzt für jedes (x, y R genau
MehrOptimierung. Vorlesung 02
Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j
MehrMathematik 2 für Wirtschaftsinformatik
für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar
Mehr11 Optimierung von Funktionen einer Veränderlichen
11 Optimierung von Funktionen einer Veränderlichen In diesem Kapitel werden die bis hier behandelten Grundlagen der Analysis genutzt, um Methoden aus der Optimierungstheorie für eindimensionale Entscheidungsmengen
Mehr3.1 Sukzessive Minima und reduzierte Basen: Resultate
Gitter und Codes c Rudolf Scharlau 4. Juni 2009 202 3.1 Sukzessive Minima und reduzierte Basen: Resultate In diesem Abschnitt behandeln wir die Existenz von kurzen Basen, das sind Basen eines Gitters,
Mehr10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen
10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie
MehrDualität bei konvexer Optimierung
Dualität bei konvexer Optimierung Seminar zur Numerik I im SS 2016 Laslo Hunhold 10. Mai 2016 Ausarbeitung zum Seminarvortrag vom 2. Mai 2016 Mathematisches Institut Mathematisch-Naturwissenschaftliche
MehrOptimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung
Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze
MehrKapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:
Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten
MehrMathematik für Wirtschaftswissenschaftler
Mathematik für Wirtschaftswissenschaftler Yves Schneider Universität Luzern Frühjahr 2016 Repetition Kapitel 1 bis 3 2 / 54 Repetition Kapitel 1 bis 3 Ausgewählte Themen Kapitel 1 Ausgewählte Themen Kapitel
MehrKAPITEL 3. Konvexe Funktionen
KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn
MehrKuhn-Tucker Bedingung
Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,
MehrInhalt der Vorlesung. 1 Einführung 2 Konvexe Mengen 3 Konvexe Funktionen 4 Konvexe Optimierung 5 Lösungsverfahren (6 Anwendungen)
Inhalt der Vorlesung 1 Einführung 2 Konvexe Mengen 3 Konvexe Funktionen 4 Konvexe Optimierung 5 Lösungsverfahren (6 Anwendungen) 1 S-M. Grad - Optimierung II / Universität Leipzig, SS2018 Beispiel 1.1
MehrAlgorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck
Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach
MehrÜbungsblatt
Übungsblatt 4 5..9 Mehrdimensionale Differentialrechnung ) Stellen Sie den Gradientenvektor für folgende Funktionen so auf, daß Sie möglichst alle Faktoren, die allen Vektorelementen gemeinsam sind, in
MehrInhaltsübersicht für heute:
Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen Relaxation Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen
MehrProbeklausur zur Analysis 2, SoSe 2017
BERGISCHE UNIVERSITÄT WUPPERTAL 21717 Fakultät 4 - Mathematik und Naturwissenschaften Prof N V Shcherbina Dr T P Pawlaschyk wwwkanauni-wuppertalde Probeklausur zur Analysis 2, SoSe 217 Hinweis Die Lösungen
Mehr4 Holomorphie-Konvexität. Definition Satz. 42 Kapitel 2 Holomorphiegebiete
42 Kapitel 2 Holomorphiegebiete 4 Holomorphie-Konvexität Wir wollen weitere Beziehungen zwischen Pseudokonvexität und affiner Konvexität untersuchen. Zunächst stellen wir einige Eigenschaften konvexer
MehrEigenschaften von LPs
2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört
Mehr2.4 Verallgemeinerte Ungleichungen
2.4 Verallgemeinerte Ungleichungen 2.4.1 Eigentliche Kegel und verallgemeinerte Ungleichungen Ein Kegel K R heißt eigentlicher Kegel, wenn er die folgenden Bedingungen erfüllt: K ist konvex K ist abgeschlossen
Mehr6.6 Stetige Funktionen in mehreren Variablen
6.6 Stetige Funktionen in mehreren Variablen Das Näherungs-Kriterium zur Überprüfung der Stetigkeit in einem Punkt a besagte, daß man zu jedem positiven ein positives finden muß, so daß für alle Punkte,
Mehr6 Lineare Gleichungssysteme
6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α
MehrOptimale Steuerung 1 Prozessoptimierung 1
Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung
MehrSchnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005
Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung
Mehr3.1. Existenzsatz und Struktur der Lösungsmenge
3. EXISTENZ UND DUALITÄT 3.1. Existenzsatz und Struktur der Lösungsmenge Nach dem Satz von Weierstraß besitzt eine lineare Funktion auf einem Polytop stets ein Minimum und ein Maximum. Im allgemeinen Fall
MehrLineare Optimierungsaufgaben - eine Einführung
Lineare Optimierungsaufgaben - eine Einführung Aufgabenstellung, Beispiele, graphisches Lösen und Trafo auf Normalform Vortragsskript von Lorenz Fischer Operations Research bedeutet die Suche nach einer
MehrOptimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn
Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,
Mehr1.6 Implizite Funktionen
1 1.6 Implizite Funktionen Wir werden uns jetzt mit nichtlinearen Gleichungen beschäftigen, f(x) = 0, wobei f = (f 1,..., f m ) stetig differenzierbar auf einem Gebiet G R n und m < n ist. Dann hat man
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrNichtlineare Optimierung
Nichtlineare Optimierung Roland Griesse Numerische Mathematik Chemnitzer Skiseminar Gerlosberg, 07. 14. März 2009 Gliederung Konvexe Optimierung 1 Konvexe Optimierung Bedeutung Beispiele Charakterisierung
MehrKuhn-Tucker-Bedingung
Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann
MehrKuhn-Tucker-Bedingung
Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann
MehrProseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner
Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1 Vortrag: Lineare Gleichungen am 11. März 2009 von Maximilian Wahner Technische Universität Dortmund Fakultät für Mathematik Proseminar Lineare
Mehr(3D-)Extrema unter Nebenbedingungen. Problemstellung (lokale Optimierung)
(3D-)Extrema unter Nebenbedingungen Wir beschränken uns wieder (meistens) auf Funktionen von zwei Variablen x, y. Bei drei oder mehr Variablen x 1,..., x n sind die gleichen Techniken analog anwendbar,
MehrAufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen
Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden
Mehr1. Hausaufgabenblatt (16.04./ )
Lehrstuhl Ingenieurmathematik Modul: (Wirtschaftsingenieurwesen/Betriebswirtschaftslehre/Informatik) Sommersemester 2014 1. Hausaufgabenblatt (16.04./23.04.2015) Aufgabe H 1.1 Lösen Sie die linearen Gleichungssysteme
MehrAffine Geometrie (Einfachere, konstruktive Version)
Affine Geometrie (Einfachere, konstruktive Version) Def. Affiner Raum der Dimension n über Körper K ist nach Definition K n. Bemerkung. Man könnte Theorie von affinen Raumen auch axiomatisch aufbauen mit
MehrMathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf )
Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 65 (das agraökonomische Schaf ) Sascha Kurz Jörg Rambau 25 November 2009 2 66 Die Karush-Kuhn-Tucker-Methode Die Erkenntnisse
Mehr5.4 Basis, Lineare Abhängigkeit
die allgemeine Lösung des homogenen Systems. Wieder ist 2 0 L i = L h + 0 1 Wir fassen noch einmal zusammen: Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbekannten hat n Rang(A)
Mehrz 2 + 2z + 10 = 0 = 2 ± 36 2 Aufgabe 2 (Lineares Gleichungssystem) Sei die reelle 3 4 Matrix
Mathematik für Wirtschaftswissenschaftler im WS 03/04 Lösungsvorschläge zur Klausur im WS 03/04 Aufgabe (Komplexe Zahlen (4 Punkte a Berechnen Sie das Produkt der beiden komplexen Zahlen + i und 3 + 4i
MehrWirtschaftsmathematik II
WMS: Wirtschaftsmathematik 2 :: WS 2009/10 Wirtschaftsmathematik II Reinhard Ullrich http://homepage.univie.ac.at/reinhard.ullrich Basierend auf Folien von Dr. Ivana Ljubic October 11, 2009 1 Funktionen
MehrGerade, ungerade oder weder noch? Algebraische und graphische Beweise. 4-E1 Vorkurs, Mathematik
Gerade, ungerade oder weder noch? Algebraische und graphische Beweise 4-E1 Symmetrie einer Funktion: Aufgabe 3 Bestimmen Sie algebraisch und graphisch, ob die Funktionen gerade oder ungerade sind, oder
MehrLagrange-Multiplikatoren
Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i
MehrLösungen der Aufgaben zu Abschnitt 5.4
A Filler: Elementare Lineare Algebra Lösungen zu Abschnitt 54 Lösungen der Aufgaben zu Abschnitt 54 B ist linear unabhängig, wenn die Vektorgleichung ( ) ( ) ( ) ( ) 456 λ + λ + λ = bzw das LGS λ +4λ +λ
MehrWirtschaftsmathematik Formelsammlung
Wirtschaftsmathematik Formelsammlung Binomische Formeln Stand März 2019 (a + b) 2 = a 2 + 2ab + b 2 (a b) 2 = a 2 2ab + b 2 (a + b) (a b) = a 2 b 2 Fakultät (Faktorielle) n! = 1 2 3 4 (n 1) n Intervalle
MehrEigenwerte (Teschl/Teschl 14.2)
Eigenwerte Teschl/Teschl 4. Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x 0, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =
Mehr1. EINFÜHRUNG INS STATE-PRICING 1
1. EINFÜHRUNG INS STATE-PRICING 1 1. Einführung ins State-Pricing In diesem Kapitel betrachten wir eine Periode. Das heisst, wir können nur zu den Zeitpunkten 0 und 1 handeln. Im weiteren arbeiten wir
Mehr(a), für i = 1,..., n.
.4 Extremwerte Definition Sei M R n eine Teilmenge, f : M R stetig, a M ein Punkt. f hat in a auf M ein relatives (oder lokales) Maximum bzw. ein relatives (oder lokales) Minimum, wenn es eine offene Umgebung
Mehr10 Extremwerte mit Nebenbedingungen
10 Extremwerte mit Nebenbedingungen 49 10 Extremwerte mit Nebenbedingungen Wir betrachten nun Extremwertaufgaben, bei denen nach dem Extremwert einer fx 1,, x n gesucht wird, aber die Menge der zulässigen
MehrInstitut für Analysis WiSe 2018/2019 Prof. Dr. Dirk Hundertmark Dr. Markus Lange. Analysis 1. Aufgabenzettel 4
Institut für Analysis WiSe 2018/2019 Prof. Dr. Dirk Hundertmark 08.11.2018 Dr. Markus Lange Analysis 1 Aufgabenzettel 4 Abgabe bis 14. November 2018, 19:00 Uhr Erinnerung: Die Anmeldung für den Übungsschein
MehrBericht zur Mathematischen Zulassungsprüfung im Mai 2013
Bericht zur Mathematischen Zulassungsprüfung im Mai 3 Heinz-Willi Goelden, Wolfgang Lauf, Martin Pohl Am. Mai 3 fand die Mathematische Zulassungsprüfung statt. Die Prüfung bestand aus einer 9-minütigen
MehrMathematische Grundlagen für die Vorlesung. Differentialgeometrie
Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie
Mehr5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit
ME Lineare Algebra HT 2008 99 5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 5.1 Ein Beispiel zur Motivation Als einfachstes Beispiel eines dynamischen Systems untersuchen wir folgendes Differentialgleichungssystem
Mehr2 Extrema unter Nebenbedingungen
$Id: lagrange.tex,v 1.6 2012/11/06 14:26:21 hk Exp hk $ 2 Extrema unter Nebenbedingungen 2.1 Restringierte Optimierungsaufgaben Nachdem wir jetzt die bereits bekannten Techniken zur Bestimmung der lokalen
MehrElemente in Φ werden Wurzeln genannt. Bemerkung 3.2. (a) Zu einem Wurzelsystem können wir immer eine Spiegelungsgruppe definieren
3. Wurzelsysteme Als erstes führen wir den Begriff eines Wurzelsystems ein. Definition 3.1 (Wurzelsystem). Eine endliche Teilmenge Φ V {0} heißt Wurzelsystem falls gilt: (R1) Φ Rα = {±α} für α Φ, (R2)
Mehr2 Funktionen in mehreren Variablen: Differentiation
Satz 2. (Richtungsableitung) Für jede auf der offenen Menge D R n total differenzierbaren Funktion f (insbesondere für f C 1 (D, R) und für jeden Vektor v R n, v 0, gilt: n v f(x) = f(x) v = f xi (x)v
MehrWiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b
Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung
MehrExtremalprobleme mit Nebenbedingungen
Extremalprobleme mit Nebenbedingungen In diesem Abschnitt untersuchen wir Probleme der folgenden Form: g(x 0 ) = inf{g(x) : x Ω, f(x) = 0}, (x 0 Ω, f(x 0 ) = 0). (1) Hierbei sind Ω eine offene Menge des
Mehr