9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

Größe: px
Ab Seite anzeigen:

Download "9 Optimierung mehrdimensionaler reeller Funktionen f : R n R"

Transkript

1 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass f(x ) f(x) für alle x R n (dann heißt x globales Minimum) f(x ) f(x) für alle x R n (dann heißt x globales Maximum) Die Funktion f heißt auch Zielfunktion Die Formulierung bzw das Finden einer geeigneten Zielfunktion ist meist der schwierigste Teil einer Optimierungsaufgabe Zunächst suchen wir aber nach lokalen Minima bzw Maxima: Suche x R n so, dass f(x ) f(x) für alle x aus einer Umgebung U ε (x ) um x (x nahe bei x ): x ist dann ein lokales Minimum f(x ) f(x) für alle x aus einer Umgebung U ε (x ) um x (x nahe bei x ): x ist dann ein lokales Maximum Wie finden wir solche Punkte? Beispiel 91 n = 1: f : R R Wir berechnen die Ableitung f (x) und setzen sie gleich : f (x) = (horizontale Tangente, kein Anstieg/Abstieg im Extremum) Punkte, die diese Forderung erfüllen, sind Kandidaten für Extremwerte Zur genauen Bestimmung berechnen wir f (x ), die zweite Ableitung eines Kandidaten x, d h, das Krümmungsverhalten der Funktion in bzw um x Falls f (x ) >, so ist x ein lokales Minimum, ist f (x ) <, so ist x ein lokales Maximum Erhalten wir aber f (x ) =, so ist es notwendig weiterzurechnen, eventuell befinden wir uns an einer Sattelstelle, das ist jedoch genauer zu untersuchen GMA Cenker, Uchida (März 1) 95

2 x Abbildung 8: Plot der Funktion (x 1) (x + 1) Sei etwa f(x) = (x 1) (x + 1) Dann ist f (x) = 4x(x 1)(x + 1) und dieser Ausdruck verschwindet in x = 1, x 1 = und x = 1 Alle drei Punkte sind stationäre Punkte, also Kandidaten für Extremalstellen Wir berechnen die zweite Ableitung und erhalten f (x) = 1x 4 Wir stellen fest, dass f ( 1) = f (1) = 8 > und f () = 4 Also sind die Stellen x und x lokale Minima und die Stelle x 1 ist ein lokales Maximum (siehe Abbildung 8) Was passiert bei n > 1? Eine lokale Betrachtung ist möglich mittels (partieller) Ableitungen (falls die Funktion differenzierbar ist, sonst wird es komplizierter) (Partielle) Ableitungen werden in Gradienten f(x) zusammengefasst Dieser kann auch als Richtungsvektor im R n betrachtet werden Betrachten wir Niveaumengen der Funktion f(x), so stellt sich heraus, dass f(x) immer senkrecht zu den Niveaumengen steht (egal an welcher Stelle) Außerdem zeigt der Gradient immer in die Richtung, in der die Funktion vom Punkt x aus gesehen am steilsten ansteigt Falls also f(x) =, dann gibt es auch lokal keinen An/Abstieg und damit eventuell ein lokales Minimum oder Maximum Auf diese Art können wir auch im mehrdimensionalen Raum R n Kandidaten für Extremalstellen finden Zur Bestimmung, ob ein Minimum oder Maximum vorliegt, brauchen wir wie im eindimensionalen Fall höhere Ableitungen Mehrdimensionaler Taylor Ähnlich wie im eindimensionalen Fall, kann auch für mehrdimensionale Funktionen unter GMA Cenker, Uchida (März 1) 96

3 bestimmten Bedingungen lokal eine Approximation mit Hilfe von Ableitungen an einer bestimmten Stelle berechnet werden Meist wird nur eine Approximation zweiten Grades benötigt (siehe auch Abschnitt 13 Mittelwertsätze): Theorem 91 Sei f zweimal total differenzierbar bei x Dann gilt: wobei f(x) = f(x ) + f(x )(x x ) + 1 (x x ) t f(x )(x x ) + Rest, Rest x x mit x x Theorem 9 (Notwendige Bedingung für lokale Optima) Sei x lokales Minimum (Maximum) von f und f bei x differenzierbar, dann gilt f(x ) = Beweis [eigentlich nur Beweisskizze für Minimum] Wir wissen, dass f(x ) in Richtung des steilsten Anstiegs zeigt Angenommen, f(x ) Sei x = x λ[ f(x )] t, mit λ >, klein Daraus folgt dann, dass auch x x = λ f(x ) klein ist Also f(x ) f(x) = f(x ) + f(x )(x x ) + Rest (siehe Taylor) = f(x ) λ f(x ) f(x ) t + Rest (da x x = ( λ)[ f(x )] t ) = f(x ) λ f(x ) + Rest, dieser Rest ist aber sehr klein < f(x ) und daher ein Widerspruch! Umgekehrt gilt: Theorem 93 (Hinreichende Bedingung für lokale Optima) Sei f zweimal stetig differenzierbar bei x Ist die erste Ableitung f(x ) = und die zweite Ableitung H = H f (x ) = f(x ) (die Hesse sche Matrix) positiv definit (d h, u t Hu >, für alle u ), dann ist x eine lokale Minimalstelle Ist die erste Ableitung f(x ) = und die zweite Ableitung H = f(x ) (die Hesse sche Matrix) negativ definit (d h, u t Hu <, für alle u ), dann ist x eine lokale Maximalstelle Beweis [wieder nur Beweisskizze für Minimum] f(x) = f(x ) + 1 ut Hu + Rest (klein) f(x ) für x nahe bei x (da u t Hu > ) Bemerkung 91 H positiv definit heißt, dass die quadratische Form u t Hu, die in der Taylorapproximation den quadratischen Term repräsentiert, positiv gekrümmt ist (d h, die Steigung nimmt GMA Cenker, Uchida (März 1) 97

4 im eindimensionalen Fall von links nach rechts zu), also konvex ist u t Hu > bedeutet, dass alle Eigenwerte der Matrix H = H f (x ) positiv sein müssen, da u t Hu > für alle Vektoren u gelten muss, also gilt speziell für Eigenvektoren v und den zugehörigen Eigenwert λ v t Hv = v t λv = λv t v = λ v >, also muss λ > sein, da die Länge v immer positiv ist Analog gilt für negativ definite Matrizen, dass alle Eigenwerte negativ sein müssen Definition 91 Eine n n-matrix A = (a ij ) n i,j=1 hat n Hauptminoren A k, k = 1,, n Ein Hauptminor A k ist definiert als A k = (a ij ) k i,j=1 Theorem 94 (Kriterium von Sylvester) Eine symmetrische Matrix ist positiv definit, wenn alle ihre Hauptminoren positiv sind negativ definit, wenn ihre Hauptminoren alternierend negativ und positiv sind, d h, A 1 <, A >, A 3 <, A 4 >,, A k >, A k+1 <, Beispiel 9 Suche die lokalen Minima der Funktion f(x 1, x, x 3 ) = x 3 1+x 1x +x 1 x x 3 +x x +x x 3 Dann ist x 1, 3x 1 + 4x 1 x + x x 3 f( x ) = x 1 + x 1 x 3 + x + x 3 x 3 x 1 x + x x 3 Setzen wir f(x 1, x, x 3 ) =, so erhalten wir: I : 3x 1 + 4x 1 x + x x 3 = II : x 1 + x 1 x 3 + x + x 3 = III : x 1 x + x x 3 = Aus III : x (x 1 + x 3 ) = folgt nun, dass entweder (1) x = oder () x 1 = x 3 Fall(1) x = : Durch Einsetzen folgt aus I, dass 3x 1 = und daher x 1 = Andererseits folgt dann aus II, dass + x 3 = und damit x 3 = ± Wir erhalten nun zwei Kandidaten für Extrema: x (1) = +, x () = Fall() x 1 = x 3 : Durch Einsetzen in I und die einfache Umformung: 1x 3 7x x 3 = x 3 (1x 3 7x ) = erhalten wir die zwei Unterfälle (a) x 3 = bzw (b) x 3 = 7 1 x GMA Cenker, Uchida (März 1) 98

5 Fall(a) x 3 = : Durch Einsetzen erhalten wir x 1 = und x = 1, also einen neuen Kandidaten für ein Extremum x (3) = 1 Fall(b) x 3 = 7 1 x : Hier folgt, dass x 1 = 7 1 x, und durch Einsetzen in II, dass x + x = Diese quadratische Gleichung hat zwei Lösungen, die annähernd folgende Werte annehmen: 148 und +588 Daraus ergeben sich die beiden letzten Kandidaten (mit ungefähren Koordinaten): x (4) = , x (5) = Nun gilt es zu prüfen, ob die obigen Punkte Minima sind Dazu berechnen wir die Hesse sche Matrix der zweiten partiellen Ableitungen: 6x 1 + 4x 4x 1 + x 3 x H(x) = (x) = 4x 1 + x 3 x 1 + x 3 x x 1 + x 3 x Wir setzen nun die Punkte ein, also: H(x (1) ) =, diese Matrix ist indefinit! (,-, ) H(x () ) =, ist indefinit! (,-, ) 4 1 H(x (3) ) =, ist positiv definit (+,+,+), also ist x (3) lokal minimal H(x (4) ) = 5831, ist indefinit! (+,-, ) H(x (5) ) = 41, ist indefinit! (-,+,+) Das einzige lokale Minimum ist daher x (3) = 1 mit f(x (3) ) = f( 1 ) = 1 Achtung: Durch einfache Überlegungen können wir feststellen, dass x (3) zwar lokale, aber λ keine globale Minimalstelle ist: f( ) = λ 3, λ GMA Cenker, Uchida (März 1) 99

6 9 Einfache numerische Optimierungsverfahren Wir können unser Wissen über Gradienten und den Taylor schen Lehrsatz auch für iterative Näherungsverfahren zur Bestimmung von Extremwerten verwenden: Methode des steilsten Abstiegs (steepest descent) Algorithmus: (1) Wähle ein x 1 = x 11 x 1n als Startpunkt () Für k = 1,, 3, berechne die Richtung d k := ( f(x k )) t Minimiere ϕ(λ) = f(x k + λd k ) durch eindimensionale Optimierung nach λ Wir erhalten einen optimalen Wert λ! Als nächsten Punkt wählen wir x k+1 = x k + λ d k Zunächst gehen wir wie Wasser vor: Wir wählen die Richtung des steilsten Abstiegs Diese Richtung behalten wir so lange bei, bis die Funktion f (diese entspricht der Höhe ) wieder anzusteigen beginnt Dort sehen wir uns erneut nach dem steilsten Abstieg um (Gradient und Höhenschichtlinie sind dort ja immer orthogonal zueinander) Warum können wir es nicht wirklich genauso wie das Wasser machen? Wir müssten unendlich viele Neuberechnungen der Richtung machen (die Schrittweite müsste infinitesimal klein werden) und wir würden dadurch eine unendliche Rechenzeit erreichen Unser Optimierungsverfahren ist hingegen schon recht effizient: Anfangs machen wir große Schritte, erst wenn wir uns dem Optimum nähern, werden die Schritte kleiner Das Steepest descent-verfahren verläuft immer in aufeinander folgenden, orthogonalen Richtungen (siehe Abbildung 9) Beispiel 93 Sei für folgende Funktion f(x, ( y) ) = x + y x 6y ein Minimum zu bestimmen Wir wählen zunächst x 1 = als Startpunkt ( ) ( ) x Wir berechnen ( f(x)) t = Dann ist d y 6 1 = ( f(x 1 )) t = und wir ( ) ( ) 6 erhalten: ϕ(λ) = f(x 1 +λd 1 ) = f( +λ ) = 4λ 6 +36λ 4λ 36λ = 4λ 4λ Abgeleitet nach λ erhalten wir ϕ (λ) = 8λ 4 Die Funktion ϕ(λ) hat also ein Minimum in λ = 1 ( ) ( ) ( ) 1 Damit ergibt sich der nächste Punkt als x = x 1 + λ d k = + 1 = 6 3 Dieser ist auch schon das Minimum GMA Cenker, Uchida (März 1) 1

7 Abbildung 9: Steepest Descent Das mehrdimensionale Newtonverfahren Wir approximieren die Funktion f(x) an der Stelle x durch eine quadratische Funktion h(x) = a + b t x + 1 xt Gx Es muss dann gelten: f(x 1 ) = h(x 1 ) = a + b t x xt 1Gx 1 f(x 1 ) = h(x 1 ) = b t + x t 1G f(x 1 ) = h(x 1 ) = G Wir erhalten daraus: b t = f(x 1 ) x t 1 f(x 1 ) Wenn wir nun das Minimum x von h(x) berechnen, erhalten wir eine Näherung für das Minimum von f Wir setzten wieder h(x) = und erhalten: b t + x t G = und daraus x = x 1 ( f(x 1 )) 1 ( f(x 1 )) t Daraus leitet sich der Algorithmus von Newton und Raphson für den mehrdimensionalen Fall ab Algorithmus nach Newton Raphson: (1) Wähle ein x 1 = x 11 x 1n als Startpunkt () Wiederhole x k+1 = x k ( (x k )) 1 ( f(x k )) t bis die gewünschte Genauigkeit erreicht ist GMA Cenker, Uchida (März 1) 11

8 Abbildung 1: Newton-Raphson Vorteil: Wir gehen gleich in eine gute Richtung (bei quadratischer Zielfunktion genau in Richtung des Minimums), statt einen Zick-Zack-Kurs zu steuern Nachteile: Die zweiten Ableitungen müssen bekannt sein Die Hesse sche Matrix muss immer positiv-definit sein (entspricht strikter Konvexität) Der Funktionswert kann zwischendurch sogar ansteigen (das ist bei steepest descent nie der Fall), dies können wir aber durch Kombination mit dem line search Verfahren vermeiden Die Inversion der Hesse schen Matrix kann numerisch aufwändig sein Das Newton-Raphson Verfahren kann also nur dann angewendet werden, wenn die zweiten Ableitungen bekannt bzw berechenbar sind 93 Optimierung mit Nebenbedingungen Zusätzlich zur Zielfunktion f müssen wir noch Restriktionen für die zulässigen Werte betrachten, d h, es sind nur Werte aus einer Teilmenge des R n zur Konkurrenz zugelassen (x S R n ) Diese Restriktionen könnten in unterschiedlicher Weise beschrieben werden Im Folgenden gehen wir davon aus, dass unsere Restriktionen mit Hilfe von Gleichungen und Ungleichungen beschrieben werden können GMA Cenker, Uchida (März 1) 1

9 Unser Optimierungsproblem lässt sich also folgendermaßen formulieren: f(x) min! g 1 (x) g m (x) h 1 (x) = h r (x) = Wir haben hier ein Minimierungsproblem mit m Ungleichheits- und r Gleichheitsnebenbedingungen beschrieben, wobei die Funktionen g i (x), i = 1,, m und h j (x), j = 1,, r im Prinzip beliebige Funktionen sein können Beispiel 94 Es sei ein Wartehäuschen mit folgenden Vorgaben zu konstruieren: Die Rückwand darf höchstens 3m lang sein Die Gesamtlänge der Wände (Rück- und Seitenwände) soll gleich 4m sein Die überdachte Fläche ist zu maximieren Als mathematische Formulierung erhalten wir dann daraus (x 1 ist die Länge der Hinterwand, x ist die Länge der Seitenwände): f(x 1, x ) = x 1 x max! g(x 1, x ) = x 1 3 h(x 1, x ) = x 1 + x = 4 Ein wichtiger Spezialfall: Nur Gleichheitsnebenbedingungen Theorem 95 Es sei f(x 1,, x n ) : R n R stetig differenzierbar Der zulässige Bereich S sei durch Gleichungen beschrieben S = {x = x 1 x n g 1 (x) =,, g m (x) = }, die Funktionen g i seien stetig differenzierbar und die Matrix der partiellen Ableitungen der g i (m n-matrix) habe den Rang m, m < n Dann ist für ein lokales Extremum von f( x 1 x n ) mit x 1 x n S notwendig, dass f(x) = m i=1 λ i g i (x), mit eindeutig bestimmten Koeffizienten λ i (diese heissen Lagrange sche Multiplikatoren) GMA Cenker, Uchida (März 1) 13

10 Wir gehen so vor, dass wir die Lagrange-Funktion L(x 1,, x n, λ 1,, λ m ) = f(x 1,, x n ) m λ i g i (x 1,, x n ) i=1 bilden und sowohl nach x 1,, x n als auch nach λ 1,, λ m ableiten und die Ableitungen gleich setzen Danach müssen wir das entstandene (im Allgemeinen nichtlineare) Gleichungssystem in n + m Variablen zu lösen Beispiel 95 Die Lagrange-Funktion ist dann: f(x 1, x ) = x 1 x max! g(x 1, x ) = x 1 + x 1 = L(x 1, x, λ) = x 1 x λ(x 1 + x 1) Wir leiten nach allen Variablen und λ ab und setzen gleich : I : II : III : f x 1 = x λx 1 = f x = x 1 λx = f λ = (x 1 + x 1) = Falls x 1 =, dann folgt aus I, dass auch x = ; das steht aber im Widerspruch zu III Wir schließen daraus, dass x 1 Ähnliches gilt auch für x, es muss also auch x sein Falls aber nun x 1, dann erhalten wir durch Umformung aus I, dass λ = x x 1 Aus II folgt dann (wegen x ), dass λ = x 1 x Daraus schließen wir, dass x 1 = ±x Eingesetzt in III, erhalten wir dann x 1 = ± = ± 1 Also erhalten wir schließlich 4 Kandidaten für lokale Extremwerte: ( ) ( ) ( x (1) =, x () =, x (3) ) ( =, x (4) ) = mit Funktionswerten 1 bzw 1 Wenn wir nicht nur Gleichheits- sondern auch Ungleichheitsnebenbedingungen haben, dann gibt es ein ähnliches, aber etwas komplizierteres Verfahren das Karush-Kuhn- Tucker-Verfahren mit dem auch solche komplexeren Fälle behandelbar sind GMA Cenker, Uchida (März 1) 14

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Extremwerte von Funktionen mehrerer reeller Variabler

Extremwerte von Funktionen mehrerer reeller Variabler Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein

Mehr

8 Extremwerte reellwertiger Funktionen

8 Extremwerte reellwertiger Funktionen 8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R

Mehr

Musterlösung zu Blatt 1

Musterlösung zu Blatt 1 Musterlösung zu Blatt Analysis III für Lehramt Gymnasium Wintersemester 0/4 Überprüfe zunächst die notwendige Bedingung Dfx y z = 0 für die Existenz lokaler Extrema Mit x fx y z = 8x und y fx y z = + z

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Mathematik 2 für Wirtschaftsinformatik

Mathematik 2 für Wirtschaftsinformatik für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle

Mehr

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode 6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,

Mehr

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 markus.sinnl@univie.ac.at http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 } A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Gliederung 1 : Einführung 2 Differenzieren 2 3 Deskriptive 4 Wahrscheinlichkeitstheorie

Mehr

2 Funktionen in mehreren Variablen: Differentiation

2 Funktionen in mehreren Variablen: Differentiation Satz 2. (Richtungsableitung) Für jede auf der offenen Menge D R n total differenzierbaren Funktion f (insbesondere für f C 1 (D, R) und für jeden Vektor v R n, v 0, gilt: n v f(x) = f(x) v = f xi (x)v

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra

Mehr

(a), für i = 1,..., n.

(a), für i = 1,..., n. .4 Extremwerte Definition Sei M R n eine Teilmenge, f : M R stetig, a M ein Punkt. f hat in a auf M ein relatives (oder lokales) Maximum bzw. ein relatives (oder lokales) Minimum, wenn es eine offene Umgebung

Mehr

Übung 5, Analytische Optimierung

Übung 5, Analytische Optimierung Übung 5, 5.7.2011 Analytische Optimierung Aufgabe 5.1 Bei der Herstellung von Konserven werden für Boden und Deckel bzw. für den Konservenmantel verschiedene Materialien verwendet, die g 1 = bzw. g 2 =

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

5.10. Mehrdimensionale Extrema und Sattelpunkte

5.10. Mehrdimensionale Extrema und Sattelpunkte 5.1. Mehrdimensionale Extrema und Sattelpunkte Zur Erinnerung: Eine Funktion f von einer Teilmenge A des R n nach R hat im Punkt a ein (strenges) globales Maximum, falls f( x ) f( a ) (bzw. f( x ) < f(

Mehr

Rückblick auf die letzte Vorlesung

Rückblick auf die letzte Vorlesung Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige

Mehr

1 Umkehrfunktionen und implizite Funktionen

1 Umkehrfunktionen und implizite Funktionen Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13

Mehr

Mehrdimensionale Differentialrechnung Übersicht

Mehrdimensionale Differentialrechnung Übersicht Mehrdimensionale Differentialrechnung Übersicht Partielle und Totale Differenzierbarkeit Man kann sich mehrdimensionale Funktionen am Besten für den Fall f : R 2 M R vorstellen Dann lässt sich der Graph

Mehr

Kuhn-Tucker Bedingung

Kuhn-Tucker Bedingung Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,

Mehr

Wirtschaftsmathematik II

Wirtschaftsmathematik II WMS: Wirtschaftsmathematik 2 :: WS 2009/10 Wirtschaftsmathematik II Reinhard Ullrich http://homepage.univie.ac.at/reinhard.ullrich Basierend auf Folien von Dr. Ivana Ljubic October 11, 2009 1 Funktionen

Mehr

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum. Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit

Mehr

16. FUNKTIONEN VON MEHREREN VARIABLEN

16. FUNKTIONEN VON MEHREREN VARIABLEN 16. FUNKTIONEN VON MEHREREN VARIABLEN 1 Reelle Funktionen auf dem R 2 Wir betrachten Funktionen f(x 1, x 2 ) von zwei reellen Variablen x 1, x 2, z.b. f(x 1, x 2 ) = x 2 1 + x2 2, g(x 1, x 2 ) = x 2 1

Mehr

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h. Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,

Mehr

Teil 6. Differentialrechnung mehrerer Veränderlicher

Teil 6. Differentialrechnung mehrerer Veränderlicher Teil 6 Differentialrechnung mehrerer Veränderlicher 95 96 6.1 Topologie von Mengen Umgebung ε-umgebung eines Punktes x R n : B ε (x) = {y : y x < ε} Umgebung U von x: Menge, die eine ε-umgebung von x enthält

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrange.tex,v 1.6 2012/11/06 14:26:21 hk Exp hk $ 2 Extrema unter Nebenbedingungen 2.1 Restringierte Optimierungsaufgaben Nachdem wir jetzt die bereits bekannten Techniken zur Bestimmung der lokalen

Mehr

40 Lokale Extrema und Taylor-Formel

40 Lokale Extrema und Taylor-Formel 198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:

Mehr

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

Extrema multivariater Funktionen

Extrema multivariater Funktionen Extrema multivariater Funktionen Ist f (x ) ein Minimum (Maximum) einer stetig differenzierbaren skalaren Funktion f auf einer Umgebung U von x, so gilt grad f (x ) = (0,..., 0) t. Extrema multivariater

Mehr

Lagrange-Multiplikatoren

Lagrange-Multiplikatoren Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i

Mehr

Extremalprobleme mit Nebenbedingungen

Extremalprobleme mit Nebenbedingungen Extremalprobleme mit Nebenbedingungen In diesem Abschnitt untersuchen wir Probleme der folgenden Form: g(x 0 ) = inf{g(x) : x Ω, f(x) = 0}, (x 0 Ω, f(x 0 ) = 0). (1) Hierbei sind Ω eine offene Menge des

Mehr

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2 Kapitel 12 Lagrange-Funktion Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28 Optimierung unter Nebenbedingungen Aufgabe: Berechne die Extrema der Funktion unter der Nebenbedingung

Mehr

Berechnung von Extrema

Berechnung von Extrema KAPITEL 2 Berechnung von Extrema 1. Partielle Ableitungen Definition 2.1 (partielle Ableitung). Sei U R n offen und e j der j-te Einheitsvektor. Eine Funktion f : U R ist in x u partiell differenzierbar

Mehr

Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf )

Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf ) Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 65 (das agraökonomische Schaf ) Sascha Kurz Jörg Rambau 25 November 2009 2 66 Die Karush-Kuhn-Tucker-Methode Die Erkenntnisse

Mehr

Mathematik 1 für Wirtschaftsinformatik

Mathematik 1 für Wirtschaftsinformatik Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration

Mehr

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang Sommersemester 03 6.06.03 Höhere Mathematik II für die Fachrichtungen Elektrotechnik und Informationstechnik

Mehr

Analysis II 14. Übungsblatt

Analysis II 14. Übungsblatt Jun.-Prof. PD Dr. D. Mugnolo Wintersemester 01/13 F. Stoffers 04. Februar 013 Analysis II 14. Übungsblatt 1. Aufgabe (8 Punkte Man beweise: Die Gleichung z 3 + z + xy = 1 besitzt für jedes (x, y R genau

Mehr

Analysis 2, Woche 9. Mehrdimensionale Differentialrechnung I. 9.1 Differenzierbarkeit

Analysis 2, Woche 9. Mehrdimensionale Differentialrechnung I. 9.1 Differenzierbarkeit A Analysis, Woche 9 Mehrdimensionale Differentialrechnung I A 9. Differenzierbarkeit A3 =. (9.) Definition 9. Sei U R m offen, f : U R n eine Funktion und a R m. Die Funktion f heißt differenzierbar in

Mehr

Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) =

Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) = Karlsruher Institut für Technologie (KIT Institut für Analysis Priv-Doz Dr P C Kunstmann Dipl-Math D Roth SS 0 7060 Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8 Übungsblatt

Mehr

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0. Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales

Mehr

Vorlesung Mathematik für Ingenieure II (Sommersemester 2008)

Vorlesung Mathematik für Ingenieure II (Sommersemester 2008) Vorlesung Mathematik für Ingenieure II (Sommersemester 8) Kapitel : Differenzialrechnung R n R m Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 8. Mai 8) Differenzialrechnung R R 4

Mehr

4.4 Lokale Extrema und die Hessesche Form

4.4 Lokale Extrema und die Hessesche Form 74 Kapitel 4 Differentialrechnung in mehreren Variablen 44 Lokale Extrema und die Hessesche Form Sei jetzt wieder U R n offen und f:u R eine Funktion Unter einem lokalen Extremum der Funktion f verstehen

Mehr

10 Extremwerte mit Nebenbedingungen

10 Extremwerte mit Nebenbedingungen 10 Extremwerte mit Nebenbedingungen 49 10 Extremwerte mit Nebenbedingungen Wir betrachten nun Extremwertaufgaben, bei denen nach dem Extremwert einer fx 1,, x n gesucht wird, aber die Menge der zulässigen

Mehr

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1

Mehr

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1

Mehr

Vorlesung Mathematik für Ingenieure 2 (Sommersemester 2009)

Vorlesung Mathematik für Ingenieure 2 (Sommersemester 2009) 1 Vorlesung Mathematik für Ingenieure 2 (Sommersemester 2009) Kapitel 10: Differenzialrechnung R n R m Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 27. März 2009) Differenzialrechnung

Mehr

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen 11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen Ziel: Wir wollen lokale Extrema von Funktionen f : M R untersuchen, wobei M R n eine k-dimensionale Untermannigfaltigkeit des

Mehr

UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl. Sommersemester 2009

UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl. Sommersemester 2009 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz Dr P C Kunstmann Dipl-Math M Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive Komplexe

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

1.6 Implizite Funktionen

1.6 Implizite Funktionen 1 1.6 Implizite Funktionen Wir werden uns jetzt mit nichtlinearen Gleichungen beschäftigen, f(x) = 0, wobei f = (f 1,..., f m ) stetig differenzierbar auf einem Gebiet G R n und m < n ist. Dann hat man

Mehr

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z R Es sei f : R n D R eine einmal stetig differenzierbare Funktion, für die in einer Umgebung eines Punkte a = a 1, a,, a n D gilt: fa 1, a,, a n = 0, f xn a 1, a,, a n 0 Dann gibt es eines Umgebung U des

Mehr

AM3: Differenzial- und Integralrechnung im R n. 1 Begriffe. 2 Norm, Konvergenz und Stetigkeit. x 1. x 2. f : x n. aus Platzgründen schreibt man:

AM3: Differenzial- und Integralrechnung im R n. 1 Begriffe. 2 Norm, Konvergenz und Stetigkeit. x 1. x 2. f : x n. aus Platzgründen schreibt man: AM3: Differenzial- und Integralrechnung im R n 1 Begriffe f : x 1 f 1 x 1, x 2,..., x n ) x 2... f 2 x 1, x 2,..., x n )... x n f m x 1, x 2,..., x n ) }{{}}{{} R n R m aus Platzgründen schreibt man: f

Mehr

Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II. x 2

Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II. x 2 Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II Wiederholungsblatt: Analysis Sommersemester 2011 W. Werner, F. Springer erstellt von: Max Brinkmann Aufgabe 1: Untersuchen Sie, ob die

Mehr

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden

Mehr

Übungen zu Grundlagen der Mathematik 2 Lösungen Blatt 12 SS 14. Aufgabe 44. Bestimmen Sie die Taylor-Polynome der Funktion.

Übungen zu Grundlagen der Mathematik 2 Lösungen Blatt 12 SS 14. Aufgabe 44. Bestimmen Sie die Taylor-Polynome der Funktion. Übungen zu Grundlagen der Mathematik Lösungen Blatt 1 SS 14 Prof. Dr. W. Decker Dr. M. Pleger Aufgabe 44. Bestimmen Sie die Taylor-Polynome der Funktion f : U R, (x, y) x y x + y, im Punkt (1, 1) bis einschließlich.

Mehr

7.11. Extrema unter Nebenbedingungen

7.11. Extrema unter Nebenbedingungen 7.11. Extrema unter Nebenbedingungen Randextrema Wir haben schon bemerkt, daß die üblichen Tests mit Hilfe von (eventuell höheren) Ableitungen nur Kriterien für (lokale) Extrema im Inneren des Definitionsgebietes

Mehr

Mathematik für Anwender II

Mathematik für Anwender II Prof. Dr. H. Brenner Osnabrück SS 2012 Mathematik für Anwender II Vorlesung 49 Zu einer reellwertigen Funktion Extrema auf einer offenen Menge G R n interessieren wir uns, wie schon bei einem eindimensionalen

Mehr

4. Anwendung der Differentialrechnung: Kurvendiskussion 4.1. Maxima und Minima einer Funktion.

4. Anwendung der Differentialrechnung: Kurvendiskussion 4.1. Maxima und Minima einer Funktion. 4. Anwendung der Differentialrechnung: Kurvendiskussion 4.1. Maxima und Minima einer Funktion. Definition 4.3. Es sei f : R D R eine auf D erklarte Funktion. Die Funktion f hat in a D eine globales oder

Mehr

4.5 Lokale Extrema und die Hessesche Form

4.5 Lokale Extrema und die Hessesche Form 80 Kapitel 4. Differentialrechnung in mehreren Variablen 4.5 Lokale Extrema und die Hessesche Form Sei ab jetzt U R n offen und f:u R eine Funktion. Unter einem lokalen Extremum der Funktion f verstehen

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 5 Anwendungen der Differentialrechnung 5.1 Maxima und Minima einer Funktion......................... 80 5.2 Mittelwertsatz.................................... 82 5.3 Kurvendiskussion..................................

Mehr

Mathematische Behandlung der Natur- und Wirtschaftswissenschaften I. f(x) := e x + x.

Mathematische Behandlung der Natur- und Wirtschaftswissenschaften I. f(x) := e x + x. Technische Universität München WS 009/0 Fakultät für Mathematik Prof. Dr. J. Edenhofer Dipl.-Ing. W. Schultz Übung Lösungsvorschlag Mathematische Behandlung der Natur- und Wirtschaftswissenschaften I Aufgabe

Mehr

Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit 2: Lineare Algebra II

Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit 2: Lineare Algebra II Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit : Lineare Algebra II Leseprobe Autor: Univ.-Prof. Dr. Wilhelm Rödder Dr. Peter Zörnig 74 4 Extrema bei Funktionen mehrerer

Mehr

Kontinuierliche Optimierung

Kontinuierliche Optimierung Kontinuierliche Optimierung Markus Herrich Wintersemester 2018/19 ii Inhaltsverzeichnis 2 Optimalitäts- und Regularitätsbedingungen 1 2.1 Einleitung und Wiederholung.................... 1 2.2 Optimalitätsbedingungen

Mehr

Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung

Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung TU Bergakademie Freiberg Sommersemester Dr. Gunter Semmler Dr. Anja Kohl Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung Differentialrechnung für Funktionen

Mehr

D-MATH, D-PHYS, D-CHAB Analysis II FS 2018 Prof. Manfred Einsiedler. Übungsblatt 6. f(x, y, z) = xyz + 3e x y

D-MATH, D-PHYS, D-CHAB Analysis II FS 2018 Prof. Manfred Einsiedler. Übungsblatt 6. f(x, y, z) = xyz + 3e x y D-MATH, D-PHYS, D-CHAB Analysis II FS 2018 Prof. Manfred Einsiedler Übungsblatt 6 1. Es seien f : R 2 R 3 und g : R 3 R 3 die Funktionen definiert durch x cos(y) 2 y 2 f(x, y) = x sin(y) und g(x, y, z)

Mehr

Probeklausur zur Analysis 2, SoSe 2017

Probeklausur zur Analysis 2, SoSe 2017 BERGISCHE UNIVERSITÄT WUPPERTAL 21717 Fakultät 4 - Mathematik und Naturwissenschaften Prof N V Shcherbina Dr T P Pawlaschyk wwwkanauni-wuppertalde Probeklausur zur Analysis 2, SoSe 217 Hinweis Die Lösungen

Mehr

9 Differentialrechnung für Funktionen in n Variablen

9 Differentialrechnung für Funktionen in n Variablen $Id: diff.tex,v.7 29/7/2 3:4:3 hk Exp $ $Id: ntaylor.tex,v.2 29/7/2 3:26:42 hk Exp $ 9 Differentialrechnung für Funktionen in n Variablen 9.6 Lagrange Multiplikatoren Die Berechnung von Maxima und Minima

Mehr

Übungen zur Vorlesung Mathematik im Querschnitt Lösungsvorschlag

Übungen zur Vorlesung Mathematik im Querschnitt Lösungsvorschlag MATHEMATISCHES INSTITUT DER UNIVERSITÄT MÜNCHEN Dr. E. Schörner WS 06/7 Blatt 4 5..06 Übungen zur Vorlesung Mathematik im Querschnitt Lösungsvorschlag 3. Die gegebene Polynomfunktion f : R R, f(x, y) =

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 7 Anwendungen der Differentialrechnung 7.1 Maxima und Minima einer Funktion................. 141 7.2 Mittelwertsatz............................ 144 7.3 Kurvendiskussion..........................

Mehr

MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE

MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE Differentialrechnung für Funktionen mehrerer

Mehr

Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie

Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Def.: eine Funktion n f :D mit D,x (x,...x

Mehr

7 Anwendungen der Linearen Algebra

7 Anwendungen der Linearen Algebra 7 Anwenungen er Linearen Algebra 7.1 Extremwertaufgaben mit Nebenbeingungen Bemerkung 7.1. Wir behaneln as Problem: Gegeben ist eine zweimal stetig ifferenzierbare Funktion f : R n R un ein stetig ifferenzierbares

Mehr

Extrema von Funktionen mit zwei Variablen

Extrema von Funktionen mit zwei Variablen Extrema von Funktionen mit zwei Variablen Es gilt der Satz: Ist an einer Stelle x,y ) f x x,y ) = und f y x,y ) = und besteht außerdem die Ungleichung f xx x,y )f yy x,y ) f xy x,y ) >, so liegt an dieser

Mehr

KAPITEL 3. Konvexe Funktionen

KAPITEL 3. Konvexe Funktionen KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn

Mehr

55 Lokale Extrema unter Nebenbedingungen

55 Lokale Extrema unter Nebenbedingungen 55 Lokale Extrema unter Nebenbedingungen Sei f : O R mit O R n differenzierbar. Notwendige Bescheinigung für ein lokales Extremum in p 0 ist dann die Bedingung f = 0 (siehe 52.4 und 49.14). Ist nun F :

Mehr

Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1

Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1 1 Funktionen Definition 1 (Funktion). Übungsblatt 1 Eine Funktion f(x) einer reellen Variable x mit Definitionsbereich D ist eine Regel, die jeder Zahl x in D eine reelle Zahl f(x) eindeutig zuordnet.

Mehr

Ein Buch. Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler

Ein Buch. Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler Ein Buch Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler (Aber bei der Mathematik ein bisschen aufpassen!) 4 Extremstellen

Mehr

Serie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015

Serie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015 Analysis D-BAUG Dr. Cornelia Busch FS 05 Serie 4. Finden Sie die lokalen Extrema der Funktionen f : R R auf dem Einheitskreis S = {x, y R : x + y = } und geben Sie an, ob es sich um ein lokales Minimum

Mehr

Topologie und Differentialrechnung mehrerer Veränderlicher, SS 2009 Modulprüfung/Abschlussklausur. Aufgabe Punkte

Topologie und Differentialrechnung mehrerer Veränderlicher, SS 2009 Modulprüfung/Abschlussklausur. Aufgabe Punkte Universität München 22. Juli 29 Topologie und Differentialrechnung mehrerer Veränderlicher, SS 29 Modulprüfung/Abschlussklausur Name: Aufgabe 2 3 4 Punkte Gesamtpunktzahl: Gesamturteil: Schreiben Sie unbedingt

Mehr

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden

Mehr

Differentialrechnung im R n

Differentialrechnung im R n Kapitel 9 Differentialrechnung im R n Bisher haben wir uns mit Funtionen beschäftigt, deren Verhalten durch eine einzelne Variable beschrieben wird. In der Praxis reichen solche Funtionen in der Regel

Mehr

Folgerungen aus dem Auflösungsatz

Folgerungen aus dem Auflösungsatz Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und

Mehr

Klausur zu Analysis II - Lösungen

Klausur zu Analysis II - Lösungen Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Dr. Axel Grünrock WS 1/11 11..11 Klausur zu Analysis II - Lösungen 1. Entscheiden Sie, ob die folgenden Aussagen richtig oder falsch sind.

Mehr

Mathematik II. Vorlesung 46. Der Gradient

Mathematik II. Vorlesung 46. Der Gradient Prof. Dr. H. Brenner Osnabrück SS 2010 Mathematik II Vorlesung 46 Der Gradient Lemma 46.1. Es sei K ein Körper und V ein K-Vektorraum, der mit einer Bilinearform, versehen sei. Dann gelten folgende Aussagen

Mehr

3. Mai Zusammenfassung. g x. x i (x).

3. Mai Zusammenfassung. g x. x i (x). 3. Mai 2013 Zusammenfassung 1 Hauptsatz Satz 1.1 Sei F C 1 (D) für eine offene Teilmenge D von R q+1 = R q R. Für (x 0, u 0 ) D gelte F (x 0, u 0 ) = 0, (x 0, u 0 ) 0. Dann gibt es eine Umgebung V von

Mehr

Extremwertrechnung in mehreren Veränderlichen

Extremwertrechnung in mehreren Veränderlichen KARLSRUHER INSTITUT FÜR TECHNOLOGIE INSTITUT FÜR ANALYSIS Dr. Christoph Schmoeger Heiko Hoffmann SS 2014 14.05.2014 Höhere Mathematik II für die Fachrichtung Informatik 3. Saalübung (14.05.2014) Extremwertrechnung

Mehr

26. Höhere Ableitungen

26. Höhere Ableitungen 26. Höhere Ableitungen 331 26. Höhere Ableitungen Im letzten Kapitel haben wir gesehen, wie man für Abbildungen zwischen mehrdimensionalen Räumen das Konzept der Differenzierbarkeit definieren und für

Mehr

Vorlesung: Analysis I für Ingenieure

Vorlesung: Analysis I für Ingenieure Vorlesung: Analysis I für Ingenieure Michael Karow Thema: Satz von Taylor Die Taylor-Entwicklung I Satz von Taylor. Sei f : R D R an der Stelle x n-mal differenzierbar. Dann gilt für x D, n f (k) (x )

Mehr

1 Übungsaufgaben zu Kapitel 1

1 Übungsaufgaben zu Kapitel 1 Übungsaufgaben zu Kapitel. Übungsaufgaben zu Abschnitt... Aufgabe. Untersuchen Sie die nachstehend definierten Folgen ( a k ) k und ( b k ) k auf Konvergenz und bestimmen Sie ggf. den jeweiligen Grenzwert:

Mehr

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3 Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum

Mehr

Übungen zur Ingenieur-Mathematik III WS 2012/13 Blatt

Übungen zur Ingenieur-Mathematik III WS 2012/13 Blatt Übungen zur Ingenieur-Mathematik III WS 2012/13 Blatt 9 19.12.2012 Aufgabe 35: Thema: Differenzierbarkeit a) Was bedeutet für eine Funktion f : R n R, dass f an der Stelle x 0 R n differenzierbar ist?

Mehr

i j m f(y )h i h j h m

i j m f(y )h i h j h m 10 HÖHERE ABLEITUNGEN UND ANWENDUNGEN 56 Speziell für k = 2 ist also f(x 0 + H) = f(x 0 ) + f(x 0 ), H + 1 2 i j f(x 0 )h i h j + R(X 0 ; H) mit R(X 0 ; H) = 1 6 i,j,m=1 i j m f(y )h i h j h m und passendem

Mehr