9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

Save this PDF as:
 WORD  PNG  TXT  JPG

Größe: px
Ab Seite anzeigen:

Download "9 Optimierung mehrdimensionaler reeller Funktionen f : R n R"

Transkript

1 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass f(x ) f(x) für alle x R n (dann heißt x globales Minimum) f(x ) f(x) für alle x R n (dann heißt x globales Maximum) Die Funktion f heißt auch Zielfunktion Die Formulierung bzw das Finden einer geeigneten Zielfunktion ist meist der schwierigste Teil einer Optimierungsaufgabe Zunächst suchen wir aber nach lokalen Minima bzw Maxima: Suche x R n so, dass f(x ) f(x) für alle x aus einer Umgebung U ε (x ) um x (x nahe bei x ): x ist dann ein lokales Minimum f(x ) f(x) für alle x aus einer Umgebung U ε (x ) um x (x nahe bei x ): x ist dann ein lokales Maximum Wie finden wir solche Punkte? Beispiel 91 n = 1: f : R R Wir berechnen die Ableitung f (x) und setzen sie gleich : f (x) = (horizontale Tangente, kein Anstieg/Abstieg im Extremum) Punkte, die diese Forderung erfüllen, sind Kandidaten für Extremwerte Zur genauen Bestimmung berechnen wir f (x ), die zweite Ableitung eines Kandidaten x, d h, das Krümmungsverhalten der Funktion in bzw um x Falls f (x ) >, so ist x ein lokales Minimum, ist f (x ) <, so ist x ein lokales Maximum Erhalten wir aber f (x ) =, so ist es notwendig weiterzurechnen, eventuell befinden wir uns an einer Sattelstelle, das ist jedoch genauer zu untersuchen GMA Cenker, Uchida (März 1) 95

2 x Abbildung 8: Plot der Funktion (x 1) (x + 1) Sei etwa f(x) = (x 1) (x + 1) Dann ist f (x) = 4x(x 1)(x + 1) und dieser Ausdruck verschwindet in x = 1, x 1 = und x = 1 Alle drei Punkte sind stationäre Punkte, also Kandidaten für Extremalstellen Wir berechnen die zweite Ableitung und erhalten f (x) = 1x 4 Wir stellen fest, dass f ( 1) = f (1) = 8 > und f () = 4 Also sind die Stellen x und x lokale Minima und die Stelle x 1 ist ein lokales Maximum (siehe Abbildung 8) Was passiert bei n > 1? Eine lokale Betrachtung ist möglich mittels (partieller) Ableitungen (falls die Funktion differenzierbar ist, sonst wird es komplizierter) (Partielle) Ableitungen werden in Gradienten f(x) zusammengefasst Dieser kann auch als Richtungsvektor im R n betrachtet werden Betrachten wir Niveaumengen der Funktion f(x), so stellt sich heraus, dass f(x) immer senkrecht zu den Niveaumengen steht (egal an welcher Stelle) Außerdem zeigt der Gradient immer in die Richtung, in der die Funktion vom Punkt x aus gesehen am steilsten ansteigt Falls also f(x) =, dann gibt es auch lokal keinen An/Abstieg und damit eventuell ein lokales Minimum oder Maximum Auf diese Art können wir auch im mehrdimensionalen Raum R n Kandidaten für Extremalstellen finden Zur Bestimmung, ob ein Minimum oder Maximum vorliegt, brauchen wir wie im eindimensionalen Fall höhere Ableitungen Mehrdimensionaler Taylor Ähnlich wie im eindimensionalen Fall, kann auch für mehrdimensionale Funktionen unter GMA Cenker, Uchida (März 1) 96

3 bestimmten Bedingungen lokal eine Approximation mit Hilfe von Ableitungen an einer bestimmten Stelle berechnet werden Meist wird nur eine Approximation zweiten Grades benötigt (siehe auch Abschnitt 13 Mittelwertsätze): Theorem 91 Sei f zweimal total differenzierbar bei x Dann gilt: wobei f(x) = f(x ) + f(x )(x x ) + 1 (x x ) t f(x )(x x ) + Rest, Rest x x mit x x Theorem 9 (Notwendige Bedingung für lokale Optima) Sei x lokales Minimum (Maximum) von f und f bei x differenzierbar, dann gilt f(x ) = Beweis [eigentlich nur Beweisskizze für Minimum] Wir wissen, dass f(x ) in Richtung des steilsten Anstiegs zeigt Angenommen, f(x ) Sei x = x λ[ f(x )] t, mit λ >, klein Daraus folgt dann, dass auch x x = λ f(x ) klein ist Also f(x ) f(x) = f(x ) + f(x )(x x ) + Rest (siehe Taylor) = f(x ) λ f(x ) f(x ) t + Rest (da x x = ( λ)[ f(x )] t ) = f(x ) λ f(x ) + Rest, dieser Rest ist aber sehr klein < f(x ) und daher ein Widerspruch! Umgekehrt gilt: Theorem 93 (Hinreichende Bedingung für lokale Optima) Sei f zweimal stetig differenzierbar bei x Ist die erste Ableitung f(x ) = und die zweite Ableitung H = H f (x ) = f(x ) (die Hesse sche Matrix) positiv definit (d h, u t Hu >, für alle u ), dann ist x eine lokale Minimalstelle Ist die erste Ableitung f(x ) = und die zweite Ableitung H = f(x ) (die Hesse sche Matrix) negativ definit (d h, u t Hu <, für alle u ), dann ist x eine lokale Maximalstelle Beweis [wieder nur Beweisskizze für Minimum] f(x) = f(x ) + 1 ut Hu + Rest (klein) f(x ) für x nahe bei x (da u t Hu > ) Bemerkung 91 H positiv definit heißt, dass die quadratische Form u t Hu, die in der Taylorapproximation den quadratischen Term repräsentiert, positiv gekrümmt ist (d h, die Steigung nimmt GMA Cenker, Uchida (März 1) 97

4 im eindimensionalen Fall von links nach rechts zu), also konvex ist u t Hu > bedeutet, dass alle Eigenwerte der Matrix H = H f (x ) positiv sein müssen, da u t Hu > für alle Vektoren u gelten muss, also gilt speziell für Eigenvektoren v und den zugehörigen Eigenwert λ v t Hv = v t λv = λv t v = λ v >, also muss λ > sein, da die Länge v immer positiv ist Analog gilt für negativ definite Matrizen, dass alle Eigenwerte negativ sein müssen Definition 91 Eine n n-matrix A = (a ij ) n i,j=1 hat n Hauptminoren A k, k = 1,, n Ein Hauptminor A k ist definiert als A k = (a ij ) k i,j=1 Theorem 94 (Kriterium von Sylvester) Eine symmetrische Matrix ist positiv definit, wenn alle ihre Hauptminoren positiv sind negativ definit, wenn ihre Hauptminoren alternierend negativ und positiv sind, d h, A 1 <, A >, A 3 <, A 4 >,, A k >, A k+1 <, Beispiel 9 Suche die lokalen Minima der Funktion f(x 1, x, x 3 ) = x 3 1+x 1x +x 1 x x 3 +x x +x x 3 Dann ist x 1, 3x 1 + 4x 1 x + x x 3 f( x ) = x 1 + x 1 x 3 + x + x 3 x 3 x 1 x + x x 3 Setzen wir f(x 1, x, x 3 ) =, so erhalten wir: I : 3x 1 + 4x 1 x + x x 3 = II : x 1 + x 1 x 3 + x + x 3 = III : x 1 x + x x 3 = Aus III : x (x 1 + x 3 ) = folgt nun, dass entweder (1) x = oder () x 1 = x 3 Fall(1) x = : Durch Einsetzen folgt aus I, dass 3x 1 = und daher x 1 = Andererseits folgt dann aus II, dass + x 3 = und damit x 3 = ± Wir erhalten nun zwei Kandidaten für Extrema: x (1) = +, x () = Fall() x 1 = x 3 : Durch Einsetzen in I und die einfache Umformung: 1x 3 7x x 3 = x 3 (1x 3 7x ) = erhalten wir die zwei Unterfälle (a) x 3 = bzw (b) x 3 = 7 1 x GMA Cenker, Uchida (März 1) 98

5 Fall(a) x 3 = : Durch Einsetzen erhalten wir x 1 = und x = 1, also einen neuen Kandidaten für ein Extremum x (3) = 1 Fall(b) x 3 = 7 1 x : Hier folgt, dass x 1 = 7 1 x, und durch Einsetzen in II, dass x + x = Diese quadratische Gleichung hat zwei Lösungen, die annähernd folgende Werte annehmen: 148 und +588 Daraus ergeben sich die beiden letzten Kandidaten (mit ungefähren Koordinaten): x (4) = , x (5) = Nun gilt es zu prüfen, ob die obigen Punkte Minima sind Dazu berechnen wir die Hesse sche Matrix der zweiten partiellen Ableitungen: 6x 1 + 4x 4x 1 + x 3 x H(x) = (x) = 4x 1 + x 3 x 1 + x 3 x x 1 + x 3 x Wir setzen nun die Punkte ein, also: H(x (1) ) =, diese Matrix ist indefinit! (,-, ) H(x () ) =, ist indefinit! (,-, ) 4 1 H(x (3) ) =, ist positiv definit (+,+,+), also ist x (3) lokal minimal H(x (4) ) = 5831, ist indefinit! (+,-, ) H(x (5) ) = 41, ist indefinit! (-,+,+) Das einzige lokale Minimum ist daher x (3) = 1 mit f(x (3) ) = f( 1 ) = 1 Achtung: Durch einfache Überlegungen können wir feststellen, dass x (3) zwar lokale, aber λ keine globale Minimalstelle ist: f( ) = λ 3, λ GMA Cenker, Uchida (März 1) 99

6 9 Einfache numerische Optimierungsverfahren Wir können unser Wissen über Gradienten und den Taylor schen Lehrsatz auch für iterative Näherungsverfahren zur Bestimmung von Extremwerten verwenden: Methode des steilsten Abstiegs (steepest descent) Algorithmus: (1) Wähle ein x 1 = x 11 x 1n als Startpunkt () Für k = 1,, 3, berechne die Richtung d k := ( f(x k )) t Minimiere ϕ(λ) = f(x k + λd k ) durch eindimensionale Optimierung nach λ Wir erhalten einen optimalen Wert λ! Als nächsten Punkt wählen wir x k+1 = x k + λ d k Zunächst gehen wir wie Wasser vor: Wir wählen die Richtung des steilsten Abstiegs Diese Richtung behalten wir so lange bei, bis die Funktion f (diese entspricht der Höhe ) wieder anzusteigen beginnt Dort sehen wir uns erneut nach dem steilsten Abstieg um (Gradient und Höhenschichtlinie sind dort ja immer orthogonal zueinander) Warum können wir es nicht wirklich genauso wie das Wasser machen? Wir müssten unendlich viele Neuberechnungen der Richtung machen (die Schrittweite müsste infinitesimal klein werden) und wir würden dadurch eine unendliche Rechenzeit erreichen Unser Optimierungsverfahren ist hingegen schon recht effizient: Anfangs machen wir große Schritte, erst wenn wir uns dem Optimum nähern, werden die Schritte kleiner Das Steepest descent-verfahren verläuft immer in aufeinander folgenden, orthogonalen Richtungen (siehe Abbildung 9) Beispiel 93 Sei für folgende Funktion f(x, ( y) ) = x + y x 6y ein Minimum zu bestimmen Wir wählen zunächst x 1 = als Startpunkt ( ) ( ) x Wir berechnen ( f(x)) t = Dann ist d y 6 1 = ( f(x 1 )) t = und wir ( ) ( ) 6 erhalten: ϕ(λ) = f(x 1 +λd 1 ) = f( +λ ) = 4λ 6 +36λ 4λ 36λ = 4λ 4λ Abgeleitet nach λ erhalten wir ϕ (λ) = 8λ 4 Die Funktion ϕ(λ) hat also ein Minimum in λ = 1 ( ) ( ) ( ) 1 Damit ergibt sich der nächste Punkt als x = x 1 + λ d k = + 1 = 6 3 Dieser ist auch schon das Minimum GMA Cenker, Uchida (März 1) 1

7 Abbildung 9: Steepest Descent Das mehrdimensionale Newtonverfahren Wir approximieren die Funktion f(x) an der Stelle x durch eine quadratische Funktion h(x) = a + b t x + 1 xt Gx Es muss dann gelten: f(x 1 ) = h(x 1 ) = a + b t x xt 1Gx 1 f(x 1 ) = h(x 1 ) = b t + x t 1G f(x 1 ) = h(x 1 ) = G Wir erhalten daraus: b t = f(x 1 ) x t 1 f(x 1 ) Wenn wir nun das Minimum x von h(x) berechnen, erhalten wir eine Näherung für das Minimum von f Wir setzten wieder h(x) = und erhalten: b t + x t G = und daraus x = x 1 ( f(x 1 )) 1 ( f(x 1 )) t Daraus leitet sich der Algorithmus von Newton und Raphson für den mehrdimensionalen Fall ab Algorithmus nach Newton Raphson: (1) Wähle ein x 1 = x 11 x 1n als Startpunkt () Wiederhole x k+1 = x k ( (x k )) 1 ( f(x k )) t bis die gewünschte Genauigkeit erreicht ist GMA Cenker, Uchida (März 1) 11

8 Abbildung 1: Newton-Raphson Vorteil: Wir gehen gleich in eine gute Richtung (bei quadratischer Zielfunktion genau in Richtung des Minimums), statt einen Zick-Zack-Kurs zu steuern Nachteile: Die zweiten Ableitungen müssen bekannt sein Die Hesse sche Matrix muss immer positiv-definit sein (entspricht strikter Konvexität) Der Funktionswert kann zwischendurch sogar ansteigen (das ist bei steepest descent nie der Fall), dies können wir aber durch Kombination mit dem line search Verfahren vermeiden Die Inversion der Hesse schen Matrix kann numerisch aufwändig sein Das Newton-Raphson Verfahren kann also nur dann angewendet werden, wenn die zweiten Ableitungen bekannt bzw berechenbar sind 93 Optimierung mit Nebenbedingungen Zusätzlich zur Zielfunktion f müssen wir noch Restriktionen für die zulässigen Werte betrachten, d h, es sind nur Werte aus einer Teilmenge des R n zur Konkurrenz zugelassen (x S R n ) Diese Restriktionen könnten in unterschiedlicher Weise beschrieben werden Im Folgenden gehen wir davon aus, dass unsere Restriktionen mit Hilfe von Gleichungen und Ungleichungen beschrieben werden können GMA Cenker, Uchida (März 1) 1

9 Unser Optimierungsproblem lässt sich also folgendermaßen formulieren: f(x) min! g 1 (x) g m (x) h 1 (x) = h r (x) = Wir haben hier ein Minimierungsproblem mit m Ungleichheits- und r Gleichheitsnebenbedingungen beschrieben, wobei die Funktionen g i (x), i = 1,, m und h j (x), j = 1,, r im Prinzip beliebige Funktionen sein können Beispiel 94 Es sei ein Wartehäuschen mit folgenden Vorgaben zu konstruieren: Die Rückwand darf höchstens 3m lang sein Die Gesamtlänge der Wände (Rück- und Seitenwände) soll gleich 4m sein Die überdachte Fläche ist zu maximieren Als mathematische Formulierung erhalten wir dann daraus (x 1 ist die Länge der Hinterwand, x ist die Länge der Seitenwände): f(x 1, x ) = x 1 x max! g(x 1, x ) = x 1 3 h(x 1, x ) = x 1 + x = 4 Ein wichtiger Spezialfall: Nur Gleichheitsnebenbedingungen Theorem 95 Es sei f(x 1,, x n ) : R n R stetig differenzierbar Der zulässige Bereich S sei durch Gleichungen beschrieben S = {x = x 1 x n g 1 (x) =,, g m (x) = }, die Funktionen g i seien stetig differenzierbar und die Matrix der partiellen Ableitungen der g i (m n-matrix) habe den Rang m, m < n Dann ist für ein lokales Extremum von f( x 1 x n ) mit x 1 x n S notwendig, dass f(x) = m i=1 λ i g i (x), mit eindeutig bestimmten Koeffizienten λ i (diese heissen Lagrange sche Multiplikatoren) GMA Cenker, Uchida (März 1) 13

10 Wir gehen so vor, dass wir die Lagrange-Funktion L(x 1,, x n, λ 1,, λ m ) = f(x 1,, x n ) m λ i g i (x 1,, x n ) i=1 bilden und sowohl nach x 1,, x n als auch nach λ 1,, λ m ableiten und die Ableitungen gleich setzen Danach müssen wir das entstandene (im Allgemeinen nichtlineare) Gleichungssystem in n + m Variablen zu lösen Beispiel 95 Die Lagrange-Funktion ist dann: f(x 1, x ) = x 1 x max! g(x 1, x ) = x 1 + x 1 = L(x 1, x, λ) = x 1 x λ(x 1 + x 1) Wir leiten nach allen Variablen und λ ab und setzen gleich : I : II : III : f x 1 = x λx 1 = f x = x 1 λx = f λ = (x 1 + x 1) = Falls x 1 =, dann folgt aus I, dass auch x = ; das steht aber im Widerspruch zu III Wir schließen daraus, dass x 1 Ähnliches gilt auch für x, es muss also auch x sein Falls aber nun x 1, dann erhalten wir durch Umformung aus I, dass λ = x x 1 Aus II folgt dann (wegen x ), dass λ = x 1 x Daraus schließen wir, dass x 1 = ±x Eingesetzt in III, erhalten wir dann x 1 = ± = ± 1 Also erhalten wir schließlich 4 Kandidaten für lokale Extremwerte: ( ) ( ) ( x (1) =, x () =, x (3) ) ( =, x (4) ) = mit Funktionswerten 1 bzw 1 Wenn wir nicht nur Gleichheits- sondern auch Ungleichheitsnebenbedingungen haben, dann gibt es ein ähnliches, aber etwas komplizierteres Verfahren das Karush-Kuhn- Tucker-Verfahren mit dem auch solche komplexeren Fälle behandelbar sind GMA Cenker, Uchida (März 1) 14

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Extremwerte von Funktionen mehrerer reeller Variabler

Extremwerte von Funktionen mehrerer reeller Variabler Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein

Mehr

8 Extremwerte reellwertiger Funktionen

8 Extremwerte reellwertiger Funktionen 8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R

Mehr

Musterlösung zu Blatt 1

Musterlösung zu Blatt 1 Musterlösung zu Blatt Analysis III für Lehramt Gymnasium Wintersemester 0/4 Überprüfe zunächst die notwendige Bedingung Dfx y z = 0 für die Existenz lokaler Extrema Mit x fx y z = 8x und y fx y z = + z

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Mathematik 2 für Wirtschaftsinformatik

Mathematik 2 für Wirtschaftsinformatik für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar

Mehr

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 } A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder

Mehr

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 markus.sinnl@univie.ac.at http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle

Mehr

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode 6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

Mathematik 1 für Wirtschaftsinformatik

Mathematik 1 für Wirtschaftsinformatik Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra

Mehr

5.10. Mehrdimensionale Extrema und Sattelpunkte

5.10. Mehrdimensionale Extrema und Sattelpunkte 5.1. Mehrdimensionale Extrema und Sattelpunkte Zur Erinnerung: Eine Funktion f von einer Teilmenge A des R n nach R hat im Punkt a ein (strenges) globales Maximum, falls f( x ) f( a ) (bzw. f( x ) < f(

Mehr

1 Umkehrfunktionen und implizite Funktionen

1 Umkehrfunktionen und implizite Funktionen Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13

Mehr

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum. Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit

Mehr

Rückblick auf die letzte Vorlesung

Rückblick auf die letzte Vorlesung Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige

Mehr

16. FUNKTIONEN VON MEHREREN VARIABLEN

16. FUNKTIONEN VON MEHREREN VARIABLEN 16. FUNKTIONEN VON MEHREREN VARIABLEN 1 Reelle Funktionen auf dem R 2 Wir betrachten Funktionen f(x 1, x 2 ) von zwei reellen Variablen x 1, x 2, z.b. f(x 1, x 2 ) = x 2 1 + x2 2, g(x 1, x 2 ) = x 2 1

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

Lagrange-Multiplikatoren

Lagrange-Multiplikatoren Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i

Mehr

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h. Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,

Mehr

40 Lokale Extrema und Taylor-Formel

40 Lokale Extrema und Taylor-Formel 198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:

Mehr

Analysis II 14. Übungsblatt

Analysis II 14. Übungsblatt Jun.-Prof. PD Dr. D. Mugnolo Wintersemester 01/13 F. Stoffers 04. Februar 013 Analysis II 14. Übungsblatt 1. Aufgabe (8 Punkte Man beweise: Die Gleichung z 3 + z + xy = 1 besitzt für jedes (x, y R genau

Mehr

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang Sommersemester 03 6.06.03 Höhere Mathematik II für die Fachrichtungen Elektrotechnik und Informationstechnik

Mehr

10 Extremwerte mit Nebenbedingungen

10 Extremwerte mit Nebenbedingungen 10 Extremwerte mit Nebenbedingungen 49 10 Extremwerte mit Nebenbedingungen Wir betrachten nun Extremwertaufgaben, bei denen nach dem Extremwert einer fx 1,, x n gesucht wird, aber die Menge der zulässigen

Mehr

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0. Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales

Mehr

1.6 Implizite Funktionen

1.6 Implizite Funktionen 1 1.6 Implizite Funktionen Wir werden uns jetzt mit nichtlinearen Gleichungen beschäftigen, f(x) = 0, wobei f = (f 1,..., f m ) stetig differenzierbar auf einem Gebiet G R n und m < n ist. Dann hat man

Mehr

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen 11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen Ziel: Wir wollen lokale Extrema von Funktionen f : M R untersuchen, wobei M R n eine k-dimensionale Untermannigfaltigkeit des

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

4.4 Lokale Extrema und die Hessesche Form

4.4 Lokale Extrema und die Hessesche Form 74 Kapitel 4 Differentialrechnung in mehreren Variablen 44 Lokale Extrema und die Hessesche Form Sei jetzt wieder U R n offen und f:u R eine Funktion Unter einem lokalen Extremum der Funktion f verstehen

Mehr

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z R Es sei f : R n D R eine einmal stetig differenzierbare Funktion, für die in einer Umgebung eines Punkte a = a 1, a,, a n D gilt: fa 1, a,, a n = 0, f xn a 1, a,, a n 0 Dann gibt es eines Umgebung U des

Mehr

7.11. Extrema unter Nebenbedingungen

7.11. Extrema unter Nebenbedingungen 7.11. Extrema unter Nebenbedingungen Randextrema Wir haben schon bemerkt, daß die üblichen Tests mit Hilfe von (eventuell höheren) Ableitungen nur Kriterien für (lokale) Extrema im Inneren des Definitionsgebietes

Mehr

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1

Mehr

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden

Mehr

4. Anwendung der Differentialrechnung: Kurvendiskussion 4.1. Maxima und Minima einer Funktion.

4. Anwendung der Differentialrechnung: Kurvendiskussion 4.1. Maxima und Minima einer Funktion. 4. Anwendung der Differentialrechnung: Kurvendiskussion 4.1. Maxima und Minima einer Funktion. Definition 4.3. Es sei f : R D R eine auf D erklarte Funktion. Die Funktion f hat in a D eine globales oder

Mehr

Mathematik für Anwender II

Mathematik für Anwender II Prof. Dr. H. Brenner Osnabrück SS 2012 Mathematik für Anwender II Vorlesung 49 Zu einer reellwertigen Funktion Extrema auf einer offenen Menge G R n interessieren wir uns, wie schon bei einem eindimensionalen

Mehr

Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II. x 2

Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II. x 2 Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II Wiederholungsblatt: Analysis Sommersemester 2011 W. Werner, F. Springer erstellt von: Max Brinkmann Aufgabe 1: Untersuchen Sie, ob die

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 5 Anwendungen der Differentialrechnung 5.1 Maxima und Minima einer Funktion......................... 80 5.2 Mittelwertsatz.................................... 82 5.3 Kurvendiskussion..................................

Mehr

Übungen zu Grundlagen der Mathematik 2 Lösungen Blatt 12 SS 14. Aufgabe 44. Bestimmen Sie die Taylor-Polynome der Funktion.

Übungen zu Grundlagen der Mathematik 2 Lösungen Blatt 12 SS 14. Aufgabe 44. Bestimmen Sie die Taylor-Polynome der Funktion. Übungen zu Grundlagen der Mathematik Lösungen Blatt 1 SS 14 Prof. Dr. W. Decker Dr. M. Pleger Aufgabe 44. Bestimmen Sie die Taylor-Polynome der Funktion f : U R, (x, y) x y x + y, im Punkt (1, 1) bis einschließlich.

Mehr

Extrema von Funktionen mit zwei Variablen

Extrema von Funktionen mit zwei Variablen Extrema von Funktionen mit zwei Variablen Es gilt der Satz: Ist an einer Stelle x,y ) f x x,y ) = und f y x,y ) = und besteht außerdem die Ungleichung f xx x,y )f yy x,y ) f xy x,y ) >, so liegt an dieser

Mehr

4.5 Lokale Extrema und die Hessesche Form

4.5 Lokale Extrema und die Hessesche Form 80 Kapitel 4. Differentialrechnung in mehreren Variablen 4.5 Lokale Extrema und die Hessesche Form Sei ab jetzt U R n offen und f:u R eine Funktion. Unter einem lokalen Extremum der Funktion f verstehen

Mehr

Mathematische Behandlung der Natur- und Wirtschaftswissenschaften I. f(x) := e x + x.

Mathematische Behandlung der Natur- und Wirtschaftswissenschaften I. f(x) := e x + x. Technische Universität München WS 009/0 Fakultät für Mathematik Prof. Dr. J. Edenhofer Dipl.-Ing. W. Schultz Übung Lösungsvorschlag Mathematische Behandlung der Natur- und Wirtschaftswissenschaften I Aufgabe

Mehr

55 Lokale Extrema unter Nebenbedingungen

55 Lokale Extrema unter Nebenbedingungen 55 Lokale Extrema unter Nebenbedingungen Sei f : O R mit O R n differenzierbar. Notwendige Bescheinigung für ein lokales Extremum in p 0 ist dann die Bedingung f = 0 (siehe 52.4 und 49.14). Ist nun F :

Mehr

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden

Mehr

Folgerungen aus dem Auflösungsatz

Folgerungen aus dem Auflösungsatz Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und

Mehr

Serie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015

Serie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015 Analysis D-BAUG Dr. Cornelia Busch FS 05 Serie 4. Finden Sie die lokalen Extrema der Funktionen f : R R auf dem Einheitskreis S = {x, y R : x + y = } und geben Sie an, ob es sich um ein lokales Minimum

Mehr

3. Mai Zusammenfassung. g x. x i (x).

3. Mai Zusammenfassung. g x. x i (x). 3. Mai 2013 Zusammenfassung 1 Hauptsatz Satz 1.1 Sei F C 1 (D) für eine offene Teilmenge D von R q+1 = R q R. Für (x 0, u 0 ) D gelte F (x 0, u 0 ) = 0, (x 0, u 0 ) 0. Dann gibt es eine Umgebung V von

Mehr

Vorlesung: Analysis I für Ingenieure

Vorlesung: Analysis I für Ingenieure Vorlesung: Analysis I für Ingenieure Michael Karow Thema: Satz von Taylor Die Taylor-Entwicklung I Satz von Taylor. Sei f : R D R an der Stelle x n-mal differenzierbar. Dann gilt für x D, n f (k) (x )

Mehr

Ein Buch. Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler

Ein Buch. Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler Ein Buch Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler (Aber bei der Mathematik ein bisschen aufpassen!) 4 Extremstellen

Mehr

Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1

Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1 1 Funktionen Definition 1 (Funktion). Übungsblatt 1 Eine Funktion f(x) einer reellen Variable x mit Definitionsbereich D ist eine Regel, die jeder Zahl x in D eine reelle Zahl f(x) eindeutig zuordnet.

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel

Mehr

Topologie und Differentialrechnung mehrerer Veränderlicher, SS 2009 Modulprüfung/Abschlussklausur. Aufgabe Punkte

Topologie und Differentialrechnung mehrerer Veränderlicher, SS 2009 Modulprüfung/Abschlussklausur. Aufgabe Punkte Universität München 22. Juli 29 Topologie und Differentialrechnung mehrerer Veränderlicher, SS 29 Modulprüfung/Abschlussklausur Name: Aufgabe 2 3 4 Punkte Gesamtpunktzahl: Gesamturteil: Schreiben Sie unbedingt

Mehr

i j m f(y )h i h j h m

i j m f(y )h i h j h m 10 HÖHERE ABLEITUNGEN UND ANWENDUNGEN 56 Speziell für k = 2 ist also f(x 0 + H) = f(x 0 ) + f(x 0 ), H + 1 2 i j f(x 0 )h i h j + R(X 0 ; H) mit R(X 0 ; H) = 1 6 i,j,m=1 i j m f(y )h i h j h m und passendem

Mehr

Da der Nenner immer positiv ist, folgt. g (x) > 0 2x(2 x) > 0 0 < x < 2 g (x) < 0 2x(2 x) < 0 x < 0 oder x > 2

Da der Nenner immer positiv ist, folgt. g (x) > 0 2x(2 x) > 0 0 < x < 2 g (x) < 0 2x(2 x) < 0 x < 0 oder x > 2 Da der Nenner immer positiv ist, folgt g (x) > 0 x( x) > 0 0 < x < g (x) < 0 x( x) < 0 x < 0 oder x > Also ist g auf (0,) streng monoton wachsend sowie auf (,0) und auf (, ) strengmonotonfallend.außerdemistg

Mehr

26. Höhere Ableitungen

26. Höhere Ableitungen 26. Höhere Ableitungen 331 26. Höhere Ableitungen Im letzten Kapitel haben wir gesehen, wie man für Abbildungen zwischen mehrdimensionalen Räumen das Konzept der Differenzierbarkeit definieren und für

Mehr

Mathematik II. Vorlesung 46. Der Gradient

Mathematik II. Vorlesung 46. Der Gradient Prof. Dr. H. Brenner Osnabrück SS 2010 Mathematik II Vorlesung 46 Der Gradient Lemma 46.1. Es sei K ein Körper und V ein K-Vektorraum, der mit einer Bilinearform, versehen sei. Dann gelten folgende Aussagen

Mehr

Inhaltsübersicht für heute:

Inhaltsübersicht für heute: Inhaltsübersicht für heute: Freie Nichtlineare Optimierung Orakel, lineares/quadratisches Modell Optimalitätsbedingungen Das Newton-Verfahren Line-Search-Verfahren Inhaltsübersicht für heute: Freie Nichtlineare

Mehr

Outline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel

Outline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel Outline 1 Funktionen von mehreren Veränderlichen 2 Grenzwert und Stetigkeit 3 Partielle Ableitungen 4 Die verallgemeinerte Kettenregel 5 Das totale Differential 6 Extremstellen Roman Wienands (Universität

Mehr

Klausur zu Analysis II - Lösungen

Klausur zu Analysis II - Lösungen Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Dr. Axel Grünrock WS 1/11 11..11 Klausur zu Analysis II - Lösungen 1. Entscheiden Sie, ob die folgenden Aussagen richtig oder falsch sind.

Mehr

Funktionen mehrerer Variabler

Funktionen mehrerer Variabler Vektoranalysis Funktionen mehrerer Variabler Wir untersuchen allgemein vektorwertige Funktionen von vektoriellen Argumenten, wobei zunächst nur reelle Vektoren zugelassen seien. Speziell betrachten wir:

Mehr

2.7 Implizite Funktionen, Umkehrabbildungen

2.7 Implizite Funktionen, Umkehrabbildungen 27 Implizite Funktionen, Umkehrabbildungen Motivation Häufig sind ebene Kurven in impliziter Form f(x, y) = und nicht in expliziter Form y = g(x) gegeben Einfaches Beispiel Für Kreise um ist implizite

Mehr

Heinrich-Hertz-Oberschule, Berlin

Heinrich-Hertz-Oberschule, Berlin Reellwertige Funktionen mehrerer Variabler Teilnehmer: Maximilian Ringleb Jakob Napiontek Kay Makowsky Mallku Schlagowski Trung Duc Nguyen Alexander Reinecke Herder-Oberschule, Berlin Heinrich-Hertz-Oberschule,

Mehr

Multivariate Analysis

Multivariate Analysis Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle

Mehr

Extremwertrechnung in mehreren Veränderlichen

Extremwertrechnung in mehreren Veränderlichen KARLSRUHER INSTITUT FÜR TECHNOLOGIE INSTITUT FÜR ANALYSIS Dr. Christoph Schmoeger Heiko Hoffmann SS 2014 14.05.2014 Höhere Mathematik II für die Fachrichtung Informatik 3. Saalübung (14.05.2014) Extremwertrechnung

Mehr

Kuhn-Tucker-Bedingung

Kuhn-Tucker-Bedingung Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann

Mehr

4.7 Der Taylorsche Satz

4.7 Der Taylorsche Satz 288 4 Differenziation 4.7 Der Taylorsche Satz Die Differenzierbarkeit, also die Existenz der ersten Ableitung einer Funktion, erlaubt bekanntlich, diese Funktion lokal durch eine affine Funktion näherungsweise

Mehr

Vorlesung: Analysis II für Ingenieure. Wintersemester 09/10. Michael Karow. Themen: Taylor-Entwicklung und lokale Extrema

Vorlesung: Analysis II für Ingenieure. Wintersemester 09/10. Michael Karow. Themen: Taylor-Entwicklung und lokale Extrema Vorlesung: Analysis II für Ingenieure Wintersemester 09/10 Michael Karow Themen: Taylor-Entwicklung und lokale Extrema Motivierendes Beispiel: die Funktion f(x, y) = x(x 1) 2 2 y 2. Dieselbe Funktion von

Mehr

Vorlesung: Analysis II für Ingenieure. Wintersemester 07/08. Michael Karow. Themen: Niveaumengen und Gradient

Vorlesung: Analysis II für Ingenieure. Wintersemester 07/08. Michael Karow. Themen: Niveaumengen und Gradient Vorlesung: Analysis II für Ingenieure Wintersemester 07/08 Michael Karow Themen: Niveaumengen und Gradient Wir betrachten differenzierbare reellwertige Funktionen f : R n G R, G offen Zur Vereinfachung

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrangetex,v 18 01/11/09 14:07:08 hk Exp $ $Id: untermfgtex,v 14 01/11/1 10:00:34 hk Exp hk $ Extrema unter Nebenbedingungen Lagrange-Multiplikatoren In der letzten Sitzung hatten wir begonnen die

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3 Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare

Mehr

28 Taylor-Formel, lokale Extrema

28 Taylor-Formel, lokale Extrema VII. Differentialrechnung in mehreren Variablen 458 28 Taylor-Formel, lokale Extrema Wir erinnern an den Mittelwertsatz für differenzierbare Funktionen f : D R (D R n offen) (vgl. 26.1): Sind a,b D Punkte,

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 39 Definitheit von Bilinearformen Wir möchten die symmetrischen Bilinearformen über den reellen Zahlen klassifizieren.

Mehr

Kapitel 16 : Differentialrechnung

Kapitel 16 : Differentialrechnung Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen

Mehr

Übung 22: Gradient und Richtungsableitung; Extremwertaufgaben für Funktionen mehrerer Veränderlicher

Übung 22: Gradient und Richtungsableitung; Extremwertaufgaben für Funktionen mehrerer Veränderlicher Technische Universität Chemnitz 1. Juli 20 Fakultät für Mathematik Höhere Mathematik I.2 Übung 22: Gradient und Richtungsableitung; Extremwertaufgaben für Funktionen mehrerer Veränderlicher 1. Durch ein

Mehr

TU Dresden Fachrichtung Mathematik Institut für Numerische Mathematik 1. Dr. M. Herrich SS 2017

TU Dresden Fachrichtung Mathematik Institut für Numerische Mathematik 1. Dr. M. Herrich SS 2017 TU Dresden Fachrichtung Mathematik Institut für Numerische Mathematik Prof. Dr. K. Eppler Institut für Numerische Mathematik Dr. M. Herrich SS 207 Aufgabe Gegeben sei die Funktion f : R 2 R mit Übungen

Mehr

Prof. Dr. H. Brenner Osnabrück SS Analysis II. Vorlesung 50. Hinreichende Kriterien für lokale Extrema

Prof. Dr. H. Brenner Osnabrück SS Analysis II. Vorlesung 50. Hinreichende Kriterien für lokale Extrema Prof. Dr. H. Brenner Osnabrück SS 205 Analysis II Vorlesung 50 Hinreichende Kriterien für lokale Extrema Wir kommen jetzt zu hinreichenden Kriterien für die Existenz von lokalen Extrema einer Funktion

Mehr

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 = Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls

Mehr

Reellwertige Funktionen mehrerer Veränderlicher

Reellwertige Funktionen mehrerer Veränderlicher Reellwertige Funktionen mehrerer Veränderlicher Teilnehmer: Philipp Besel Joschka Braun Robert Courant Florens Greÿner Tim Jaschek Leroy Odunlami Gloria Xiao Heinrich-Hertz-Oberschule, Berlin Ludwigs-Georgs-Gymnasium,

Mehr

6 Weiterer Ausbau der Differentialrechnung

6 Weiterer Ausbau der Differentialrechnung 6 Weiterer Ausbau der Differentialrechnung 6.1 Mittelwertsätze, Extremwerte, Satz von Taylor Motivation: Wie wählt man Höhe und Durchmesser einer Konservendose, so dass bei festem Volumen V möglichst wenig

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Technische Universität München Zentrum Mathematik. Übungsblatt 12 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 1 Hausaufgaben Aufgabe 1.1 Sei f : R R gegeben durch f(x 1, x ) = x 3

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN

TECHNISCHE UNIVERSITÄT MÜNCHEN Prof Dr M Keyl M Kech TECHNISCHE UNIVERSITÄT MÜNCHEN Zentrum Mathematik Mathematik für Physiker (Analysis ) MA90 http://www-m5matumde/allgemeines/ma90 06S Sommersem 06 Lösungsblatt (606) Zentralübung Z

Mehr

Definition: Differenzierbare Funktionen

Definition: Differenzierbare Funktionen Definition: Differenzierbare Funktionen 1/12 Definition. Sei f :]a, b[ R eine Funktion. Sie heißt an der Stelle ξ ]a, b[ differenzierbar, wenn der Grenzwert existiert. f(ξ + h) f(ξ) lim h 0 h = lim x ξ

Mehr

f(x) f(a) f (a) := lim x a Es existiert ein Polynom ersten Grades l(x) = f(a) + c (x a) derart, dass gilt lim x a x a lim

f(x) f(a) f (a) := lim x a Es existiert ein Polynom ersten Grades l(x) = f(a) + c (x a) derart, dass gilt lim x a x a lim A Analysis, Woche 8 Partielle Ableitungen A 8. Partielle Ableitungen Wir haben vorhin Existenzkriterien für Extrema betrachtet, aber wo liegen sie genau? Anders gesagt, wie berechnet man sie? In einer

Mehr

Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen

Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen In diesem Kapitel betrachten wir die Invertierbarkeit von glatten Abbildungen bzw. die Auflösbarkeit von impliziten Gleichungen.

Mehr

3.2 Implizite Funktionen

3.2 Implizite Funktionen 3.2 Implizite Funktionen Funktionen können explizit als y = f(x 1, x 2,..., x n ) oder implizit als F(x 1, x 2,..., x n ;y) = 0 gegeben sein. Offensichtlich kann man die explizite Form immer in die implizite

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Numerische Verfahren der nicht-linearen Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Line

Mehr

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist: Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

18.2 Implizit definierte Funktionen

18.2 Implizit definierte Funktionen 18.2 Implizit definierte Funktionen Ziel: Untersuche Lösungsmengen von nichtlinearen Gleichungssystemen g(x) = 0 mit g : D R m, D R n, d.h. betrachte m Gleichungen für n Unbekannte mit m < n, d.h. wir

Mehr

12 Extremwerte und Monotonie

12 Extremwerte und Monotonie 5 II. Differentialrechnung 1 Extremwerte und Monotonie Lernziele: Resultate: Existenz von Maxima und Minima stetiger Funktionen auf kompakten Intervallen, Monotoniesatz Kompetenzen: Bestimmung lokaler

Mehr

LUDWIG-MAXIMILIANS-UNIVERSITÄT MÜNCHEN. 13. Übung/Lösung Mathematik für Studierende der Biologie

LUDWIG-MAXIMILIANS-UNIVERSITÄT MÜNCHEN. 13. Übung/Lösung Mathematik für Studierende der Biologie LUDWIG-MAXIMILIANS-UNIVERSITÄT MÜNCHEN FAKULTÄT FÜR BIOLOGIE Prof. Andreas Herz, Dr. Stefan Häusler email: haeusler@biologie.uni-muenchen.de Department Biologie II Telefon: 89-8-748 Großhadernerstr. Fax:

Mehr

Dualität bei konvexer Optimierung

Dualität bei konvexer Optimierung Dualität bei konvexer Optimierung Seminar zur Numerik I im SS 2016 Laslo Hunhold 10. Mai 2016 Ausarbeitung zum Seminarvortrag vom 2. Mai 2016 Mathematisches Institut Mathematisch-Naturwissenschaftliche

Mehr

5 Interpolation und Approximation

5 Interpolation und Approximation 5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)

Mehr

Kommentierte Musterlösung zur Klausur HM II für Naturwissenschaftler

Kommentierte Musterlösung zur Klausur HM II für Naturwissenschaftler Kommentierte Musterlösung zur Klausur HM II für Naturwissenschaftler Sommersemester 23 (5.8.23). Gegeben seien die Matrizen A = 2 3 3 und B = 5 2 5 (a) Bestimmen Sie die Eigenwerte von A und B sowie die

Mehr

11 Optimierung von Funktionen einer Veränderlichen

11 Optimierung von Funktionen einer Veränderlichen 11 Optimierung von Funktionen einer Veränderlichen In diesem Kapitel werden die bis hier behandelten Grundlagen der Analysis genutzt, um Methoden aus der Optimierungstheorie für eindimensionale Entscheidungsmengen

Mehr

Optimierung unter Nebenbedingungen

Optimierung unter Nebenbedingungen Optimierung unter Nebenbedingungen Kapitel 7: Optimierung unter Nebenbedingungen Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 1. Juli 2009 1 / 18 7.1 Bemerkung

Mehr

Lösung zur Klausur zur Analysis II

Lösung zur Klausur zur Analysis II Otto von Guericke Universität Magdeburg 9.7.4 Fakultät für Mathematik Lösung zur Klausur zur Analysis II Vorlesung von Prof. L. Tobiska, Sommersemester 4 Bitte benutzen Sie für jede Aufgabe ein eigenes

Mehr

Grundlagen der Mathematik 2 Nachklausur

Grundlagen der Mathematik 2 Nachklausur Andreas Gathmann und Yue Ren Sommersemester 6 Grundlagen der Mathematik Nachklausur Bearbeitungszeit: 8 Minuten Aufgabe (6 Punkte): Es sei f : R R, (x,y) xye (x+y). (a) Bestimme alle lokalen Maxima und

Mehr

II. Nichtlineare Optimierung

II. Nichtlineare Optimierung II. Nichtlineare Optimierung 1. Problemstellungen 2. Grundlagen 3. Probleme ohne Nebenbedingungen 4. Probleme mit Nebenbedingungen Theorie 5. Probleme mit Nebenbedingungen Verfahren H. Weber, FHW, OR SS06,

Mehr