Computational Intelligence 1 / 37. Berechne die Positionen potentieller Optima, d.h. die Stellen an denen der Gradient verschwindet

Größe: px
Ab Seite anzeigen:

Download "Computational Intelligence 1 / 37. Berechne die Positionen potentieller Optima, d.h. die Stellen an denen der Gradient verschwindet"

Transkript

1 1 / 37 Gliederung 1 Analytische Lösung 2 Optimierungsalgorithmen Kalkülbasierte Verfahren Indirekte kalkülbasierte Verfahren Direkte kalkülbasierte Verfahren Zufallsgesteuerte Verfahren Rein zufallsgesteuerte Verfahren Naturanaloge Verfahren Enumerative Verfahren Zusammenfassung Analytische Lösung 3 / 37 Analytische Lösung Überblick Idee Berechne die Positionen potentieller Optima, d.h. die Stellen an denen der Gradient verschwindet Zu erfüllende Bedingungen, damit x ein lokales Minimum ist Notwendige Bedingung Der Gradient f ( x ) verschwindet Hinreichende Bedingung Die Hesse sche Matrix 2 f ( x ) ist positiv definit Vorausetzungen Die Gleichungen der Zielfunktion f : X F müssen symbolisch vorliegen Die Zielfunktion ist (zweifach) differenzierbar Die Nullstellen des Gradienten sind berechenbar

2 Analytische Lösung 4 / 37 Gradient Differentialoperation, die ein Vektorfeld erzeugt Liefert an jeder Stelle den Vektor in Richtung der stärksten Steigung der Funktion Definition: Vektor der n-partiellen Ableitungen der Funktion f ( x) ( ) f ( x) f ( x) f ( x) =,..., x 1 x n Hesse sche Matrix Analytische Lösung 5 / 37 Matrix der n 2 zweiten partiellen Ableitungen der n ersten partiellen Ableitungen bezüglich der n Entscheidungsvariablen 2 f ( x) x 1 x 1 2 f ( x) x 1 x n 2 f ( x) = f ( x) x n x 1 2 f ( x) x n x n

3 Analytische Lösung 6 / 37 Beispiel Zielfunktion f ( x) = x x 2 2 Gradient f ( x) = (2x 1, 2x 2 ) Abbildung: Funktionsplot Abbildung: Gradientenfeld Beispiel (II) Analytische Lösung 7 / 37 Zielfunktion f ( x) = x x 2 2 Hesse sche Matrix 2 f ( x) = ( ) Eigenwerte der Hesse schen Matrix {2, 2} Die Eigenwerte sind positiv, d.h. die Matrix ist positiv definit

4 Analytische Lösung 8 / 37 Beispiel (III) Bestimmung der Minima der Zielfunktion Notwendige Bedingung Identifiziere potentielle Extrema f ( x )! = (0, 0) (2x 1, 2x 2 ) = (0, 0) (x 1, x 2 ) = (0, 0) D.h. x = (0, 0) T ist ein potentielles Extremum (in diesem Fall das einzige) Hinreichende Bedingung Prüfen ob die Extremstelle ein Minimum ist Die Hesse sche Matrix ist (hier konstant) positiv definit Das Extremum ist somit ein Minimum Probleme Analytische Lösung 9 / 37 Mathematische Formulierung der Zielfunktion ist unbekannt (liegt z.b. nur in Form eines Programms vor) Ableitungen können nicht berechnet werden Aufwand zur Bestimmung der Ableitungen ist zu groß Gleichungssysteme i.d.r. nicht lösbar

5 Optimierungsalgorithmen 11 / 37 Iterative Verfahren Überblick Optimierverfahren kalkülbasiert zufallsgesteuert enumerativ Kalkülbasierte Verfahren nutzen Informationen des Gradienten zur Suche des Optimums Zufallsgesteuerte Verfahren nutzen Zufallsprozesse zur Suche des Optimums Enumerative Verfahren werten die Zielfunktion schlicht in allen Punkten des Suchraums aus Optimierungsalgorithmen 12 / 37 Iterative Verfahren Überblick (II) Optimierverfahren kalkülbasiert zufallsgesteuert enumerativ direkt indirekt rein zufallsgesteuert naturanaloge Verfahren vollständig modifiziert Simplex Algorithmus Newton Verfahren Monte Carlo Verfahren Simulated Annealing Evolutionäre Algorithmen erschöpfende Suche Branch-and- Bound Evolutionäre Programmierung Evolutionsstrategien Genetische Algorithmen Genetische Programmierung Abbildung: Klassifikation von Optimierungsalgorithmen [Goldberg 1989]

6 Optimierungsalgorithmen Kalkülbasierte Verfahren 13 / 37 Kalkülbasierte Verfahren Überblick Allgemein Nutzen Gradienten- oder Ableitungsinformationen höherer Ordnung Werden deshalb auch als Gradientenverfahren bezeichnet Klassifikation Direkte Verfahren arbeiten direkt auf der Zielfunktion Iterative, meist deterministische Algorithmen Nutzen die Gradienteninformation implizit durch Auswahl der nachfolgenden Suchschritte Indirekte Verfahren arbeiten indirekt mit der Zielfunktion Berechnen potentielle Positionen der Optima Gewinnen Gradienteninformation explizit durch Methoden der klassischen Analysis Optimierungsalgorithmen Kalkülbasierte Verfahren 14 / 37 Kalkülbasierte Verfahren Überblick (II) Klassifikation ist nicht immer eindeutig Insbesondere: Welche Verfahren sollen als direkt angesehen werden? Strenge Klassifikation [Wright 1995]: A direct search method does not in its heart develop an approximate gradient.

7 Simplex-Verfahren Optimierungsalgorithmen Kalkülbasierte Verfahren 15 / 37 Idee Variiere wiederholt die n + 1 Eckpunkte eines im n-dimensionalen Raum aufgespannten Körpers Iteratives, deterministisches Verfahren Vorgeschlagen von Spendley, Hext & Himsworth [1962] Der Suchkörper ist ein reguläres n-simplex Nicht verwandt mit dem Simplex-Verfahren zur Optimierung linearer Gleichungssysteme Optimierungsalgorithmen Kalkülbasierte Verfahren 16 / 37 Simplex-Verfahren n-simplex Definition (n-simplex) Die konvexe Hülle einer Menge von n + 1 Punkten in allgemeiner Lage im n-dimensionalen euklidischen Raum ist ein n-simplex. Erläuterung Ein n-simplex ist ein durch seine n + 1 Eckpunkte beschriebener n-dimensionaler Körper (genauer: ein Polytop), der im n 1-dimensionalen Raum nicht mehr darstellbar ist Beispiele Im 2-dimensionalen Raum: Ein 2-Simplex ist ein Dreieck Im 3-dimensionalen Raum: Ein 3-Simplex ist ein Tetraeder

8 Optimierungsalgorithmen Kalkülbasierte Verfahren 17 / 37 Simplex-Verfahren Reguläres n-simplex Definition (Reguläres n-simplex) Ein reguläres n-simplex ist ein n-simplex dessen Eckpunkte äquidistant angeordnet sind. Beispiele Im 2-dimensionalen Raum: Ein reguläres 2-Simplex ist ein gleichseitiges Dreieck Im 3-dimensionalen Raum: Ein reguläres 3-Simplex ist ein regulärer Tetraeder Optimierungsalgorithmen Kalkülbasierte Verfahren 18 / 37 Simplex-Verfahren Algorithmus Simplex Algorithmus 1 Wähle ein (zufälliges) durch die Punktmenge M = { P 1,..., P n+1 } mit P i X beschriebenes n-simplex S 0 und berechne die Funktionswerte f ( P i ) in den Eckpunkten P 1,..., P n+1 2 Bestimme den schlechtesten Punkt P 3 Reflektiere P am Schwerpunkt der durch die restlichen n Punkte gebildeten Hyperebene in den Punkt P 4 Berechne f ( P ) 5 Lösche P aus M und füge P hinzu 6 Gehe zu Schritt 2 bis ein Abbruchkriterium erfüllt ist

9 Optimierungsalgorithmen Kalkülbasierte Verfahren 19 / 37 Simplex-Verfahren Reflektionsoperation P 2 P P 2 P P 3 P 1 P 1 P 3 P 4 Optimierungsalgorithmen Kalkülbasierte Verfahren 20 / 37 Simplex-Verfahren Sonderfälle Oszillation Der neu erzeugte Punkt ist wieder der schlechteste. Wähle dann den zweitschlechtesten Punkt als P Rotation Obige Maßnahme führt zur Rotation des gesamten Simplex um den dem Optimum am nächsten liegenden Punkt. Halbiere deshalb die Kantenlänge

10 Optimierungsalgorithmen Kalkülbasierte Verfahren 21 / 37 Erweitertes Simplex-Verfahren Beobachtung Die Kantenlänge kann beim Simplex-Verfahren ausschließlich verkleinert werden, was die Konvergenzgeschwindigkeit des Verfahrens beschränkt. Erweiterung durch Nelder & Mead [1965] Flexiblerer Reflexionsoperator Zusätzlicher Kontraktions- / Expansionsoperator Das Verfahren arbeitet somit mit irregulären Simplizia Gradientenverfahren Optimierungsalgorithmen Kalkülbasierte Verfahren 22 / 37 Idee Führe, beginnend beim Startpunkt, im Suchraum kleine Schritte jeweils in Richtung des steilsten Abstiegs aus, bis ein (lokales) Minimum erreicht ist. Iteratives Verfahren Auch als Methode des steilsten Abstiegs bezeichnet

11 Optimierungsalgorithmen Kalkülbasierte Verfahren 23 / 37 Gradientenverfahren Algorithmus Gradientenverfahren 1 Wähle einen (zufälligen) Startpunkt x (0) X 2 Bestimme den Gradienten am aktuellen Punkt x (i) : x f ( x (i) ) = ( f ( x (i) ),..., f ( x (i) ) ) x 1 x n 3 Führe einen Suchschritt in entgegengesetzter Richtung des Gradienten aus: x (i+1) = x (i) η x f ( x (i) ) (η ist der Schrittweitenparameter) 4 Gehe zu Schritt 2 bis ein Abbruchkriterium erfüllt ist Optimierungsalgorithmen Kalkülbasierte Verfahren 24 / 37 Gradientenverfahren Probleme Wahl des Schrittweitenparameters Bei einem zu kleinem Wert (geringe Schrittweite) kann es lange dauern, bis das Minimum erreicht ist Bei einem zu großen Wert (große Schrittweite) kann es zum Oszillieren kommen (Hin- und Herspringen im Suchraum) Lösungsmöglichkeiten: Momentumterm, adaptive Schrittweiten Stagnation in lokalen Minima Da der Gradient nur lokale Steigungsinformation repräsentiert, wird ggf. nur ein lokales Minimum erreicht Dieses Problem kann hier nicht prinzipiell behoben werden Lösungsmöglichkeiten: Mehrfaches Ausführen von verschiedenen Startpunkten erhöht die Wahrscheinlichkeit, das globale Minimum zu finden.

12 Optimierungsalgorithmen Kalkülbasierte Verfahren 25 / 37 Gradientenverfahren Beispiel Zielfunktion: f (x) = 5 6 x 4 7x x 2 17x + 5 Parameter: Startpunkt x (0) = 2.5, Schrittweite η = ( f x i x (i) f x (i)) f ( x (i)) x (i) x Optimierungsalgorithmen Kalkülbasierte Verfahren 26 / 37 Gradientenverfahren Beispiel (II) Zielfunktion: f (x) = 5 6 x 4 7x x 2 17x + 5 Parameter: Startpunkt x (0) = 3, Schrittweite η = 0.25 ( f x i x (i) f x (i)) f ( x (i)) x (i) x

13 Optimierungsalgorithmen Kalkülbasierte Verfahren 27 / 37 Gradientenverfahren Beispiel (III) Zielfunktion: f (x) = 5 6 x 4 7x x 2 17x + 5 Parameter: Startpunkt x (0) = 1.7, Schrittweite η = 0.05 ( f x i x (i) f x (i)) f ( x (i)) x (i) x Optimierungsalgorithmen Kalkülbasierte Verfahren 28 / 37 Gradientenverfahren Finite Differenzen Methode Was tun, wenn die Ableitungen nicht berechnet werden können? f x f x Näherungslösung mittels Finite Differenzen Methode bestimmen Vorwärts-FD-Operator f x x f x d f ( x + x) f ( x) f ( x) d x x f x x x x x

14 Optimierungsalgorithmen Zufallsgesteuerte Verfahren 29 / 37 Zufallsgesteuerte Verfahren Überblick Zufallsprozess ist integraler Teil der Strategie Klassifikation Rein zufallsgesteuerte Verfahren basieren (fast) ausschließlich auf Zufallsprozessen Rein stochastische Algorithmen (Im Wesentlichen) keine intelligente Algorithmik Naturanaloge Verfahren nutzen Zufallsprozesse lediglich als Teil des Verfahrens Iterative, stochastische Algorithmen Bilden in der Natur beobachtbare Konzepte nach Optimierungsalgorithmen Zufallsgesteuerte Verfahren 30 / 37 Monte Carlo Verfahren Idee Werte die Zielfunktion in n zufällig gewählten Punkten des Suchraums aus Statistische Aussagen über die erzielbare Güte möglich Parallelisierbar Aber: Erworbenes Wissen über die Zielfunktion wird nicht weiter genutzt Exponentielles Wachstum der Anzahl zu überprüfender Punkte um bei steigender Dimension der Zielfunktion den Überdeckungsgrad konstant zu halten

15 Zufallsabstieg Optimierungsalgorithmen Zufallsgesteuerte Verfahren 31 / 37 Idee Bestimme die Richtung in der die Funktion abnimmt durch Auswerten zufällig gewählter Punkte aus der Nachbarschaft des aktuellen Punktes Zufallsabstieg 1 Wähle einen zufälligen Startpunkt x 0 X 2 Wähle zufällig einen Punkt x in der Nähe des aktuellen Punktes x i 3 Setze x i+1 = { x falls f ( x ) f ( x i ) x i sonst 4 Gehe zu Schritt 2 bis ein Abbruchkriterium erfüllt ist Optimierungsalgorithmen Zufallsgesteuerte Verfahren 32 / 37 Simulated Annealing Motivation Inspiriert durch den Ausglühvorgang in der Metalurgie Metallstücke werden erhitzt und kontrolliert abgekühlt um die Kristallgröße zu erhöhen und Defekte im Kritsallgitter zu reduzieren Das Metall wird weicher und lässt sich einfacher bearbeiten Zu Beginn des Prozesses ist die Systemenergie (d.h. Temperatur) hoch Die Wahrscheinlichkeit, dass Atome zwischen verschiedenen Kristallstrukturen wechseln ist deshalb ebenfalls hoch Größere Änderungen sind möglich Die interne Energie der Atome kann abnehmen oder sogar noch ansteigen Im Verlauf des Prozesses sinkt die Systemenergie Die Wahrscheinlichkeit, dass Atome zwischen verschiedenen Kristallstrukturen wechseln sinkt somit ebenfalls Lediglich kleine Änderungen treten auf, insbesondere keine, die die Energie der Atome erhöhen würden Die Zustände niedrigster Energie bleiben bestehen

16 Simulated Annealing Optimierungsalgorithmen Zufallsgesteuerte Verfahren 33 / 37 Idee [Kirkpatrick et al. 1983] Übergänge von höheren auf niedrigere Minima sollen wahrscheinlicher sein als umgekehrt f(x) Verbesserung des Grandientenvertahrens in dem Sinn, dass lokale Optima überwunden werden können x Optimierungsalgorithmen Zufallsgesteuerte Verfahren 34 / 37 Simulated Annealing Prinzipien Aktuelle Lösung wird zufällig variiert Bessere Lösungen werden stets übernommen Auch schlechtere Lösungen können mit einer gewissen Wahrscheinlichkeit übernommen werden Diese Wahrscheinlichkeit sinkt mit Steigendem Qualitätsnachteil der neuen Lösungen Sinkender Systemtemperatur über die Zeit

17 Optimierungsalgorithmen Zufallsgesteuerte Verfahren 35 / 37 Simulated Annealing Algorithmus Simulated Annealing 1 Wähle einen zufälligen Startpunkt x 0 X 2 Wähle zufällig einen Punkt x in der Nähe des aktuellen Punktes x i 3 Setze x falls f ( x ) f ( x i ), sonst x i+1 = x mit Wahrscheinlichkeit p = e f kt, x i mit Wahrscheinlichkeit 1 p, wobei f = f ( x ) f ( x i ) die Qualitätsverringerung der Lösung, k = f max die (geschätzte) maximale Differenz der Funktionswerte und T den Temperaturparmeter bezeichnen. 4 Gehe zu Schritt 2 bis ein Abbruchkriterium erfüllt ist Optimierungsalgorithmen Enumerative Verfahren 36 / 37 Enumerative Verfahren Überblick Allgemein Die Zielfunktion wird in allen Punkten des Suchraums ausgewertet Das Optimum wird garantiert gefunden, da der Suchraum vollständig überprüft wird Branch-and-Bound Entscheidungsbaum-Verfahren Operationen: Branch Zerlege das Problem in Teilprobleme Bound Finde Schranken für die Teilprobleme Ziel: Identifiziere suboptimale Teilbäume, die nicht weiter betrachtet werden müssen Nachteile Nur für diskrete Suchräume anwendbar Die Größe behandelbarer Probleme ist beschränkt

18 Optimierungsalgorithmen Zusammenfassung 37 / 37 Zusammenfassung der vorgestellten Optimierverfahren Die meisten der vorgestellten Verfahren suchen im wesentlichen lokal Zu einem Zeitpunkt wird nur ein Lösungskandidat betrachtet Lösungskandidaten werden nur leicht variiert, d.h. Änderungen bleiben lokal Problem: Es wird ggf. nur ein kleiner Teil des Suchraums untersucht Mögliche Lösung: Mehrmaliges Starten des Algorithmus aus verschiedenen Startpunkten Aber: Zwischen den einzelnen Läufen findet keine Informationsübertragung statt Mögliche Lösung: Große Variation der Lösungskandidaten bis zum Extremfall der völligen Neuberechnung Aber: Zwischen den einzelnen Lösungskandidaten findet zu wenig / keine Informationsübertragung statt (Vgl. Monte-Carlo-Methode) Hieraus folgt Werte bereits erarbeitetes Wissen aus, d.h. Lösungskandidaten müssen im Zusammenhang stehen Überdecke den Suchraum möglichst groß

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

Das Gradientenverfahren

Das Gradientenverfahren Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1

Mehr

NICHTRESTRINGIERTE OPTIMIERUNG

NICHTRESTRINGIERTE OPTIMIERUNG 3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene

Mehr

Extrema multivariater Funktionen

Extrema multivariater Funktionen Extrema multivariater Funktionen Ist f (x ) ein Minimum (Maximum) einer stetig differenzierbaren skalaren Funktion f auf einer Umgebung U von x, so gilt grad f (x ) = (0,..., 0) t. Extrema multivariater

Mehr

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006 Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden

Mehr

1 Umkehrfunktionen und implizite Funktionen

1 Umkehrfunktionen und implizite Funktionen Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13

Mehr

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum. Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit

Mehr

Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie

Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Def.: eine Funktion n f :D mit D,x (x,...x

Mehr

Musterlösung zu Blatt 1

Musterlösung zu Blatt 1 Musterlösung zu Blatt Analysis III für Lehramt Gymnasium Wintersemester 0/4 Überprüfe zunächst die notwendige Bedingung Dfx y z = 0 für die Existenz lokaler Extrema Mit x fx y z = 8x und y fx y z = + z

Mehr

12. Potentialflächen und Optimierung

12. Potentialflächen und Optimierung Dr. Jens Döbler Computeranwendung in der Chemie Informatik für Chemiker(innen) 12. Potentialflächen und Optimierung Jens Döbler 2004 "Computer in der Chemie", WS 2003-04, Humboldt-Universität VL12 Folie

Mehr

Optimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 1 Newton Verfahren Taylor Approximation 1. Ordnung von Newton Verfahren! 0 Setze 0und berechne Löse lineares Gleichungssystem für : 2

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Optimale Steuerung 1

Optimale Steuerung 1 Optimale Steuerung 1 Kapitel 6: Nichtlineare Optimierung unbeschränkter Probleme Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Parameteranpassung für Phasengleichgewicht

Mehr

Extremwerte von Funktionen mehrerer reeller Variabler

Extremwerte von Funktionen mehrerer reeller Variabler Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Prof. Dr. Ottmar Beucher Dezember 2001 Genetische Algorithmen 1 Optimierungsaufgaben Ein einfaches Beispiel Prinzipielle Formulierung Lösungsansätze Genetische Algorithmen Anwendungen

Mehr

Praktische Optimierung

Praktische Optimierung Praktische Optimierung Dozent: Günter Rudolph Vertretung: Nicola Beume Wintersemester 2007/08 Universität Dortmund Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS11) Fachgebiet Computational

Mehr

Analysis II. Vorlesung 47

Analysis II. Vorlesung 47 Prof. Dr. H. Brenner Osnabrück SS 2014 Analysis II Zu einer reellwertigen Funktion Vorlesung 47 interessieren wir uns wie schon bei einem eindimensionalen Definitionsbereich für die Extrema, also Maxima

Mehr

8 Extremwerte reellwertiger Funktionen

8 Extremwerte reellwertiger Funktionen 8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R

Mehr

Praktische Optimierung

Praktische Optimierung Grundlagen klassischer Optimiertechniken Praktische Optimierung Wintersemester 2008/09 Prof Dr Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund Themen der heutigen

Mehr

Extremwertrechnung in mehreren Veränderlichen

Extremwertrechnung in mehreren Veränderlichen KARLSRUHER INSTITUT FÜR TECHNOLOGIE INSTITUT FÜR ANALYSIS Dr. Christoph Schmoeger Heiko Hoffmann SS 2014 14.05.2014 Höhere Mathematik II für die Fachrichtung Informatik 3. Saalübung (14.05.2014) Extremwertrechnung

Mehr

11. Vorlesung Stochastische Optimierung

11. Vorlesung Stochastische Optimierung Soft Control (AT 3, RMA) 11. Vorlesung Stochastische Optimierung Simmulated Annealing 11. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"

Mehr

Mathematik für Anwender II

Mathematik für Anwender II Prof. Dr. H. Brenner Osnabrück SS 2012 Mathematik für Anwender II Vorlesung 49 Zu einer reellwertigen Funktion Extrema auf einer offenen Menge G R n interessieren wir uns, wie schon bei einem eindimensionalen

Mehr

9 Differentialrechnung für Funktionen in n Variablen

9 Differentialrechnung für Funktionen in n Variablen $Id: diff.tex,v.7 29/7/2 3:4:3 hk Exp $ $Id: ntaylor.tex,v.2 29/7/2 3:26:42 hk Exp $ 9 Differentialrechnung für Funktionen in n Variablen 9.6 Lagrange Multiplikatoren Die Berechnung von Maxima und Minima

Mehr

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung 8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen

Mehr

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h. Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,

Mehr

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Das Nelder Mead Verfahren Sei f : R n R eine (nicht

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

Übungen zur Analysis II Blatt 27 - Lösungen

Übungen zur Analysis II Blatt 27 - Lösungen Prof. Dr. Torsten Wedhorn SoSe 22 Daniel Wortmann Übungen zur Analysis II Blatt 27 - Lösungen Aufgabe 5: 6+6+6* Punkte Bestimme alle lokalen Extrema der folgenden Funktionen: a b c* f : R 3 R g : R 2 R

Mehr

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf. IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei

Mehr

Klausur zu Analysis II - Lösungen

Klausur zu Analysis II - Lösungen Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Dr. Axel Grünrock WS 1/11 11..11 Klausur zu Analysis II - Lösungen 1. Entscheiden Sie, ob die folgenden Aussagen richtig oder falsch sind.

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode 6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,

Mehr

Gradient eines Skalarfeldes

Gradient eines Skalarfeldes Gradient eines Skalarfeldes 1-E Gradient eines Skalarfeldes Definition 1: Unter dem Gradient eines differenzierbaren Skalarfeldes Φ (x, y) versteht man den aus den partiellen Ableitungen 1. Ordnung von

Mehr

Kapitel 6 Differential- und Integralrechnung in mehreren Variablen

Kapitel 6 Differential- und Integralrechnung in mehreren Variablen Kapitel 6 Differential- und Integralrechnung in mehreren Variablen Inhaltsverzeichnis FUNKTIONEN IN MEHREREN VARIABLEN... 3 BEISPIELE UND DARSTELLUNGEN... 3 GRENZWERT UND STETIGKEIT (ABSTANDSBEGRIFF)...

Mehr

Rückblick auf die letzte Vorlesung

Rückblick auf die letzte Vorlesung Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige

Mehr

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0. Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales

Mehr

Probeklausur zur Analysis 2, SoSe 2017

Probeklausur zur Analysis 2, SoSe 2017 BERGISCHE UNIVERSITÄT WUPPERTAL 21717 Fakultät 4 - Mathematik und Naturwissenschaften Prof N V Shcherbina Dr T P Pawlaschyk wwwkanauni-wuppertalde Probeklausur zur Analysis 2, SoSe 217 Hinweis Die Lösungen

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Topologie und Differentialrechnung mehrerer Veränderlicher, SS 2009 Modulprüfung/Abschlussklausur. Aufgabe Punkte

Topologie und Differentialrechnung mehrerer Veränderlicher, SS 2009 Modulprüfung/Abschlussklausur. Aufgabe Punkte Universität München 22. Juli 29 Topologie und Differentialrechnung mehrerer Veränderlicher, SS 29 Modulprüfung/Abschlussklausur Name: Aufgabe 2 3 4 Punkte Gesamtpunktzahl: Gesamturteil: Schreiben Sie unbedingt

Mehr

Synthese Eingebetteter Systeme. Übung 6

Synthese Eingebetteter Systeme. Übung 6 12 Synthese Eingebetteter Systeme Sommersemester 2011 Übung 6 Michael Engel Informatik 12 TU Dortmund 2011/07/15 Übung 6 Evolutionäre Algorithmen Simulated Annealing - 2 - Erklären Sie folgende Begriffe

Mehr

Nachklausur zur Analysis 2, SoSe 2017

Nachklausur zur Analysis 2, SoSe 2017 BERGISCHE UNIVERSITÄT WUPPERTAL 18.9.17 Fakultät 4 - Mathematik und Naturwissenschaften Prof. N. V. Shcherbina Dr. T. P. Pawlaschyk www.kana.uni-wuppertal.de Nachklausur zur Analysis 2, SoSe 217 Aufgabe

Mehr

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 } A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder

Mehr

Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung. x = x 2 e x 1.

Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung. x = x 2 e x 1. Name: Matrikel-Nr.: 1 Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung R 3 R 2, x 1 f : x 1 + e x2 2 sin(x3 ) x = x 2 e x 1 (1 + x 2 1 + x, 2x 3 )

Mehr

Lösungsvorschlag zur Nachklausur zur Analysis

Lösungsvorschlag zur Nachklausur zur Analysis Prof Dr H Garcke, D Depner SS 09 NWF I - Mathematik 080009 Universität Regensburg Lösungsvorschlag zur Nachklausur zur Analysis Aufgabe Untersuchen Sie folgende Reihen auf Konvergenz und berechnen Sie

Mehr

(x 1, y 1, λ 1 )) = 0. In Satz 7.6 wird aber nur positive Definitheit über dem Raum U = Ker( g(x 1, y 1 ) ) gefordert. Wir berechnen also U:

(x 1, y 1, λ 1 )) = 0. In Satz 7.6 wird aber nur positive Definitheit über dem Raum U = Ker( g(x 1, y 1 ) ) gefordert. Wir berechnen also U: Sommersemester 6, Lösungsvorschläge zu Blatt, ohne Gewähr, Seite von 5 V.. a) Man erhält λ = und λ = 9. b) Als kritische Punkte erhält man (x, ) = ( 5, 5 ) und (x, ) = ( 5, 5 ) (beide mit dem Multiplikator

Mehr

1 Übungsaufgaben zu Kapitel 1

1 Übungsaufgaben zu Kapitel 1 Übungsaufgaben zu Kapitel. Übungsaufgaben zu Abschnitt... Aufgabe. Untersuchen Sie die nachstehend definierten Folgen ( a k ) k und ( b k ) k auf Konvergenz und bestimmen Sie ggf. den jeweiligen Grenzwert:

Mehr

Multivariate Analysis

Multivariate Analysis Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle

Mehr

v R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i

v R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i MOP: Pareto-Gradientenabstiegsverfahren Annahme: Zielfunktion differenzierbar Wintersemester 2007/08 Praktische Optimierung (Vorlesung) d = 1: (monokriteriell) v R n ist Abstiegsrichtung in x R n wenn

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Regression IV: Anpassung mit nichtlinearen Funktionen. Teil B: Nicht linearisierbare Modelle. -Fortsetzung-

Regression IV: Anpassung mit nichtlinearen Funktionen. Teil B: Nicht linearisierbare Modelle. -Fortsetzung- Regression IV: Anpassung mit nichtlinearen Funktionen Teil B: Nicht linearisierbare Modelle -Fortsetzung- T. Kießling: Auswertung von Messungen und Fehlerrechnung - Linienformanpassung 13.06.2018 Vorlesung

Mehr

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten?

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten? Übungsblatt LV Künstliche Intelligenz, Evolutionäre Algorithmen (), 204 Exercise. Evolution a) Finden Sie zwei Evolutionsbeispiele auÿerhalb der Biologie. Identizieren Sie jeweils Genotyp, Phänotyp, genetische

Mehr

10. Vorlesung Stochastische Optimierung

10. Vorlesung Stochastische Optimierung Soft Control (AT 3, RMA) 10. Vorlesung Stochastische Optimierung Genetische Algorithmen 10. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"

Mehr

Technische Universität Berlin Fakultät II Institut für Mathematik SS 13 G. Bärwolff, C. Mehl, G. Penn-Karras

Technische Universität Berlin Fakultät II Institut für Mathematik SS 13 G. Bärwolff, C. Mehl, G. Penn-Karras Technische Universität Berlin Fakultät II Institut für Mathematik SS 3 G. Bärwolff, C. Mehl, G. Penn-Karras 9..3 Oktober Klausur Analysis II für Ingenieure Rechenteil. Aufgabe Punkte i) Wir berechnen zunächst

Mehr

Übung 22: Gradient und Richtungsableitung; Extremwertaufgaben für Funktionen mehrerer Veränderlicher

Übung 22: Gradient und Richtungsableitung; Extremwertaufgaben für Funktionen mehrerer Veränderlicher Technische Universität Chemnitz 1. Juli 20 Fakultät für Mathematik Höhere Mathematik I.2 Übung 22: Gradient und Richtungsableitung; Extremwertaufgaben für Funktionen mehrerer Veränderlicher 1. Durch ein

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen 7. Juni 201 *Aufgabe 1. Gegeben seien fx, y = xy 2 8e x+y und P = 1, 2. Der Gradient von f ist genau an der Stelle P Null. a Untersuchen Sie mit Hilfe der Hesse-Matrix,

Mehr

2 Funktionen in mehreren Variablen: Differentiation

2 Funktionen in mehreren Variablen: Differentiation Satz 2. (Richtungsableitung) Für jede auf der offenen Menge D R n total differenzierbaren Funktion f (insbesondere für f C 1 (D, R) und für jeden Vektor v R n, v 0, gilt: n v f(x) = f(x) v = f xi (x)v

Mehr

Euklidische Distanzmatrizen. Andrei Grecu

Euklidische Distanzmatrizen. Andrei Grecu Euklidische Distanzmatrizen Andrei Grecu Übersicht Motivation Definition und Problemstellung Algo 1: Semidefinite Programmierung Algo 2: Multidimensional Scaling Algo 3: Spring Embedder Algo 4: Genetischer

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Technische Universität München Zentrum Mathematik. Übungsblatt 12 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 1 Hausaufgaben Aufgabe 1.1 Sei f : R R gegeben durch f(x 1, x ) = x 3

Mehr

Folgerungen aus dem Auflösungsatz

Folgerungen aus dem Auflösungsatz Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und

Mehr

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

5 Numerische Mathematik

5 Numerische Mathematik 6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul

Mehr

Mathematik II: Übungsblatt 03 : Lösungen

Mathematik II: Übungsblatt 03 : Lösungen N.Mahnke Mathematik II: Übungsblatt 03 : Lösungen Verständnisfragen 1. Was bestimmt die erste Ableitung einer Funktion f : D R R im Punkt x 0 D? Die erste Ableitung einer Funktion bestimmt deren Steigung

Mehr

Vorlesung: Analysis II für Ingenieure. Wintersemester 07/08. Michael Karow. Themen: Niveaumengen und Gradient

Vorlesung: Analysis II für Ingenieure. Wintersemester 07/08. Michael Karow. Themen: Niveaumengen und Gradient Vorlesung: Analysis II für Ingenieure Wintersemester 07/08 Michael Karow Themen: Niveaumengen und Gradient Wir betrachten differenzierbare reellwertige Funktionen f : R n G R, G offen Zur Vereinfachung

Mehr

Funktionen untersuchen

Funktionen untersuchen Funktionen untersuchen Mögliche Fragestellungen Definition: lokale und globale Extrema Monotonie und Extrema Notwendige Bedingung für Extrema Hinreichende Kriterien, Vergleich Krümmungsverhalten Neumann/Rodner

Mehr

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten?

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten? Übungsblatt LV Künstliche Intelligenz, Evolutionäre Algorithmen (1), 2015 Aufgabe 1. Evolution a) Finden Sie zwei Evolutionsbeispiele auÿerhalb der Biologie. Identizieren Sie jeweils Genotyp, Phänotyp,

Mehr

Mathematik für Wirtschaftswissenschaftler im WS 12/13 Lösungen zu den Übungsaufgaben Blatt 12

Mathematik für Wirtschaftswissenschaftler im WS 12/13 Lösungen zu den Übungsaufgaben Blatt 12 Mathematik für Wirtschaftswissenschaftler im WS /3 Lösungen zu den Übungsaufgaben Blatt Aufgabe 5 Welche der folgenden Matrizen sind positiv bzw negativ definit? A 8, B 3 7 7 8 9 3, C 7 4 3 3 8 3 3 π 3

Mehr

Kapitel 16 : Differentialrechnung

Kapitel 16 : Differentialrechnung Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen

Mehr

5.10. Mehrdimensionale Extrema und Sattelpunkte

5.10. Mehrdimensionale Extrema und Sattelpunkte 5.1. Mehrdimensionale Extrema und Sattelpunkte Zur Erinnerung: Eine Funktion f von einer Teilmenge A des R n nach R hat im Punkt a ein (strenges) globales Maximum, falls f( x ) f( a ) (bzw. f( x ) < f(

Mehr

Mathematik. für das Ingenieurstudium. 10 Funktionen mit mehreren Variablen. Jürgen Koch Martin Stämpfle.

Mathematik. für das Ingenieurstudium. 10 Funktionen mit mehreren Variablen. Jürgen Koch Martin Stämpfle. 10 Funktionen mit mehreren Variablen www.mathematik-fuer-ingenieure.de 2010 und, Esslingen Dieses Werk ist urheberrechtlich geschützt. Alle Rechte, auch die der Übersetzung, des Nachdruckes und der Vervielfältigung

Mehr

(a), für i = 1,..., n.

(a), für i = 1,..., n. .4 Extremwerte Definition Sei M R n eine Teilmenge, f : M R stetig, a M ein Punkt. f hat in a auf M ein relatives (oder lokales) Maximum bzw. ein relatives (oder lokales) Minimum, wenn es eine offene Umgebung

Mehr

Technische Universität München. Probeklausur Lösung SS 2012

Technische Universität München. Probeklausur Lösung SS 2012 Technische Universität München Andreas Wörfel & Carla Zensen Ferienkurs Analysis für Physiker Probeklausur Lösung SS Aufgabe Differenzierbarkeit / Punkte: [4,, 3, 4] Es sei f(x, y) = sin(x3 + y 3 ) x +

Mehr

M U = {x U f 1 =... = f n k (x) = 0}, (1)

M U = {x U f 1 =... = f n k (x) = 0}, (1) Aufgabe 11. a) Es sei M = {(x, y, z) R 3 f 1 = xy = 0; f = yz = 0}. Der Tangentialraum T x M muss in jedem Punkt x M ein R-Vektorraum sein und die Dimension 1 besitzen, damit diese Menge M eine Untermannigfaltigkeit

Mehr

Berechnung von Extrema

Berechnung von Extrema KAPITEL 2 Berechnung von Extrema 1. Partielle Ableitungen Definition 2.1 (partielle Ableitung). Sei U R n offen und e j der j-te Einheitsvektor. Eine Funktion f : U R ist in x u partiell differenzierbar

Mehr

Übungen zur Ingenieur-Mathematik III WS 2012/13 Blatt

Übungen zur Ingenieur-Mathematik III WS 2012/13 Blatt Übungen zur Ingenieur-Mathematik III WS 2012/13 Blatt 9 19.12.2012 Aufgabe 35: Thema: Differenzierbarkeit a) Was bedeutet für eine Funktion f : R n R, dass f an der Stelle x 0 R n differenzierbar ist?

Mehr

Teil 6. Differentialrechnung mehrerer Veränderlicher

Teil 6. Differentialrechnung mehrerer Veränderlicher Teil 6 Differentialrechnung mehrerer Veränderlicher 95 96 6.1 Topologie von Mengen Umgebung ε-umgebung eines Punktes x R n : B ε (x) = {y : y x < ε} Umgebung U von x: Menge, die eine ε-umgebung von x enthält

Mehr

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2 Kapitel 12 Lagrange-Funktion Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28 Optimierung unter Nebenbedingungen Aufgabe: Berechne die Extrema der Funktion unter der Nebenbedingung

Mehr

Vorlesung: Analysis II für Ingenieure. Wintersemester 09/10. Michael Karow. Themen: Taylor-Entwicklung und lokale Extrema

Vorlesung: Analysis II für Ingenieure. Wintersemester 09/10. Michael Karow. Themen: Taylor-Entwicklung und lokale Extrema Vorlesung: Analysis II für Ingenieure Wintersemester 09/10 Michael Karow Themen: Taylor-Entwicklung und lokale Extrema Motivierendes Beispiel: die Funktion f(x, y) = x(x 1) 2 2 y 2. Dieselbe Funktion von

Mehr

Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) =

Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) = Karlsruher Institut für Technologie (KIT Institut für Analysis Priv-Doz Dr P C Kunstmann Dipl-Math D Roth SS 0 7060 Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8 Übungsblatt

Mehr

Prof. Dr. H. Brenner Osnabrück SS Analysis II. Vorlesung 50. Hinreichende Kriterien für lokale Extrema

Prof. Dr. H. Brenner Osnabrück SS Analysis II. Vorlesung 50. Hinreichende Kriterien für lokale Extrema Prof. Dr. H. Brenner Osnabrück SS 205 Analysis II Vorlesung 50 Hinreichende Kriterien für lokale Extrema Wir kommen jetzt zu hinreichenden Kriterien für die Existenz von lokalen Extrema einer Funktion

Mehr

Verbesserungsheuristiken

Verbesserungsheuristiken Verbesserungsheuristiken Bestandteile der Lokalen Suche Für schwierige Optimierungsaufgaben haben Verbesserungsheuristiken eine große praktische Bedeutung. Sie starten mit Ausgangslösungen, die von z.b.

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

Übungen zur Ingenieur-Mathematik III WS 2011/12 Blatt Aufgabe 25: Berechnen Sie den kritischen Punkt der Funktion

Übungen zur Ingenieur-Mathematik III WS 2011/12 Blatt Aufgabe 25: Berechnen Sie den kritischen Punkt der Funktion Übungen zur Ingenieur-Mathematik III WS 11/1 Blatt 8 3.11.11 Aufgabe 5: Berechnen Sie den kritischen Punkt der Funktion fx, y 3x 5xy y + 3 und entscheiden Sie, ob ein Maximum, Minimum oder Sattelpunkt

Mehr

18.4 Das Newton-Verfahren

18.4 Das Newton-Verfahren 18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift

Mehr

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang Sommersemester 03 6.06.03 Höhere Mathematik II für die Fachrichtungen Elektrotechnik und Informationstechnik

Mehr

18.2 Implizit definierte Funktionen

18.2 Implizit definierte Funktionen 18.2 Implizit definierte Funktionen Ziel: Untersuche Lösungsmengen von nichtlinearen Gleichungssystemen g(x) = 0 mit g : D R m, D R n, d.h. betrachte m Gleichungen für n Unbekannte mit m < n, d.h. wir

Mehr

Name: Matr.-Nr.: 2. Aufgabe 1. Gegeben sei das folgende lineare Gleichungssystem: b a 2 3a 1

Name: Matr.-Nr.: 2. Aufgabe 1. Gegeben sei das folgende lineare Gleichungssystem: b a 2 3a 1 Name: Matr.-Nr.: 2 Aufgabe 1. Gegeben sei das folgende lineare Gleichungssystem: 1 1 0 2 b 1 1 2 4 1 1 4 6 x = 1 1. 2 2 2a 2 3a 1 (a) Bringen Sie das lineare Gleichungssystem auf Treppenform. (b) Für welche

Mehr

Lösungsskizzen zur Klausur Mathematik II

Lösungsskizzen zur Klausur Mathematik II sskizzen zur Klausur Mathematik II vom..7 Aufgabe Es sei die Ebene im R 3 gegeben. E = +λ 3 + µ λ,µ R (a) Geben Sie die Hesse-Normalform der Ebene E an. (b) Berechnen Sie die orthogonale Projektion Π E

Mehr

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

Aufgabe 1 (7 Punkte) Prüfung Optimierung dynamischer Systeme ( 6) = lim p. Techn. Mechanik & Fahrzeugdynamik

Aufgabe 1 (7 Punkte) Prüfung Optimierung dynamischer Systeme ( 6) = lim p. Techn. Mechanik & Fahrzeugdynamik Techn. Mechanik & Fahrzeugdynamik Optimierung Prof. Dr.-Ing. habil. Hon. Prof. (NUST) D. Bestle 8. September 7 Aufgabe (7 Punkte) Die Ableitung der Funktion f ( p) p 5sin p soll mithilfe des Vorwärtsdifferenzenverfahrens

Mehr

2. Optimierungsprobleme 6

2. Optimierungsprobleme 6 6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen

Mehr

Analysis II. Aufgaben zum Stoff der Analysis I und II Lösungsvorschlag

Analysis II. Aufgaben zum Stoff der Analysis I und II Lösungsvorschlag Prof Dr H Garcke, D Depner SS 9 NWF I - Mathematik 1979 Universität Regensburg Aufgabe 1 Analysis II Aufgaben zum Stoff der Analysis I und II Lösungsvorschlag i Erinnern Sie sich an die Konvergenzkriterien

Mehr

Übungen zur Vorlesung Mathematik im Querschnitt Lösungsvorschlag

Übungen zur Vorlesung Mathematik im Querschnitt Lösungsvorschlag MATHEMATISCHES INSTITUT DER UNIVERSITÄT MÜNCHEN Dr. E. Schörner WS 06/7 Blatt 4 5..06 Übungen zur Vorlesung Mathematik im Querschnitt Lösungsvorschlag 3. Die gegebene Polynomfunktion f : R R, f(x, y) =

Mehr

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden

Mehr