Computational Intelligence 1 / 37. Berechne die Positionen potentieller Optima, d.h. die Stellen an denen der Gradient verschwindet
|
|
- Achim Horst Ziegler
- vor 5 Jahren
- Abrufe
Transkript
1 1 / 37 Gliederung 1 Analytische Lösung 2 Optimierungsalgorithmen Kalkülbasierte Verfahren Indirekte kalkülbasierte Verfahren Direkte kalkülbasierte Verfahren Zufallsgesteuerte Verfahren Rein zufallsgesteuerte Verfahren Naturanaloge Verfahren Enumerative Verfahren Zusammenfassung Analytische Lösung 3 / 37 Analytische Lösung Überblick Idee Berechne die Positionen potentieller Optima, d.h. die Stellen an denen der Gradient verschwindet Zu erfüllende Bedingungen, damit x ein lokales Minimum ist Notwendige Bedingung Der Gradient f ( x ) verschwindet Hinreichende Bedingung Die Hesse sche Matrix 2 f ( x ) ist positiv definit Vorausetzungen Die Gleichungen der Zielfunktion f : X F müssen symbolisch vorliegen Die Zielfunktion ist (zweifach) differenzierbar Die Nullstellen des Gradienten sind berechenbar
2 Analytische Lösung 4 / 37 Gradient Differentialoperation, die ein Vektorfeld erzeugt Liefert an jeder Stelle den Vektor in Richtung der stärksten Steigung der Funktion Definition: Vektor der n-partiellen Ableitungen der Funktion f ( x) ( ) f ( x) f ( x) f ( x) =,..., x 1 x n Hesse sche Matrix Analytische Lösung 5 / 37 Matrix der n 2 zweiten partiellen Ableitungen der n ersten partiellen Ableitungen bezüglich der n Entscheidungsvariablen 2 f ( x) x 1 x 1 2 f ( x) x 1 x n 2 f ( x) = f ( x) x n x 1 2 f ( x) x n x n
3 Analytische Lösung 6 / 37 Beispiel Zielfunktion f ( x) = x x 2 2 Gradient f ( x) = (2x 1, 2x 2 ) Abbildung: Funktionsplot Abbildung: Gradientenfeld Beispiel (II) Analytische Lösung 7 / 37 Zielfunktion f ( x) = x x 2 2 Hesse sche Matrix 2 f ( x) = ( ) Eigenwerte der Hesse schen Matrix {2, 2} Die Eigenwerte sind positiv, d.h. die Matrix ist positiv definit
4 Analytische Lösung 8 / 37 Beispiel (III) Bestimmung der Minima der Zielfunktion Notwendige Bedingung Identifiziere potentielle Extrema f ( x )! = (0, 0) (2x 1, 2x 2 ) = (0, 0) (x 1, x 2 ) = (0, 0) D.h. x = (0, 0) T ist ein potentielles Extremum (in diesem Fall das einzige) Hinreichende Bedingung Prüfen ob die Extremstelle ein Minimum ist Die Hesse sche Matrix ist (hier konstant) positiv definit Das Extremum ist somit ein Minimum Probleme Analytische Lösung 9 / 37 Mathematische Formulierung der Zielfunktion ist unbekannt (liegt z.b. nur in Form eines Programms vor) Ableitungen können nicht berechnet werden Aufwand zur Bestimmung der Ableitungen ist zu groß Gleichungssysteme i.d.r. nicht lösbar
5 Optimierungsalgorithmen 11 / 37 Iterative Verfahren Überblick Optimierverfahren kalkülbasiert zufallsgesteuert enumerativ Kalkülbasierte Verfahren nutzen Informationen des Gradienten zur Suche des Optimums Zufallsgesteuerte Verfahren nutzen Zufallsprozesse zur Suche des Optimums Enumerative Verfahren werten die Zielfunktion schlicht in allen Punkten des Suchraums aus Optimierungsalgorithmen 12 / 37 Iterative Verfahren Überblick (II) Optimierverfahren kalkülbasiert zufallsgesteuert enumerativ direkt indirekt rein zufallsgesteuert naturanaloge Verfahren vollständig modifiziert Simplex Algorithmus Newton Verfahren Monte Carlo Verfahren Simulated Annealing Evolutionäre Algorithmen erschöpfende Suche Branch-and- Bound Evolutionäre Programmierung Evolutionsstrategien Genetische Algorithmen Genetische Programmierung Abbildung: Klassifikation von Optimierungsalgorithmen [Goldberg 1989]
6 Optimierungsalgorithmen Kalkülbasierte Verfahren 13 / 37 Kalkülbasierte Verfahren Überblick Allgemein Nutzen Gradienten- oder Ableitungsinformationen höherer Ordnung Werden deshalb auch als Gradientenverfahren bezeichnet Klassifikation Direkte Verfahren arbeiten direkt auf der Zielfunktion Iterative, meist deterministische Algorithmen Nutzen die Gradienteninformation implizit durch Auswahl der nachfolgenden Suchschritte Indirekte Verfahren arbeiten indirekt mit der Zielfunktion Berechnen potentielle Positionen der Optima Gewinnen Gradienteninformation explizit durch Methoden der klassischen Analysis Optimierungsalgorithmen Kalkülbasierte Verfahren 14 / 37 Kalkülbasierte Verfahren Überblick (II) Klassifikation ist nicht immer eindeutig Insbesondere: Welche Verfahren sollen als direkt angesehen werden? Strenge Klassifikation [Wright 1995]: A direct search method does not in its heart develop an approximate gradient.
7 Simplex-Verfahren Optimierungsalgorithmen Kalkülbasierte Verfahren 15 / 37 Idee Variiere wiederholt die n + 1 Eckpunkte eines im n-dimensionalen Raum aufgespannten Körpers Iteratives, deterministisches Verfahren Vorgeschlagen von Spendley, Hext & Himsworth [1962] Der Suchkörper ist ein reguläres n-simplex Nicht verwandt mit dem Simplex-Verfahren zur Optimierung linearer Gleichungssysteme Optimierungsalgorithmen Kalkülbasierte Verfahren 16 / 37 Simplex-Verfahren n-simplex Definition (n-simplex) Die konvexe Hülle einer Menge von n + 1 Punkten in allgemeiner Lage im n-dimensionalen euklidischen Raum ist ein n-simplex. Erläuterung Ein n-simplex ist ein durch seine n + 1 Eckpunkte beschriebener n-dimensionaler Körper (genauer: ein Polytop), der im n 1-dimensionalen Raum nicht mehr darstellbar ist Beispiele Im 2-dimensionalen Raum: Ein 2-Simplex ist ein Dreieck Im 3-dimensionalen Raum: Ein 3-Simplex ist ein Tetraeder
8 Optimierungsalgorithmen Kalkülbasierte Verfahren 17 / 37 Simplex-Verfahren Reguläres n-simplex Definition (Reguläres n-simplex) Ein reguläres n-simplex ist ein n-simplex dessen Eckpunkte äquidistant angeordnet sind. Beispiele Im 2-dimensionalen Raum: Ein reguläres 2-Simplex ist ein gleichseitiges Dreieck Im 3-dimensionalen Raum: Ein reguläres 3-Simplex ist ein regulärer Tetraeder Optimierungsalgorithmen Kalkülbasierte Verfahren 18 / 37 Simplex-Verfahren Algorithmus Simplex Algorithmus 1 Wähle ein (zufälliges) durch die Punktmenge M = { P 1,..., P n+1 } mit P i X beschriebenes n-simplex S 0 und berechne die Funktionswerte f ( P i ) in den Eckpunkten P 1,..., P n+1 2 Bestimme den schlechtesten Punkt P 3 Reflektiere P am Schwerpunkt der durch die restlichen n Punkte gebildeten Hyperebene in den Punkt P 4 Berechne f ( P ) 5 Lösche P aus M und füge P hinzu 6 Gehe zu Schritt 2 bis ein Abbruchkriterium erfüllt ist
9 Optimierungsalgorithmen Kalkülbasierte Verfahren 19 / 37 Simplex-Verfahren Reflektionsoperation P 2 P P 2 P P 3 P 1 P 1 P 3 P 4 Optimierungsalgorithmen Kalkülbasierte Verfahren 20 / 37 Simplex-Verfahren Sonderfälle Oszillation Der neu erzeugte Punkt ist wieder der schlechteste. Wähle dann den zweitschlechtesten Punkt als P Rotation Obige Maßnahme führt zur Rotation des gesamten Simplex um den dem Optimum am nächsten liegenden Punkt. Halbiere deshalb die Kantenlänge
10 Optimierungsalgorithmen Kalkülbasierte Verfahren 21 / 37 Erweitertes Simplex-Verfahren Beobachtung Die Kantenlänge kann beim Simplex-Verfahren ausschließlich verkleinert werden, was die Konvergenzgeschwindigkeit des Verfahrens beschränkt. Erweiterung durch Nelder & Mead [1965] Flexiblerer Reflexionsoperator Zusätzlicher Kontraktions- / Expansionsoperator Das Verfahren arbeitet somit mit irregulären Simplizia Gradientenverfahren Optimierungsalgorithmen Kalkülbasierte Verfahren 22 / 37 Idee Führe, beginnend beim Startpunkt, im Suchraum kleine Schritte jeweils in Richtung des steilsten Abstiegs aus, bis ein (lokales) Minimum erreicht ist. Iteratives Verfahren Auch als Methode des steilsten Abstiegs bezeichnet
11 Optimierungsalgorithmen Kalkülbasierte Verfahren 23 / 37 Gradientenverfahren Algorithmus Gradientenverfahren 1 Wähle einen (zufälligen) Startpunkt x (0) X 2 Bestimme den Gradienten am aktuellen Punkt x (i) : x f ( x (i) ) = ( f ( x (i) ),..., f ( x (i) ) ) x 1 x n 3 Führe einen Suchschritt in entgegengesetzter Richtung des Gradienten aus: x (i+1) = x (i) η x f ( x (i) ) (η ist der Schrittweitenparameter) 4 Gehe zu Schritt 2 bis ein Abbruchkriterium erfüllt ist Optimierungsalgorithmen Kalkülbasierte Verfahren 24 / 37 Gradientenverfahren Probleme Wahl des Schrittweitenparameters Bei einem zu kleinem Wert (geringe Schrittweite) kann es lange dauern, bis das Minimum erreicht ist Bei einem zu großen Wert (große Schrittweite) kann es zum Oszillieren kommen (Hin- und Herspringen im Suchraum) Lösungsmöglichkeiten: Momentumterm, adaptive Schrittweiten Stagnation in lokalen Minima Da der Gradient nur lokale Steigungsinformation repräsentiert, wird ggf. nur ein lokales Minimum erreicht Dieses Problem kann hier nicht prinzipiell behoben werden Lösungsmöglichkeiten: Mehrfaches Ausführen von verschiedenen Startpunkten erhöht die Wahrscheinlichkeit, das globale Minimum zu finden.
12 Optimierungsalgorithmen Kalkülbasierte Verfahren 25 / 37 Gradientenverfahren Beispiel Zielfunktion: f (x) = 5 6 x 4 7x x 2 17x + 5 Parameter: Startpunkt x (0) = 2.5, Schrittweite η = ( f x i x (i) f x (i)) f ( x (i)) x (i) x Optimierungsalgorithmen Kalkülbasierte Verfahren 26 / 37 Gradientenverfahren Beispiel (II) Zielfunktion: f (x) = 5 6 x 4 7x x 2 17x + 5 Parameter: Startpunkt x (0) = 3, Schrittweite η = 0.25 ( f x i x (i) f x (i)) f ( x (i)) x (i) x
13 Optimierungsalgorithmen Kalkülbasierte Verfahren 27 / 37 Gradientenverfahren Beispiel (III) Zielfunktion: f (x) = 5 6 x 4 7x x 2 17x + 5 Parameter: Startpunkt x (0) = 1.7, Schrittweite η = 0.05 ( f x i x (i) f x (i)) f ( x (i)) x (i) x Optimierungsalgorithmen Kalkülbasierte Verfahren 28 / 37 Gradientenverfahren Finite Differenzen Methode Was tun, wenn die Ableitungen nicht berechnet werden können? f x f x Näherungslösung mittels Finite Differenzen Methode bestimmen Vorwärts-FD-Operator f x x f x d f ( x + x) f ( x) f ( x) d x x f x x x x x
14 Optimierungsalgorithmen Zufallsgesteuerte Verfahren 29 / 37 Zufallsgesteuerte Verfahren Überblick Zufallsprozess ist integraler Teil der Strategie Klassifikation Rein zufallsgesteuerte Verfahren basieren (fast) ausschließlich auf Zufallsprozessen Rein stochastische Algorithmen (Im Wesentlichen) keine intelligente Algorithmik Naturanaloge Verfahren nutzen Zufallsprozesse lediglich als Teil des Verfahrens Iterative, stochastische Algorithmen Bilden in der Natur beobachtbare Konzepte nach Optimierungsalgorithmen Zufallsgesteuerte Verfahren 30 / 37 Monte Carlo Verfahren Idee Werte die Zielfunktion in n zufällig gewählten Punkten des Suchraums aus Statistische Aussagen über die erzielbare Güte möglich Parallelisierbar Aber: Erworbenes Wissen über die Zielfunktion wird nicht weiter genutzt Exponentielles Wachstum der Anzahl zu überprüfender Punkte um bei steigender Dimension der Zielfunktion den Überdeckungsgrad konstant zu halten
15 Zufallsabstieg Optimierungsalgorithmen Zufallsgesteuerte Verfahren 31 / 37 Idee Bestimme die Richtung in der die Funktion abnimmt durch Auswerten zufällig gewählter Punkte aus der Nachbarschaft des aktuellen Punktes Zufallsabstieg 1 Wähle einen zufälligen Startpunkt x 0 X 2 Wähle zufällig einen Punkt x in der Nähe des aktuellen Punktes x i 3 Setze x i+1 = { x falls f ( x ) f ( x i ) x i sonst 4 Gehe zu Schritt 2 bis ein Abbruchkriterium erfüllt ist Optimierungsalgorithmen Zufallsgesteuerte Verfahren 32 / 37 Simulated Annealing Motivation Inspiriert durch den Ausglühvorgang in der Metalurgie Metallstücke werden erhitzt und kontrolliert abgekühlt um die Kristallgröße zu erhöhen und Defekte im Kritsallgitter zu reduzieren Das Metall wird weicher und lässt sich einfacher bearbeiten Zu Beginn des Prozesses ist die Systemenergie (d.h. Temperatur) hoch Die Wahrscheinlichkeit, dass Atome zwischen verschiedenen Kristallstrukturen wechseln ist deshalb ebenfalls hoch Größere Änderungen sind möglich Die interne Energie der Atome kann abnehmen oder sogar noch ansteigen Im Verlauf des Prozesses sinkt die Systemenergie Die Wahrscheinlichkeit, dass Atome zwischen verschiedenen Kristallstrukturen wechseln sinkt somit ebenfalls Lediglich kleine Änderungen treten auf, insbesondere keine, die die Energie der Atome erhöhen würden Die Zustände niedrigster Energie bleiben bestehen
16 Simulated Annealing Optimierungsalgorithmen Zufallsgesteuerte Verfahren 33 / 37 Idee [Kirkpatrick et al. 1983] Übergänge von höheren auf niedrigere Minima sollen wahrscheinlicher sein als umgekehrt f(x) Verbesserung des Grandientenvertahrens in dem Sinn, dass lokale Optima überwunden werden können x Optimierungsalgorithmen Zufallsgesteuerte Verfahren 34 / 37 Simulated Annealing Prinzipien Aktuelle Lösung wird zufällig variiert Bessere Lösungen werden stets übernommen Auch schlechtere Lösungen können mit einer gewissen Wahrscheinlichkeit übernommen werden Diese Wahrscheinlichkeit sinkt mit Steigendem Qualitätsnachteil der neuen Lösungen Sinkender Systemtemperatur über die Zeit
17 Optimierungsalgorithmen Zufallsgesteuerte Verfahren 35 / 37 Simulated Annealing Algorithmus Simulated Annealing 1 Wähle einen zufälligen Startpunkt x 0 X 2 Wähle zufällig einen Punkt x in der Nähe des aktuellen Punktes x i 3 Setze x falls f ( x ) f ( x i ), sonst x i+1 = x mit Wahrscheinlichkeit p = e f kt, x i mit Wahrscheinlichkeit 1 p, wobei f = f ( x ) f ( x i ) die Qualitätsverringerung der Lösung, k = f max die (geschätzte) maximale Differenz der Funktionswerte und T den Temperaturparmeter bezeichnen. 4 Gehe zu Schritt 2 bis ein Abbruchkriterium erfüllt ist Optimierungsalgorithmen Enumerative Verfahren 36 / 37 Enumerative Verfahren Überblick Allgemein Die Zielfunktion wird in allen Punkten des Suchraums ausgewertet Das Optimum wird garantiert gefunden, da der Suchraum vollständig überprüft wird Branch-and-Bound Entscheidungsbaum-Verfahren Operationen: Branch Zerlege das Problem in Teilprobleme Bound Finde Schranken für die Teilprobleme Ziel: Identifiziere suboptimale Teilbäume, die nicht weiter betrachtet werden müssen Nachteile Nur für diskrete Suchräume anwendbar Die Größe behandelbarer Probleme ist beschränkt
18 Optimierungsalgorithmen Zusammenfassung 37 / 37 Zusammenfassung der vorgestellten Optimierverfahren Die meisten der vorgestellten Verfahren suchen im wesentlichen lokal Zu einem Zeitpunkt wird nur ein Lösungskandidat betrachtet Lösungskandidaten werden nur leicht variiert, d.h. Änderungen bleiben lokal Problem: Es wird ggf. nur ein kleiner Teil des Suchraums untersucht Mögliche Lösung: Mehrmaliges Starten des Algorithmus aus verschiedenen Startpunkten Aber: Zwischen den einzelnen Läufen findet keine Informationsübertragung statt Mögliche Lösung: Große Variation der Lösungskandidaten bis zum Extremfall der völligen Neuberechnung Aber: Zwischen den einzelnen Lösungskandidaten findet zu wenig / keine Informationsübertragung statt (Vgl. Monte-Carlo-Methode) Hieraus folgt Werte bereits erarbeitetes Wissen aus, d.h. Lösungskandidaten müssen im Zusammenhang stehen Überdecke den Suchraum möglichst groß
Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
MehrDas Gradientenverfahren
Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1
MehrNICHTRESTRINGIERTE OPTIMIERUNG
3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene
MehrExtrema multivariater Funktionen
Extrema multivariater Funktionen Ist f (x ) ein Minimum (Maximum) einer stetig differenzierbaren skalaren Funktion f auf einer Umgebung U von x, so gilt grad f (x ) = (0,..., 0) t. Extrema multivariater
MehrTeil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006
Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden
Mehr1 Umkehrfunktionen und implizite Funktionen
Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13
Mehrf(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.
Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit
MehrDifferenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie
Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Def.: eine Funktion n f :D mit D,x (x,...x
MehrMusterlösung zu Blatt 1
Musterlösung zu Blatt Analysis III für Lehramt Gymnasium Wintersemester 0/4 Überprüfe zunächst die notwendige Bedingung Dfx y z = 0 für die Existenz lokaler Extrema Mit x fx y z = 8x und y fx y z = + z
Mehr12. Potentialflächen und Optimierung
Dr. Jens Döbler Computeranwendung in der Chemie Informatik für Chemiker(innen) 12. Potentialflächen und Optimierung Jens Döbler 2004 "Computer in der Chemie", WS 2003-04, Humboldt-Universität VL12 Folie
MehrOptimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 1 Newton Verfahren Taylor Approximation 1. Ordnung von Newton Verfahren! 0 Setze 0und berechne Löse lineares Gleichungssystem für : 2
MehrAnwendungen der Differentialrechnung
KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrOptimale Steuerung 1
Optimale Steuerung 1 Kapitel 6: Nichtlineare Optimierung unbeschränkter Probleme Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Parameteranpassung für Phasengleichgewicht
MehrExtremwerte von Funktionen mehrerer reeller Variabler
Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein
MehrGenetische Algorithmen
Genetische Algorithmen Prof. Dr. Ottmar Beucher Dezember 2001 Genetische Algorithmen 1 Optimierungsaufgaben Ein einfaches Beispiel Prinzipielle Formulierung Lösungsansätze Genetische Algorithmen Anwendungen
MehrPraktische Optimierung
Praktische Optimierung Dozent: Günter Rudolph Vertretung: Nicola Beume Wintersemester 2007/08 Universität Dortmund Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS11) Fachgebiet Computational
MehrAnalysis II. Vorlesung 47
Prof. Dr. H. Brenner Osnabrück SS 2014 Analysis II Zu einer reellwertigen Funktion Vorlesung 47 interessieren wir uns wie schon bei einem eindimensionalen Definitionsbereich für die Extrema, also Maxima
Mehr8 Extremwerte reellwertiger Funktionen
8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R
MehrPraktische Optimierung
Grundlagen klassischer Optimiertechniken Praktische Optimierung Wintersemester 2008/09 Prof Dr Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund Themen der heutigen
MehrExtremwertrechnung in mehreren Veränderlichen
KARLSRUHER INSTITUT FÜR TECHNOLOGIE INSTITUT FÜR ANALYSIS Dr. Christoph Schmoeger Heiko Hoffmann SS 2014 14.05.2014 Höhere Mathematik II für die Fachrichtung Informatik 3. Saalübung (14.05.2014) Extremwertrechnung
Mehr11. Vorlesung Stochastische Optimierung
Soft Control (AT 3, RMA) 11. Vorlesung Stochastische Optimierung Simmulated Annealing 11. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"
MehrMathematik für Anwender II
Prof. Dr. H. Brenner Osnabrück SS 2012 Mathematik für Anwender II Vorlesung 49 Zu einer reellwertigen Funktion Extrema auf einer offenen Menge G R n interessieren wir uns, wie schon bei einem eindimensionalen
Mehr9 Differentialrechnung für Funktionen in n Variablen
$Id: diff.tex,v.7 29/7/2 3:4:3 hk Exp $ $Id: ntaylor.tex,v.2 29/7/2 3:26:42 hk Exp $ 9 Differentialrechnung für Funktionen in n Variablen 9.6 Lagrange Multiplikatoren Die Berechnung von Maxima und Minima
MehrInhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung
8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen
MehrKonvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.
Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,
MehrNumerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben
Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Das Nelder Mead Verfahren Sei f : R n R eine (nicht
MehrRückblick auf die letzte Vorlesung. Bemerkung
Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D
MehrÜbungen zur Analysis II Blatt 27 - Lösungen
Prof. Dr. Torsten Wedhorn SoSe 22 Daniel Wortmann Übungen zur Analysis II Blatt 27 - Lösungen Aufgabe 5: 6+6+6* Punkte Bestimme alle lokalen Extrema der folgenden Funktionen: a b c* f : R 3 R g : R 2 R
MehrVF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.
IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei
MehrKlausur zu Analysis II - Lösungen
Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Dr. Axel Grünrock WS 1/11 11..11 Klausur zu Analysis II - Lösungen 1. Entscheiden Sie, ob die folgenden Aussagen richtig oder falsch sind.
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
Mehr6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode
6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,
MehrGradient eines Skalarfeldes
Gradient eines Skalarfeldes 1-E Gradient eines Skalarfeldes Definition 1: Unter dem Gradient eines differenzierbaren Skalarfeldes Φ (x, y) versteht man den aus den partiellen Ableitungen 1. Ordnung von
MehrKapitel 6 Differential- und Integralrechnung in mehreren Variablen
Kapitel 6 Differential- und Integralrechnung in mehreren Variablen Inhaltsverzeichnis FUNKTIONEN IN MEHREREN VARIABLEN... 3 BEISPIELE UND DARSTELLUNGEN... 3 GRENZWERT UND STETIGKEIT (ABSTANDSBEGRIFF)...
MehrRückblick auf die letzte Vorlesung
Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige
Mehrf f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.
Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales
MehrProbeklausur zur Analysis 2, SoSe 2017
BERGISCHE UNIVERSITÄT WUPPERTAL 21717 Fakultät 4 - Mathematik und Naturwissenschaften Prof N V Shcherbina Dr T P Pawlaschyk wwwkanauni-wuppertalde Probeklausur zur Analysis 2, SoSe 217 Hinweis Die Lösungen
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
MehrTopologie und Differentialrechnung mehrerer Veränderlicher, SS 2009 Modulprüfung/Abschlussklausur. Aufgabe Punkte
Universität München 22. Juli 29 Topologie und Differentialrechnung mehrerer Veränderlicher, SS 29 Modulprüfung/Abschlussklausur Name: Aufgabe 2 3 4 Punkte Gesamtpunktzahl: Gesamturteil: Schreiben Sie unbedingt
MehrSynthese Eingebetteter Systeme. Übung 6
12 Synthese Eingebetteter Systeme Sommersemester 2011 Übung 6 Michael Engel Informatik 12 TU Dortmund 2011/07/15 Übung 6 Evolutionäre Algorithmen Simulated Annealing - 2 - Erklären Sie folgende Begriffe
MehrNachklausur zur Analysis 2, SoSe 2017
BERGISCHE UNIVERSITÄT WUPPERTAL 18.9.17 Fakultät 4 - Mathematik und Naturwissenschaften Prof. N. V. Shcherbina Dr. T. P. Pawlaschyk www.kana.uni-wuppertal.de Nachklausur zur Analysis 2, SoSe 217 Aufgabe
MehrWenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }
A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder
MehrAufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung. x = x 2 e x 1.
Name: Matrikel-Nr.: 1 Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung R 3 R 2, x 1 f : x 1 + e x2 2 sin(x3 ) x = x 2 e x 1 (1 + x 2 1 + x, 2x 3 )
MehrLösungsvorschlag zur Nachklausur zur Analysis
Prof Dr H Garcke, D Depner SS 09 NWF I - Mathematik 080009 Universität Regensburg Lösungsvorschlag zur Nachklausur zur Analysis Aufgabe Untersuchen Sie folgende Reihen auf Konvergenz und berechnen Sie
Mehr(x 1, y 1, λ 1 )) = 0. In Satz 7.6 wird aber nur positive Definitheit über dem Raum U = Ker( g(x 1, y 1 ) ) gefordert. Wir berechnen also U:
Sommersemester 6, Lösungsvorschläge zu Blatt, ohne Gewähr, Seite von 5 V.. a) Man erhält λ = und λ = 9. b) Als kritische Punkte erhält man (x, ) = ( 5, 5 ) und (x, ) = ( 5, 5 ) (beide mit dem Multiplikator
Mehr1 Übungsaufgaben zu Kapitel 1
Übungsaufgaben zu Kapitel. Übungsaufgaben zu Abschnitt... Aufgabe. Untersuchen Sie die nachstehend definierten Folgen ( a k ) k und ( b k ) k auf Konvergenz und bestimmen Sie ggf. den jeweiligen Grenzwert:
MehrMultivariate Analysis
Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle
Mehrv R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i
MOP: Pareto-Gradientenabstiegsverfahren Annahme: Zielfunktion differenzierbar Wintersemester 2007/08 Praktische Optimierung (Vorlesung) d = 1: (monokriteriell) v R n ist Abstiegsrichtung in x R n wenn
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrRegression IV: Anpassung mit nichtlinearen Funktionen. Teil B: Nicht linearisierbare Modelle. -Fortsetzung-
Regression IV: Anpassung mit nichtlinearen Funktionen Teil B: Nicht linearisierbare Modelle -Fortsetzung- T. Kießling: Auswertung von Messungen und Fehlerrechnung - Linienformanpassung 13.06.2018 Vorlesung
Mehrb) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten?
Übungsblatt LV Künstliche Intelligenz, Evolutionäre Algorithmen (), 204 Exercise. Evolution a) Finden Sie zwei Evolutionsbeispiele auÿerhalb der Biologie. Identizieren Sie jeweils Genotyp, Phänotyp, genetische
Mehr10. Vorlesung Stochastische Optimierung
Soft Control (AT 3, RMA) 10. Vorlesung Stochastische Optimierung Genetische Algorithmen 10. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"
MehrTechnische Universität Berlin Fakultät II Institut für Mathematik SS 13 G. Bärwolff, C. Mehl, G. Penn-Karras
Technische Universität Berlin Fakultät II Institut für Mathematik SS 3 G. Bärwolff, C. Mehl, G. Penn-Karras 9..3 Oktober Klausur Analysis II für Ingenieure Rechenteil. Aufgabe Punkte i) Wir berechnen zunächst
MehrÜbung 22: Gradient und Richtungsableitung; Extremwertaufgaben für Funktionen mehrerer Veränderlicher
Technische Universität Chemnitz 1. Juli 20 Fakultät für Mathematik Höhere Mathematik I.2 Übung 22: Gradient und Richtungsableitung; Extremwertaufgaben für Funktionen mehrerer Veränderlicher 1. Durch ein
MehrTutorium Mathematik II, M Lösungen
Tutorium Mathematik II, M Lösungen 7. Juni 201 *Aufgabe 1. Gegeben seien fx, y = xy 2 8e x+y und P = 1, 2. Der Gradient von f ist genau an der Stelle P Null. a Untersuchen Sie mit Hilfe der Hesse-Matrix,
Mehr2 Funktionen in mehreren Variablen: Differentiation
Satz 2. (Richtungsableitung) Für jede auf der offenen Menge D R n total differenzierbaren Funktion f (insbesondere für f C 1 (D, R) und für jeden Vektor v R n, v 0, gilt: n v f(x) = f(x) v = f xi (x)v
MehrEuklidische Distanzmatrizen. Andrei Grecu
Euklidische Distanzmatrizen Andrei Grecu Übersicht Motivation Definition und Problemstellung Algo 1: Semidefinite Programmierung Algo 2: Multidimensional Scaling Algo 3: Spring Embedder Algo 4: Genetischer
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 12
Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 1 Hausaufgaben Aufgabe 1.1 Sei f : R R gegeben durch f(x 1, x ) = x 3
MehrFolgerungen aus dem Auflösungsatz
Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und
MehrNewton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer
Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
Mehr5 Numerische Mathematik
6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul
MehrMathematik II: Übungsblatt 03 : Lösungen
N.Mahnke Mathematik II: Übungsblatt 03 : Lösungen Verständnisfragen 1. Was bestimmt die erste Ableitung einer Funktion f : D R R im Punkt x 0 D? Die erste Ableitung einer Funktion bestimmt deren Steigung
MehrVorlesung: Analysis II für Ingenieure. Wintersemester 07/08. Michael Karow. Themen: Niveaumengen und Gradient
Vorlesung: Analysis II für Ingenieure Wintersemester 07/08 Michael Karow Themen: Niveaumengen und Gradient Wir betrachten differenzierbare reellwertige Funktionen f : R n G R, G offen Zur Vereinfachung
MehrFunktionen untersuchen
Funktionen untersuchen Mögliche Fragestellungen Definition: lokale und globale Extrema Monotonie und Extrema Notwendige Bedingung für Extrema Hinreichende Kriterien, Vergleich Krümmungsverhalten Neumann/Rodner
Mehrb) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten?
Übungsblatt LV Künstliche Intelligenz, Evolutionäre Algorithmen (1), 2015 Aufgabe 1. Evolution a) Finden Sie zwei Evolutionsbeispiele auÿerhalb der Biologie. Identizieren Sie jeweils Genotyp, Phänotyp,
MehrMathematik für Wirtschaftswissenschaftler im WS 12/13 Lösungen zu den Übungsaufgaben Blatt 12
Mathematik für Wirtschaftswissenschaftler im WS /3 Lösungen zu den Übungsaufgaben Blatt Aufgabe 5 Welche der folgenden Matrizen sind positiv bzw negativ definit? A 8, B 3 7 7 8 9 3, C 7 4 3 3 8 3 3 π 3
MehrKapitel 16 : Differentialrechnung
Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen
Mehr5.10. Mehrdimensionale Extrema und Sattelpunkte
5.1. Mehrdimensionale Extrema und Sattelpunkte Zur Erinnerung: Eine Funktion f von einer Teilmenge A des R n nach R hat im Punkt a ein (strenges) globales Maximum, falls f( x ) f( a ) (bzw. f( x ) < f(
MehrMathematik. für das Ingenieurstudium. 10 Funktionen mit mehreren Variablen. Jürgen Koch Martin Stämpfle.
10 Funktionen mit mehreren Variablen www.mathematik-fuer-ingenieure.de 2010 und, Esslingen Dieses Werk ist urheberrechtlich geschützt. Alle Rechte, auch die der Übersetzung, des Nachdruckes und der Vervielfältigung
Mehr(a), für i = 1,..., n.
.4 Extremwerte Definition Sei M R n eine Teilmenge, f : M R stetig, a M ein Punkt. f hat in a auf M ein relatives (oder lokales) Maximum bzw. ein relatives (oder lokales) Minimum, wenn es eine offene Umgebung
MehrTechnische Universität München. Probeklausur Lösung SS 2012
Technische Universität München Andreas Wörfel & Carla Zensen Ferienkurs Analysis für Physiker Probeklausur Lösung SS Aufgabe Differenzierbarkeit / Punkte: [4,, 3, 4] Es sei f(x, y) = sin(x3 + y 3 ) x +
MehrM U = {x U f 1 =... = f n k (x) = 0}, (1)
Aufgabe 11. a) Es sei M = {(x, y, z) R 3 f 1 = xy = 0; f = yz = 0}. Der Tangentialraum T x M muss in jedem Punkt x M ein R-Vektorraum sein und die Dimension 1 besitzen, damit diese Menge M eine Untermannigfaltigkeit
MehrBerechnung von Extrema
KAPITEL 2 Berechnung von Extrema 1. Partielle Ableitungen Definition 2.1 (partielle Ableitung). Sei U R n offen und e j der j-te Einheitsvektor. Eine Funktion f : U R ist in x u partiell differenzierbar
MehrÜbungen zur Ingenieur-Mathematik III WS 2012/13 Blatt
Übungen zur Ingenieur-Mathematik III WS 2012/13 Blatt 9 19.12.2012 Aufgabe 35: Thema: Differenzierbarkeit a) Was bedeutet für eine Funktion f : R n R, dass f an der Stelle x 0 R n differenzierbar ist?
MehrTeil 6. Differentialrechnung mehrerer Veränderlicher
Teil 6 Differentialrechnung mehrerer Veränderlicher 95 96 6.1 Topologie von Mengen Umgebung ε-umgebung eines Punktes x R n : B ε (x) = {y : y x < ε} Umgebung U von x: Menge, die eine ε-umgebung von x enthält
MehrKapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2
Kapitel 12 Lagrange-Funktion Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28 Optimierung unter Nebenbedingungen Aufgabe: Berechne die Extrema der Funktion unter der Nebenbedingung
MehrVorlesung: Analysis II für Ingenieure. Wintersemester 09/10. Michael Karow. Themen: Taylor-Entwicklung und lokale Extrema
Vorlesung: Analysis II für Ingenieure Wintersemester 09/10 Michael Karow Themen: Taylor-Entwicklung und lokale Extrema Motivierendes Beispiel: die Funktion f(x, y) = x(x 1) 2 2 y 2. Dieselbe Funktion von
MehrHöhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) =
Karlsruher Institut für Technologie (KIT Institut für Analysis Priv-Doz Dr P C Kunstmann Dipl-Math D Roth SS 0 7060 Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8 Übungsblatt
MehrProf. Dr. H. Brenner Osnabrück SS Analysis II. Vorlesung 50. Hinreichende Kriterien für lokale Extrema
Prof. Dr. H. Brenner Osnabrück SS 205 Analysis II Vorlesung 50 Hinreichende Kriterien für lokale Extrema Wir kommen jetzt zu hinreichenden Kriterien für die Existenz von lokalen Extrema einer Funktion
MehrVerbesserungsheuristiken
Verbesserungsheuristiken Bestandteile der Lokalen Suche Für schwierige Optimierungsaufgaben haben Verbesserungsheuristiken eine große praktische Bedeutung. Sie starten mit Ausgangslösungen, die von z.b.
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
MehrÜbungen zur Ingenieur-Mathematik III WS 2011/12 Blatt Aufgabe 25: Berechnen Sie den kritischen Punkt der Funktion
Übungen zur Ingenieur-Mathematik III WS 11/1 Blatt 8 3.11.11 Aufgabe 5: Berechnen Sie den kritischen Punkt der Funktion fx, y 3x 5xy y + 3 und entscheiden Sie, ob ein Maximum, Minimum oder Sattelpunkt
Mehr18.4 Das Newton-Verfahren
18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift
MehrKarlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester
Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang Sommersemester 03 6.06.03 Höhere Mathematik II für die Fachrichtungen Elektrotechnik und Informationstechnik
Mehr18.2 Implizit definierte Funktionen
18.2 Implizit definierte Funktionen Ziel: Untersuche Lösungsmengen von nichtlinearen Gleichungssystemen g(x) = 0 mit g : D R m, D R n, d.h. betrachte m Gleichungen für n Unbekannte mit m < n, d.h. wir
MehrName: Matr.-Nr.: 2. Aufgabe 1. Gegeben sei das folgende lineare Gleichungssystem: b a 2 3a 1
Name: Matr.-Nr.: 2 Aufgabe 1. Gegeben sei das folgende lineare Gleichungssystem: 1 1 0 2 b 1 1 2 4 1 1 4 6 x = 1 1. 2 2 2a 2 3a 1 (a) Bringen Sie das lineare Gleichungssystem auf Treppenform. (b) Für welche
MehrLösungsskizzen zur Klausur Mathematik II
sskizzen zur Klausur Mathematik II vom..7 Aufgabe Es sei die Ebene im R 3 gegeben. E = +λ 3 + µ λ,µ R (a) Geben Sie die Hesse-Normalform der Ebene E an. (b) Berechnen Sie die orthogonale Projektion Π E
MehrGrundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
MehrAufgabe 1 (7 Punkte) Prüfung Optimierung dynamischer Systeme ( 6) = lim p. Techn. Mechanik & Fahrzeugdynamik
Techn. Mechanik & Fahrzeugdynamik Optimierung Prof. Dr.-Ing. habil. Hon. Prof. (NUST) D. Bestle 8. September 7 Aufgabe (7 Punkte) Die Ableitung der Funktion f ( p) p 5sin p soll mithilfe des Vorwärtsdifferenzenverfahrens
Mehr2. Optimierungsprobleme 6
6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen
MehrAnalysis II. Aufgaben zum Stoff der Analysis I und II Lösungsvorschlag
Prof Dr H Garcke, D Depner SS 9 NWF I - Mathematik 1979 Universität Regensburg Aufgabe 1 Analysis II Aufgaben zum Stoff der Analysis I und II Lösungsvorschlag i Erinnern Sie sich an die Konvergenzkriterien
MehrÜbungen zur Vorlesung Mathematik im Querschnitt Lösungsvorschlag
MATHEMATISCHES INSTITUT DER UNIVERSITÄT MÜNCHEN Dr. E. Schörner WS 06/7 Blatt 4 5..06 Übungen zur Vorlesung Mathematik im Querschnitt Lösungsvorschlag 3. Die gegebene Polynomfunktion f : R R, f(x, y) =
MehrAufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen
Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden
Mehr