Kontinuierliche Optimierung
|
|
- Monica Schubert
- vor 5 Jahren
- Abrufe
Transkript
1 Kontinuierliche Optimierung Markus Herrich Wintersemester 2018/19
2 ii
3 Inhaltsverzeichnis 2 Optimalitäts- und Regularitätsbedingungen Einleitung und Wiederholung Optimalitätsbedingungen mit zulässigen Richtungen Optimalitätsbedingungen mit Tangentialkegel Optimalitätsbedingungen mit Linearisierungskegel KKT-Bedingungen Regularitätsbedingungen Optimalitätsbedingungen mit Ableitungen zweiter Ordnung Verfahren für Optimierungsaufgaben ohne Restriktionen Ein allgemeines Abstiegsverfahren Gradientenverfahren und gradientenähnliche Verfahren Das Newton-Verfahren Quasi-Newton-Verfahren Verfahren für Optimierungsaufgaben mit Restriktionen Strafverfahren (Penalty-Verfahren) Verfahren mit zulässigen Richtungen iii
4 iv Inhaltsverzeichnis
5 Kapitel 4 Verfahren für Optimierungsaufgaben mit Restriktionen In diesem Kapitel kehren wir zu restringierten Optimierungsaufgaben der Gestalt f(x) min bei g(x) 0, h(x) = 0 (4.1) zurück, mit gegebenen, wenigstens stetigen Funktionen f : R n R, g : R n R m und h : R n R l. Mit G bezeichnen wir wieder den zulässigen Bereich von (4.1) und setzen voraus, dass dieser nichtleer ist. In den folgenden Abschnitten werden wir einige grundlegende numerische Verfahren zur Bestimmung einer Lösung von (4.1) oder zumindest einer Lösung des zu (4.1) gehörigen KKT-Systems kennenlernen. Zur Erinnerung: die zu (4.1) gehörigen KKT-Bedingungen sind gegeben durch f(x) + m u i g i (x) + l v j h j (x) = 0, h(x) = 0, i=1 j=1 g(x) 0, u 0, u g(x) = 0. (4.2) Vorab soll noch bemerkt werden, dass es für gewisse Klassen restringierter Optimierungsprobleme eigene Lösungsverfahren gibt, die den im Folgenden vorgestellten Methoden im Allgemeinen überlegen sind. Dazu gehören insbesondere lineare Optimierungsprobleme sowie quadratische Optimierungsprobleme mit gleichmäßig konvexer Zielfunktion (das heißt positiv definiter Matrix im quadratischen Term). In einigen Verfahren der folgenden Abschnitte werden derartige Optimierungsprobleme sogar als Teilprobleme auftreten. Grundlage für wesentliche Teile dieses Kapitels sind die Vorlesungsskripte [1, 2] sowie die Lehrbücher [4, 5]. 55
6 56 Kapitel 4. Verfahren für Optimierungsaufgaben mit Restriktionen 4.1 Strafverfahren (Penalty-Verfahren) Die grundlegende Idee von Strafverfahren besteht darin, das restringierte Optimierungsproblem (4.1) durch eine Folge unrestringierter Optimierungsprobleme zu ersetzen, bei denen die Verletztheit der Nebenbedingungen von (4.1) als Strafterm in die Zielfunktion aufgenommen wird. Definition. Es sei {w k } k N0 eine Folge von stetigen Funktionen w k : R n R derart, dass für jedes x R n und jede gegen x konvergente Folge {x k } k N0 { 0, falls x G, lim inf w k(x k ) +, falls x / G, und gilt: für jedes x G gilt: lim w k(x) = 0. Dann heißen die Folgenglieder w k Straffunktionen zum Problem (4.1). Anstelle des restringierten Problems (4.1) wird nun, für eine Folge {w k } k N0 Straffunktionen, eine Folge von unrestringierten Ersatzproblemen von P k (x) := f(x) + w k (x) min bei x R n (4.3) betrachtet. Angenommen, diese Ersatzprobleme sind lösbar. Dann stellt sich die Frage, welche Zusammenhänge zwischen Lösungen von (4.3) und Lösungen von (4.1) bestehen. Eine erste Beobachtung ist: wenn Straffunktionen verwendet werden, deren Funktionswerte stets nichtnegativ sind (was durchaus üblich ist), dann ist jede (lokale) Lösung von (4.3), die außerdem im zulässigen Bereich des Problems (4.1) liegt, auch (lokale) Lösung von (4.1). Aber natürlich ist im Allgemeinen nicht zu erwarten, dass für ein gewisses k N 0 eine Lösung von (4.3) zulässig für (4.1) ist (außer, es werden sogenannte exakte Straffunktionen verwendet, vgl. Bemerkung am Ende dieses Abschnitts). Eine Hoffnung könnte dann darin bestehen, dass jede Folge von Lösungen der Probleme (4.3) für k gegen eine Lösung von (4.1) konvergiert. Beispiel 4.1. Gegeben sei das restringierte Optimierungsproblem f(x) := 2x x 2 2 min bei g(x) := 1 x 1 x 2 0. (4.4) Da der zulässige Bereich nichtleer, konvex und abgeschlossen ist und die Zielfunktion gleichmäßig konvex und stetig ist, besitzt dieses Problem genau eine Lösung. Wir nutzen im Folgenden die Straffunktionen w k mit w k (x) := ρ k (max{0, 1 x 1 x 2 }) 2,
7 4.1. Strafverfahren (Penalty-Verfahren) 57 wobei {ρ k } k N0 (0, ) eine gegen + divergierende Zahlenfolge sei. Man überzeugt sich leicht davon, dass die auf diese Weise definierte Folge {w k } tatsächlich eine Folge von Straffunktionen ist. Wir betrachten die zugehörige Folge der unrestringierten Minimierungsaufgaben P k (x) := 2x x ρ k (max{0, 1 x 1 x 2 }) 2 min bei x R n. (4.5) Die notwendige und wegen der Konvexität von P k auch hinreichende Optimalitätsbedingung für (4.5) lautet ( ) ( ) 4x1 2ρ P k (x) = k max{0, 1 x 1 x 2 } 0 =. 2x 2 2ρ k max{0, 1 x 1 x 2 } 0 Für alle Lösungen (x 1, x 2 ) dieses Gleichungssystems muss 1 x 1 x 2 > 0 gelten, denn im Falle 1 x 1 x 2 0 wäre max{0, 1 x 1 x 2 } = 0, womit sich x 1 = x 2 = 0, also ein Widerspruch, ergeben würde. Im Falle 1 x 1 x 2 > 0 ist max{0, 1 x 1 x 2 } = 1 x 1 x 2, sodass sich das obige Gleichungssystem wie folgt schreiben lässt: ( ) ( ) ( ) 4 + 2ρk 2ρ k x1 2ρk = 2ρ k 2 + 2ρ k x 2 2ρ k bzw., nach Division beider Gleichungen durch 2ρ k, ( ) ( ) 2ρ 1 k x1 1 ρ 1 = k + 1 x 2 ( 1 1 ). (4.6) Als (eindeutige) Lösung dieses Gleichungssystems und somit auch eindeutige Lösung des Problems (4.5) ergibt sich ( ) ( ) x x k k := x k := ρ 1. 2 k Offenbar gilt x k / G für alle k N 0. Aber die Folge {x k } k N0 konvergiert gegen einen zulässigen Punkt des Ausgangsproblems (4.4): ( 1 lim xk = 3, 2 ) =: x. 3 Der erhaltene Punkt ist sogar (die eindeutige) Lösung des Ausgangsproblems. Denn unter Beachtung von f(x ) = ( 4, ) gilt für alle zulässigen Punkte x = (x 1, x 2 ) des Problems (4.4): f(x ) (x x ) = 4 3 ( x ) ( x 2 2 ) = (x 1 + x 2 1) 0. Unter Beachtung der Konvexität des zulässigen Bereichs und der Zielfunktion von (4.4) ist x somit nach Satz 2.2 Lösung von (4.4).
8 58 Kapitel 4. Verfahren für Optimierungsaufgaben mit Restriktionen Dass eine Folge von Lösungen der Ersatzprobleme (4.3) gegen eine Lösung des Ausgangsproblems konvergiert, ist im Allgemeinen leider nicht zu erwarten. Aber es gilt zumindest das folgende Resultat. Satz 4.1. Sei {w k } k N0 eine Folge von Straffunktionen zum Problem (4.1). Es sei {x k } k N0 eine Folge von Lösungen der Ersatzprobleme (4.3) (insbesondere seien diese Probleme für alle k N 0 lösbar). Dann ist jeder Häufungspunkt der Folge {x k } k N0 eine Lösung von (4.1). Beweis. Sei x ein Häufungspunkt der Folge {x k } k N0 und sei {x k } k K eine gegen x konvergente Teilfolge. Dann gilt für jedes x G: f(x ) = lim f(x k ) ( ) lim inf P k K k(x k ) ( ) lim inf P k(x) ( ) = f(x). k K k K In ( ) und ( ) wurde dabei die Definition von Straffunktionen verwendet und in ( ) wurde ausgenutzt, dass, für jedes k, x k eine Lösung des Problems (4.3) ist. Insbesondere folgt aus der letzten Ungleichungskette lim inf P k(x k ) lim inf k K P k(x k ) < + und damit x = lim x k G. k K Wir haben also gezeigt, dass x zulässig für das Problem (4.1) ist und der zugehörige Zielfunktionswert nicht größer ist als die Zielfunktionswerte an beliebigen anderen zulässigen Punkten. Damit ist nachgewiesen, dass x eine Lösung von (4.1) ist. Als nächstes sollen einige Beispiele für Straffunktionen genannt werden: quadratische Straffunktion m w k (x) = ρ k (max{0, g i (x)}) 2 + ρ k i=1 l h j (x) 2 j=1 = ρ k max{0, g(x)} 2 + ρ k h(x) 2, wobei {ρ k } k N0 (0, ) eine Folge mit der Eigenschaft lim ρ k = + ist und max{0, g(x)} komponentenweise zu verstehen ist, das heißt max{0, g(x)} := max{0, g 1 (x)}. max{0, g m (x)}. Die auf diese Weise definierten Funktionen w k sind stetig differenzierbar, wenn g und h stetig differenzierbar sind. Allerdings sind sie im Allgemeinen nicht zweimal stetig differenzierbar, selbst wenn g und h zweimal stetig differenzierbar sind.
9 4.1. Strafverfahren (Penalty-Verfahren) 59 allgemeiner: wobei p 1, oder auch wobei p [1, ] w k (x) = ρ k max{0, g(x)} p p + ρ k h(x) p p, w k (x) = ρ k max{0, g(x)} p + ρ k h(x) p, Für die vorgestellten Beispiele für Straffunktionen gilt sogar die Äquivalenz w k (x) = 0 x G. Bemerkung. In der Literatur wird bei der Definition von Straffunktionen manchmal auch zugelassen, dass gewisse Funktionswerte der Funktionen w k gleich + sind und/oder dass die Gleichheit lim w k (x) = 0 nicht zwangsläufig für alle x G gilt, sondern lediglich für alle x aus einer Teilmenge B von G. Insbesondere bei sogenannten Barrierefunktionen ist das der Fall. Die Folgenglieder einer Folge {w k } k N0 von stetigen Funktionen w k : R n R {+ } werden als Barrierefunktionen bezeichnet, wenn lim inf w k (x k ) 0 für alle x int G und jede gegen x konvergente Folge {x k } k N0, w k (x) = + für alle x R n \ int G, lim w k (x) = 0 für alle Elemente x einer Teilmenge B int G. Mit Stetigkeit einer Funktion w : R n R {+ } ist dabei gemeint, dass die Konvergenz einer Folge {x k } k N0 gegen einen Punkt x die Konvergenz bzw. bestimmte Divergenz der Folge {w(x k )} k N0 gegen w(x) impliziert (wobei w(x) unter Umständen gleich + sein könnte). Offensichtlich ist die Verwendung von Barrierefunktionen nur dann sinnvoll, wenn im Optimierungsproblem (4.1) keine Gleichungsrestriktionen vorkommen. Beispiele für Barrierefunktionen sind: logarithmische Barrierefunktion { 1 m ρ w k (x) = k i=1 ln( g i(x)) für x G 0, + für x / G 0. inverse Barrierefunktion w k (x) = { 1 m 1 ρ k i=1 g i (x) für x G 0, + für x / G 0. Dabei sind jeweils G 0 := {x R n g(x) < 0} und {ρ k } (0, ) eine Folge mit der Eigenschaft lim ρ k = +.
10 60 Kapitel 4. Verfahren für Optimierungsaufgaben mit Restriktionen Satz 4.1 macht eine Aussage über den Zusammenhang einer Folge von Lösungen der unrestringierten Probleme (4.3) und Lösungen des Ausgangsproblems (4.1). Praktisch ist es im Allgemeinen jedoch schwer, eine (globale) Lösung von (4.3) zu bestimmen. Stattdessen wird man sich in der Regel mit einem stationären Punkt von (4.3) zufrieden geben müssen, den man darüber hinaus auch nur näherungsweise berechnen kann. Es lässt sich aber zeigen, dass unter gewissen Voraussetzungen jeder Häufungspunkt x einer Folge {x k } von stationären Punkten der Ersatzprobleme (4.3) (oder geeigneten Näherungswerten dafür) ein stationärer Punkt des Ausgangsproblems (4.1) ist, das heißt, dass Vektoren u, v existieren, sodass (x, u, v ) das zu (4.1) gehörige KKT-System löst. Satz 4.2. Gegeben seien Folgen {ρ k } k N0 (0, ) mit lim ρ k = + und {ε k } k N0 [0, ) mit lim ε k = 0. Die Funktionen f : R n R, g : R n R m und h : R n R l seien stetig differenzierbar. Weiter sei die Folge {w k } k N0 zum Problem (4.1) gegeben durch w k (x) := ρ k max{0, g(x)} 2 + ρ k h(x) 2. Sei {x k } R n eine Folge von Punkten, die für jedes k N 0 der Bedingung P k (x k ) = f(x k ) + w k (x k ) ε k genügt. Definiert man noch Vektoren u k R m + und v k R l durch u k i := 2ρ k max{0, g i (x k )} (i = 1,..., m) vj k := 2ρ k h j (x k ) (j = 1,..., l), und dann genügt jeder Häufungspunkt (x, u, v ) der Folge {(x k, u k, v k )} k N0 KKT-Bedingungen zum Problem (4.1). Beweis. Übungsaufgabe. den Der letzte Satz motiviert den folgenden Algorithmus zur Bestimmung eines stationären Punktes des restringierten Optimierungsproblems (4.1). Algorithmus 4.1 (Straffunktionsverfahren). S0: Wähle Folgen {ρ k } k N0 mit lim ρ k = + und {ε k } k N0 Setze k := 0. S1: Berechne x k derart, dass P k (x k ) = f(x k ) + w k (x k ) ε k mit lim ε k = 0. gilt, wobei w k wie im Satz 4.2 definiert sei. Definiere u k R m + und v k R l wie im Satz 4.2.
11 4.2. Verfahren mit zulässigen Richtungen 61 S2: Falls (x k, u k, v k ) eine Lösung des KKT-Systems (4.2) ist: STOPP. Ansonsten setze k := k + 1 und gehe zu S1. Bemerkung. 1. In unserem Beispiel 4.1 war für jedes k ein lineares Gleichungssystem zu lösen, um die Lösung des zu k gehörigen unrestringierten Optimierungsproblems zu bestimmen, nämlich das Gleichungssystem (4.6). Für k und somit ρ k geht die Konditionszahl der Koeffizientenmatrix des Systems (4.6) gegen Unendlich. Ein solches Verhalten ist leider typisch für Strafverfahren: es ist mit einer zunehmend schlechter werdenden Kondition der Teilprobleme für k zu rechnen, die Ersatzzielfunktionen P k sind für große k in der Nähe von lokalen Minima im Allgemeinen stark gekrümmt. Aus diesem Grund wird man bei einer Umsetzung nicht gleich mit einem sehr großen Strafparameter ρ 0 starten, sondern diesen erstmal verhältnismäßig klein wählen, dann, Iteration für Iteration, den Strafparameter erhöhen und dabei zur Berechnung von x k+1 jeweils die vorherige Iterierte x k als Startwert im Lösungsverfahren für unrestringierte Optimierungsprobleme zu verwenden. 2. Sei {w k } k N0 eine Folge von Straffunktionen und {P k } k N0 die zugehörige Folge von Ersatzzielfunktionen, wie in (4.3) definiert. Existiert ein Index k 0 N 0 derart, dass für jedes k k 0 jede lokale Lösung von (4.3) auch lokale Lösung des Ausgangsproblems (4.1) ist, dann nennt man {w k } k N0 Folge von exakten Straffunktionen. Beispiele sind die durch w k (x) := ρ k max{0, g(x)} p + ρ k h(x) p gegebenen Funktionen (für vorgegebenes p [1, ] und eine vorgegebene Folge {ρ k } k N0 (0, )). Ein Vorteil bei der Verwendung von exakten Straffunktionen besteht darin, dass der Strafparameter nicht beliebig oft erhöht werden muss und die Kondition der Teilprobleme somit nicht beliebig schlecht wird. Allerdings hat die Verwendung von exakten Straffunktionen auch einen großen Nachteil: man kann nachweisen, dass eine exakte Straffunktion in lokalen Lösungen des Ausgangsproblems (4.1) nicht differenzierbar sein kann, vgl. Übungsaufgabe. 4.2 Verfahren mit zulässigen Richtungen In diesem Abschnitt setzen wir voraus, dass im Optimierungsproblem (4.1) ausschließlich Ungleichungsrestriktionen vorkommen, das Problem also die Gestalt f(x) min bei g(x) 0 (4.7)
12 62 Kapitel 4. Verfahren für Optimierungsaufgaben mit Restriktionen besitzt. Die Funktionen f : R n R und g : R n R m werden als wenigstens stetig differenzierbar vorausgesetzt. Zur Erinnerung: ist x eine lokale Lösung des Problems (4.7), dann gilt f(x ) d 0 für alle d Z(x ). Existiert umgekehrt für einen zulässigen Punkt x eine Richtung d Z(x) mit f(x) d < 0, dann kann x keine lokale Lösung von (4.7) sein. Die Idee von Verfahren mit zulässigen Richtungen besteht darin, für einen vorgegebenen Startpunkt x 0 G eine Richtung d 0 Z(x 0 ) mit der Eigenschaft f(x 0 ) d 0 < 0 zu bestimmen und anschließend eine Schrittweite α 0 > 0 derart zu berechnen, die einerseits einen in einem gewissen Sinne hinreichenden Abstieg von f garantiert und andererseits x 1 := x 0 + α 0 d 0 G sicherstellt. Mit der neuen Näherung x 1 wird nun genauso verfahren. Usw. Für eine konkrete Umsetzung dieser Idee gibt es zahlreiche Möglichkeiten. Als Beispiele seien hier genannt: die Verfahren nach Zoutendijk (P1- und P2-Verfahren), Verfahren nach Topkins und Veiott sowie Modifikationen davon, spezielle SQP-Verfahren, siehe Abschnitt 4.3. Wir beschreiben im Folgenden das P2-Verfahren nach Zoutendijk und geben für dieses Verfahren ausgewählte Konvergenzresultate an. Für einen gegebenen zulässigen Punkt x G wird bei diesem Verfahren eine Lösung des folgenden Minimierungsproblems bestimmt: λ min d,λ bei f(x) d λ, g i (x) + g i (x) d λ d 1. für alle i I ε (x), (4.8) Dabei bezeichnet, für eine gegebene Zahl ε > 0, I ε (x) die Indexmenge der in x ε-aktiven Ungleichungsrestriktionen, das heißt I ε (x) := {i {1,..., m} g i (x) ε}.
13 Literaturverzeichnis [1] Eppler, K.: Vorlesung Kontinuierliche Optimierung. Vorlesungsskript, Technische Universität Dresden, Wintersemester 2017/18. [2] Fischer, A.: Kontinuierliche Optimierung. Vorlesungsskript, Technische Universität Dresden, Wintersemester 2015/16. [3] Geiger, C., Kanzow, C.: Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Springer, Berlin [4] Geiger, C., Kanzow, C.: Theorie und Numerik restringierter Optimierungsaufgaben. Springer, Berlin [5] Großmann, C., Terno, J.: Numerik der Optimierung. Teubner, Stuttgart [6] Nocedal, J., Wright, S.J.: Numerical Optimization. Second Edition. Springer, New York,
Konvexe Optimierungsprobleme
von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrEs wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger auf Details.
Kapitel 5 Lösungsverfahren Dieses Kapitel gibt einen Überblick über Lösungsverfahren für nichtlineare Optimierungsprobleme. Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger
MehrInhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1
Inhaltsverzeichnis 1 Inhaltsverzeichnis Innere-Punkte-Verfahren 3 1 Theoretische Grundlagen 3 1.1 Die KKT-Bedingungen........................... 3 1.2 Der zentrale Pfad.............................. 4
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
MehrDas Gradientenverfahren
Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1
MehrDas Trust-Region-Verfahren
Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrSeminarvortrag: Trust-Region-Verfahren
Seminarvortrag: Trust-Region-Verfahren Helena Klump Universität Paderborn Dezember 2012 Helena Klump 1 / 22 Trust-Region-Verfahren Problemstellung Sei die Funktion f : R n R gegeben. Betrachtet wird das
MehrNewton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer
Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für
MehrRegularitätsbedingungen
Kapitel 5 Regularitätsbedingungen 5.1 Eine notwendige und hinreichende Regularitätsbedingung Beim Studium Lagrangescher Multiplikatorenregeln in ihrer Grundform, bestehend aus Stationaritäts und Komplementaritätsbedingung,
Mehr18.4 Das Newton-Verfahren
18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift
MehrAnalysis I für Studierende der Ingenieurwissenschaften
Analysis I für Studierende der Ingenieurwissenschaften Ingenuin Gasser Department Mathematik Universität Hamburg Technische Universität Hamburg Harburg Wintersemester 2008/2009 1 Definition: Sei M R, alsom
MehrNumerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren
Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren
MehrOperations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung
Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden
MehrTECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09
................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 Obige Angaben sind richtig: Unterschrift der Kandidatin/des Kandidaten 3 TECHNISCHE UNIVERSITÄT
MehrInexakte Newton Verfahren
Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n
MehrKAPITEL 10 DIE INNERE-PUNKTE-METHODE
KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
MehrDas Subgradientenverfahren
Das Subgradientenverfahren Seminar Optimierung WS 05/06 Betreuer: Prof. F. Jarre von Jalo Liljo Das Subgradientenverfahren Das Ziel dieses Vortrags ist die Berechnung einer Lösung des unrestringierten
MehrKAPITEL 3. Konvexe Funktionen
KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
MehrWir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems
Kapitel 2 Newton Verfahren 2.1 Das lokale Newton Verfahren Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems F (x) = 0 (2.1) mit einer zumindest
MehrNICHTRESTRINGIERTE OPTIMIERUNG
3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene
Mehr1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)
. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)
MehrVIII Inhaltsverzeichnis 4 Innere - Punkte - Methoden für Lineare Programme Exkurs: Newton -Verfahren,Konvergenzraten Anwendung:
Inhaltsverzeichnis 1 Einleitung... 1 1.1 Modellbildung,mathematische Formulierung............... 1 1.2 Nichtlineare Programme................................. 2 1.3 Einteilung von nichtlinearen Programmen...
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrKonvexe Mengen und Funktionen
Konvexe Mengen und Funktionen von Corinna Alber Seminararbeit Leiter: Prof. Jarre im Rahmen des Seminars Optimierung III am Lehrstuhl für Mathematische Optimierung an der Heinrich-Heine-Universität Düsseldorf
MehrFK WMS: Wirtschaftsmathematik 2, Einheit 7/8
FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 markus.sinnl@univie.ac.at http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.
MehrDer Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.
Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x
MehrKapitel 3. Konvergenz von Folgen und Reihen
Kapitel 3. Konvergenz von Folgen und Reihen 3.1. Normierte Vektorräume Definition: Sei V ein Vektorraum (oder linearer Raum) über (dem Körper) R. Eine Abbildung : V [0, ) heißt Norm auf V, falls die folgenden
Mehr1 Die direkte Methode der Variationsrechnung
Die direkte Methode der Variationsrechnung Betrachte inf I(u) = f(x, u(x), u(x)) dx : u u + W,p () wobei R n, u W,p mit I(u ) < und f : R R n R. (P) Um die Existenz eines Minimierers direkt zu zeigen,
MehrTU Dresden Fachrichtung Mathematik Institut für Numerische Mathematik 1. Dr. M. Herrich SS 2017
TU Dresden Fachrichtung Mathematik Institut für Numerische Mathematik Prof. Dr. K. Eppler Institut für Numerische Mathematik Dr. M. Herrich SS 207 Aufgabe Gegeben sei die Funktion f : R 2 R mit Übungen
Mehr12. Trennungssätze für konvexe Mengen 83
12. Trennungssätze für konvexe Mengen 83 C_1 C_2 a Abbildung 12.4. Trennung konvexer Mengen durch eine Hyperebene mit Normalenvektor a Dann ist int(c) nicht leer (warum?) und [als Minkowski-Summe von C
Mehrsign: R R, sign(x) := 0 falls x = 0 1 falls x < 0 Diese ist im Punkt x 0 = 0 nicht stetig, denn etwa zu ε = 1 finden wir kein δ > 0
ANALYSIS FÜR PHYSIK UND VERWANDTE FÄCHER I 81 3. Stetigkeit 3.1. Stetigkeit. Im Folgenden sei D R eine beliebige nichtleere Teilmenge. Typischerweise wird D ein allgemeines Intervall sein, siehe Abschnitt
MehrDualitätssätze der linearen Optimierung
Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =
MehrWie in der reellen Analysis üblich notiert man Folgen f in der Form
2.1.3 Folgen und Konvergenz Viele aus der Analysisvorlesung bekannte Begriffe lassen sich in den Bereich der metrischen Räume verallgemeinern. Diese Verallgemeinerung hat sich als sehr nützliches mathematisches
MehrProf. Dr. Elmar Grosse-Klönne Institut für Mathematik
Prof. Dr. Elmar Grosse-Klönne Institut für Mathematik Lineare Algebra Analytische Geometrie I* Übungsaufgaben, Blatt Musterlösungen Aufgabe. Es seien A, B, C Teilmengen einer Menge X. Zeige: i A B C =
Mehr5 Numerische Iterationsverfahren
In diesem Kapitel besprechen wir numerische Iterationsverfahren (insbesondere Fixpunktverfahren) als eine weitere Lösungsmethode zur Lösung von linearen Gleichungssystemen (Kapitel 4) sowie zur Lösung
MehrRechenoperationen mit Folgen. Rekursion und Iteration.
Rechenoperationen mit Folgen. Die Menge aller Folgen in V bildet einen Vektorraum, V N, für den die Addition und skalare Multiplikation wie folgt definiert sind. (a n ) n N + (b n ) n N := (a n + b n )
MehrGRUNDLAGEN MATHEMATIK
Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik GRUNDLAGEN MATHEMATIK 2. Folgen Prof. Dr. Gunar Matthies Wintersemester 2015/16 G. Matthies Grundlagen Mathematik
MehrPraktische Optimierung
Grundlagen klassischer Optimiertechniken Praktische Optimierung Wintersemester 2008/09 Prof Dr Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund Themen der heutigen
MehrOptimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 5 Optimierung mit Nebenbedingungen 1 Minimierung mit Gleichheitsrestriktionen Gegeben: Funktion,,,, : Ziel:,,, Unrestringierter Fall: Notwendige Bedingung für lokales Minimum keine
MehrRechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung
Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung 18.3.14-20.3.14 Dr. Florian Lindemann Moritz Keuthen, M.Sc. Technische Universität München Garching, 19.3.2014 Kursplan Dienstag, 18.3.2014
MehrAnalysis II 14. Übungsblatt
Jun.-Prof. PD Dr. D. Mugnolo Wintersemester 01/13 F. Stoffers 04. Februar 013 Analysis II 14. Übungsblatt 1. Aufgabe (8 Punkte Man beweise: Die Gleichung z 3 + z + xy = 1 besitzt für jedes (x, y R genau
MehrLösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016
Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b
Mehr( ) Dann gilt f(x) g(x) in der Nähe von x 0, das heisst. Für den Fehler r(h) dieser Näherung erhält man unter Verwendung von ( )
64 Die Tangente in x 0 eignet sich also als lokale (lineare) Näherung der Funktion in der Nähe des Punktes P. Oder gibt es eine noch besser approximierende Gerade? Satz 4.9 Unter allen Geraden durch den
MehrPraktische Optimierung
Praktische Optimierung Dozent: Günter Rudolph Vertretung: Nicola Beume Wintersemester 2007/08 Universität Dortmund Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS11) Fachgebiet Computational
MehrMathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript
Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript Janko Latschev Fachbereich Mathematik Universität Hamburg www.math.uni-hamburg.de/home/latschev Hamburg,
MehrKonstruktion der reellen Zahlen
Konstruktion der reellen Zahlen Zur Wiederholung: Eine Menge K (mit mindestens zwei Elementen) heißt Körper, wenn für beliebige Elemente x, y K eindeutig eine Summe x+y K und ein Produkt x y K definiert
MehrAufgaben und Lösungen Ausarbeitung der Übungsstunde zur Vorlesung Analysis I
Aufgaben und en Ausarbeitung der Übungsstunde zur Vorlesung Analysis I Wintersemester 2008/2009 Übung 6 Einleitung Eventuell auftretende Fragen zum Übungsblatt sollen beantwortet werden. Dazu ist es erforderlich,
MehrMATTHIAS GERDTS. Optimierung. Universität der Bundeswehr München Wintertrimester 2014
MATTHIAS GERDTS Optimierung Universität der Bundeswehr München Wintertrimester 2014 Addresse des Autors: Matthias Gerdts Institut für Mathematik und Rechneranwendung Universität der Bundeswehr München
MehrAnalysis I. Guofang Wang Universität Freiburg
Universität Freiburg 30.11.2016 5. Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,..., x n ) : x i R} = } R. {{.. R }. n mal Für x R ist x der Abstand zum
MehrEinführung in Softwaretools zur Nichtlinearen Optimierung
Einführung in Softwaretools zur Nichtlinearen Optimierung 3. April 2017 5. April 2017 Sebastian Garreis, M. Sc. (hons) Johannes Haubner, M. Sc. Technische Universität München Fakultät für Mathematik Lehrstuhl
MehrMusterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:
Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,
Mehr(alternierendes Vorzeichen) a n := ( 1)n n + 1 a n := 3n 2 7n a n := n(n 1)(n 2), n 3
ANALYSIS FÜR PHYSIK UND VERWANDTE FÄCHER I 43 2. Folgen und Reihen Folgen und Reihen werden in jedem Analysislehrbuch besprochen, siehe etwa [H, Kapitel III], [K, Kapitel 5], [J2, Kapitel 23] oder [M,
MehrLineare Optimierung: Simplexverfahren Phase Ⅰ
Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren
MehrRechnerpraktikum zur Nichtlinearen Optimierung
Rechnerpraktikum zur Nichtlinearen Optimierung 9. März 2016 11. März 2016 Sebastian Garreis, B. Sc. Philipp Jarde, M. Sc. Technische Universität München Fakultät für Mathematik Lehrstuhl für Mathematische
MehrNumerische Ableitung
Numerische Ableitung Die Ableitung kann angenähert werden durch den Differentenquotient: f (x) f(x + h) f(x) h oder f(x + h) f(x h) 2h für h > 0, aber h 0. Beim numerischen Rechnen ist folgendes zu beachten:
MehrRückblick auf die letzte Vorlesung
Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige
MehrHöhere Mathematik I für die Fachrichtung Informatik. Lösungsvorschläge zum 4. Übungsblatt
KARLSRUHER INSTITUT FÜR TECHNOLOGIE INSTITUT FÜR ANALYSIS Dr. Christoph Schmoeger Heiko Hoffmann WS 0/4 Höhere Mathematik I für die Fachrichtung Informatik Lösungsvorschläge zum 4. Übungsblatt Aufgabe
MehrTopologische Grundbegriffe I. 1 Offene und Abgeschlossene Mengen
Topologische Grundbegriffe I Vortrag zum Proseminar Analysis, 26.04.2010 Nina Neidhardt und Simon Langer Im Folgenden soll gezeigt werden, dass topologische Konzepte, die uns schon für die Reellen Zahlen
MehrStetige Funktionen. Definition. Seien (X, d) und (Y, D) metrische Räume und f : X Y eine Abbildung. i) f heißt stetig in x 0 (x 0 D(f)), wenn
Stetige Funktionen Eine zentrale Rolle in der Analysis spielen Abbildungen f : X Y, wobei X und Y strukturierte Mengen sind (wie z.b. Vektorräume oder metrische Räume). Dabei sind i.a. nicht beliebige
MehrInhaltsverzeichnis. Teil I Lineare Programmierung
Inhaltsverzeichnis 1 Einleitung................................................ 1 1.1 Modellbildung, mathematische Formulierung............... 1 1.2 Nichtlineare Programme.................................
MehrZulassungsprüfung in Mathematik
der Deutschen Aktuarvereinigung e V Hinweise: Als Hilfsmittel sind ein Taschenrechner, eine mathematische Formelsammlung sowie entsprechende Literatur zugelassen Die Gesamtpunktzahl beträgt 9 Punkte Die
MehrNichtlineare Optimierung
Nichtlineare Optimierung Roland Pulch Vorlesung im Wintersemester 2015/16 Institut für Mathematik und Informatik Mathematisch-Naturwissenschaftliche Fakultät Ernst-Moritz-Arndt-Universität Greifswald Inhalt:
MehrMusterlösung zu Blatt 1
Musterlösung zu Blatt Analysis III für Lehramt Gymnasium Wintersemester 0/4 Überprüfe zunächst die notwendige Bedingung Dfx y z = 0 für die Existenz lokaler Extrema Mit x fx y z = 8x und y fx y z = + z
MehrVF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.
IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei
MehrHöhere Mathematik für Physiker II
Universität Heidelberg Sommersemester 2013 Wiederholungsblatt Übungen zur Vorlesung Höhere Mathematik für Physiker II Prof Dr Anna Marciniak-Czochra Dipl Math Alexandra Köthe Fragen Machen Sie sich bei
MehrEinführung in die numerische Mathematik
Prof. Dr. M. Günther K. Gausling, M.Sc. C. Hendricks, M.Sc. Sommersemester 4 Bergische Universität Wuppertal Fachbereich C Mathematik und Naturwissenschaften Angewandte Mathematik / Numerische Analysis
Mehr17. Penalty- und Barriere-Methoden
H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende
Mehrf(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.
Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
Mehr1 Übungsaufgaben zu Kapitel 1
Übungsaufgaben zu Kapitel. Übungsaufgaben zu Abschnitt... Aufgabe. Untersuchen Sie die nachstehend definierten Folgen ( a k ) k und ( b k ) k auf Konvergenz und bestimmen Sie ggf. den jeweiligen Grenzwert:
MehrTeil I. Lineare Optimierung
Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,
MehrLösungen der Übungsaufgaben von Kapitel 3
Analysis I Ein Lernbuch für den sanften Wechsel von der Schule zur Uni 1 Lösungen der Übungsaufgaben von Kapitel 3 zu 3.1 3.1.1 Bestimmen Sie den Abschluss, den offenen Kern und den Rand folgender Teilmengen
MehrRückblick auf die letzte Vorlesung. Bemerkung
Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D
MehrKarlsruher Institut für Technologie (KIT) SS 2013 Institut für Analysis Prof. Dr. Tobias Lamm Dr. Patrick Breuning
Karlsruher Institut für Technologie KIT SS 2013 Institut für Analysis 06.05.2013 Prof. Dr. Tobias Lamm Dr. Patrick Breuning Höhere Mathematik II für die Fachrichtung Physik 4. Übungsblatt Aufgabe 1 Bestimmen
Mehr4 Messbare Funktionen
4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und
MehrDualität bei konvexer Optimierung
Dualität bei konvexer Optimierung Seminar zur Numerik I im SS 2016 Laslo Hunhold 10. Mai 2016 Ausarbeitung zum Seminarvortrag vom 2. Mai 2016 Mathematisches Institut Mathematisch-Naturwissenschaftliche
MehrDas Newton Verfahren.
Das Newton Verfahren. Ziel: Bestimme eine Nullstelle einer differenzierbaren Funktion f :[a, b] R. Verwende die Newton Iteration: x n+1 := x n f x n) f x n ) für f x n ) 0 mit Startwert x 0. Das Verfahren
MehrLösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 2016/17
Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 6/7 837 Aufgabe Punkte): Gegeben sei das lineare Gleichungssystem Ax = b mit A = 6 3 und
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
MehrWiederholung von Linearer Algebra und Differentialrechnung im R n
Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:
MehrNichtlineare Gleichungssysteme
Kapitel 2 Nichtlineare Gleichungssysteme Problem: Für vorgegebene Abbildung f : D R n R n finde R n mit oder ausführlicher f() = 0 (21) f 1 ( 1,, n ) = 0, f n ( 1,, n ) = 0 Einerseits führt die mathematische
MehrÜbungen zu Splines Lösungen zu Übung 20
Übungen zu Splines Lösungen zu Übung 20 20.1 Gegeben seien in der (x, y)-ebene die 1 Punkte: x i 6 5 4 2 1 0 1 2 4 5 6 y i 1 1 1 1 1 + 5 1 + 8 4 1 + 8 1 + 5 1 1 1 1 (a) Skizzieren Sie diese Punkte. (b)
Mehr(a), für i = 1,..., n.
.4 Extremwerte Definition Sei M R n eine Teilmenge, f : M R stetig, a M ein Punkt. f hat in a auf M ein relatives (oder lokales) Maximum bzw. ein relatives (oder lokales) Minimum, wenn es eine offene Umgebung
Mehra) Die Householder-Transformation, welche den ersten Spaltenvektor a 1 = der Matrix A auf , a 1 αe A = QR, A k =: Q k R k, A k+1 := R k Q k.
Karlsruher Institut für Technologie (KIT) Institut für Analysis Prof. Dr. W. Reichel Sommersemester 00 7.07.00 MODULPRÜFUNG Numerische Methoden (Höhere Mathematik IV für die Fachrichtung Meteorologie bzw.
MehrAufgabensammlung zur Analysis 1
Analysis 1 18.12.2017 Prof. Dr. H. Koch Dr. F. Gmeineder Abgabe: Keine Abgabe. Aufgabensammlung zur Analysis 1 Anmerkungen: Das vorliegende Blatt enthält eine Auswahl von Aufgaben, die auf Klausuren zur
MehrMATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE
Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE Differentialrechnung für Funktionen mehrerer
Mehr5.3.5 Abstiegs & Gradientenverfahren
5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3.5 Abstiegs & Gradientenverfahren Die bisher kennengelernten Iterationsverfahren zur Approximation von linearen Gleichungssystemen haben
Mehr5 Numerische Mathematik
6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul
MehrOptimierungstheorie Scheinklausur Sommersemester Juli 2007
Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur
Mehr6. Einführung 43. gilt. Dann soll also A B x B = b eindeutig lösbar sein, also A B vollen Rang haben, d. h. invertierbar (regulär) sein.
6. Einführung 43 und aus der linearen Unabhängigkeit der (a i ) i I(x) folgt y i = z i auch für i I(x). Insgesamt gilt also y = z, d. h., nach Definition 6.9 ist x eine Ecke von P. Beachte: Der Koordinatenvektor
MehrNichtlineare Gleichungssysteme
Nichtlineare Gleichungssysteme Jetzt: Numerische Behandlung nichtlinearer GS f 1 (x 1,..., x n ) =0. f n (x 1,..., x n ) =0 oder kurz f(x) = 0 mit f : R n R n Bemerkung: Neben dem direkten Entstehen bei
MehrOptimale Steuerung, Prof.Dr. L. Blank 1. II Linear-quadratische elliptische Steuerungsprobleme
Optimale Steuerung, Prof.Dr. L. Blank 1 II Linear-quadratische elliptische Steuerungsprobleme Zuerst: Zusammenstellung einiger Begriffe und Aussagen aus der Funktionalanalysis (FA), um dann etwas über
MehrVorlesung Mathematik für Ingenieure I (Wintersemester 2007/08)
1 Vorlesung Mathematik für Ingenieure I (Wintersemester 2007/08) Kapitel 4: Konvergenz und Stetigkeit Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 22. November 2007) Folgen Eine Folge
MehrAnalysis I. 4. Beispielklausur mit Lösungen
Fachbereich Mathematik/Informatik Prof. Dr. H. Brenner Analysis I 4. Beispielklausur mit en Aufgabe 1. Definiere die folgenden (kursiv gedruckten) Begriffe. (1) Eine bijektive Abbildung f: M N. () Ein
MehrKapitel 5 KONVERGENZ
Kapitel 5 KONVERGENZ Fassung vom 21. April 2002 Claude Portenier ANALYSIS 75 5.1 Metrische Räume 5.1 Metrische Räume DEFINITION 1 Sei X eine Menge. Eine Abbildung d : X X! R + heißt Metrik oder Distanz
Mehr