Kontinuierliche Optimierung

Größe: px
Ab Seite anzeigen:

Download "Kontinuierliche Optimierung"

Transkript

1 Kontinuierliche Optimierung Markus Herrich Wintersemester 2018/19

2 ii

3 Inhaltsverzeichnis 2 Optimalitäts- und Regularitätsbedingungen Einleitung und Wiederholung Optimalitätsbedingungen mit zulässigen Richtungen Optimalitätsbedingungen mit Tangentialkegel Optimalitätsbedingungen mit Linearisierungskegel KKT-Bedingungen Regularitätsbedingungen Optimalitätsbedingungen mit Ableitungen zweiter Ordnung Verfahren für Optimierungsaufgaben ohne Restriktionen Ein allgemeines Abstiegsverfahren Gradientenverfahren und gradientenähnliche Verfahren Das Newton-Verfahren Quasi-Newton-Verfahren Verfahren für Optimierungsaufgaben mit Restriktionen Strafverfahren (Penalty-Verfahren) Verfahren mit zulässigen Richtungen iii

4 iv Inhaltsverzeichnis

5 Kapitel 4 Verfahren für Optimierungsaufgaben mit Restriktionen In diesem Kapitel kehren wir zu restringierten Optimierungsaufgaben der Gestalt f(x) min bei g(x) 0, h(x) = 0 (4.1) zurück, mit gegebenen, wenigstens stetigen Funktionen f : R n R, g : R n R m und h : R n R l. Mit G bezeichnen wir wieder den zulässigen Bereich von (4.1) und setzen voraus, dass dieser nichtleer ist. In den folgenden Abschnitten werden wir einige grundlegende numerische Verfahren zur Bestimmung einer Lösung von (4.1) oder zumindest einer Lösung des zu (4.1) gehörigen KKT-Systems kennenlernen. Zur Erinnerung: die zu (4.1) gehörigen KKT-Bedingungen sind gegeben durch f(x) + m u i g i (x) + l v j h j (x) = 0, h(x) = 0, i=1 j=1 g(x) 0, u 0, u g(x) = 0. (4.2) Vorab soll noch bemerkt werden, dass es für gewisse Klassen restringierter Optimierungsprobleme eigene Lösungsverfahren gibt, die den im Folgenden vorgestellten Methoden im Allgemeinen überlegen sind. Dazu gehören insbesondere lineare Optimierungsprobleme sowie quadratische Optimierungsprobleme mit gleichmäßig konvexer Zielfunktion (das heißt positiv definiter Matrix im quadratischen Term). In einigen Verfahren der folgenden Abschnitte werden derartige Optimierungsprobleme sogar als Teilprobleme auftreten. Grundlage für wesentliche Teile dieses Kapitels sind die Vorlesungsskripte [1, 2] sowie die Lehrbücher [4, 5]. 55

6 56 Kapitel 4. Verfahren für Optimierungsaufgaben mit Restriktionen 4.1 Strafverfahren (Penalty-Verfahren) Die grundlegende Idee von Strafverfahren besteht darin, das restringierte Optimierungsproblem (4.1) durch eine Folge unrestringierter Optimierungsprobleme zu ersetzen, bei denen die Verletztheit der Nebenbedingungen von (4.1) als Strafterm in die Zielfunktion aufgenommen wird. Definition. Es sei {w k } k N0 eine Folge von stetigen Funktionen w k : R n R derart, dass für jedes x R n und jede gegen x konvergente Folge {x k } k N0 { 0, falls x G, lim inf w k(x k ) +, falls x / G, und gilt: für jedes x G gilt: lim w k(x) = 0. Dann heißen die Folgenglieder w k Straffunktionen zum Problem (4.1). Anstelle des restringierten Problems (4.1) wird nun, für eine Folge {w k } k N0 Straffunktionen, eine Folge von unrestringierten Ersatzproblemen von P k (x) := f(x) + w k (x) min bei x R n (4.3) betrachtet. Angenommen, diese Ersatzprobleme sind lösbar. Dann stellt sich die Frage, welche Zusammenhänge zwischen Lösungen von (4.3) und Lösungen von (4.1) bestehen. Eine erste Beobachtung ist: wenn Straffunktionen verwendet werden, deren Funktionswerte stets nichtnegativ sind (was durchaus üblich ist), dann ist jede (lokale) Lösung von (4.3), die außerdem im zulässigen Bereich des Problems (4.1) liegt, auch (lokale) Lösung von (4.1). Aber natürlich ist im Allgemeinen nicht zu erwarten, dass für ein gewisses k N 0 eine Lösung von (4.3) zulässig für (4.1) ist (außer, es werden sogenannte exakte Straffunktionen verwendet, vgl. Bemerkung am Ende dieses Abschnitts). Eine Hoffnung könnte dann darin bestehen, dass jede Folge von Lösungen der Probleme (4.3) für k gegen eine Lösung von (4.1) konvergiert. Beispiel 4.1. Gegeben sei das restringierte Optimierungsproblem f(x) := 2x x 2 2 min bei g(x) := 1 x 1 x 2 0. (4.4) Da der zulässige Bereich nichtleer, konvex und abgeschlossen ist und die Zielfunktion gleichmäßig konvex und stetig ist, besitzt dieses Problem genau eine Lösung. Wir nutzen im Folgenden die Straffunktionen w k mit w k (x) := ρ k (max{0, 1 x 1 x 2 }) 2,

7 4.1. Strafverfahren (Penalty-Verfahren) 57 wobei {ρ k } k N0 (0, ) eine gegen + divergierende Zahlenfolge sei. Man überzeugt sich leicht davon, dass die auf diese Weise definierte Folge {w k } tatsächlich eine Folge von Straffunktionen ist. Wir betrachten die zugehörige Folge der unrestringierten Minimierungsaufgaben P k (x) := 2x x ρ k (max{0, 1 x 1 x 2 }) 2 min bei x R n. (4.5) Die notwendige und wegen der Konvexität von P k auch hinreichende Optimalitätsbedingung für (4.5) lautet ( ) ( ) 4x1 2ρ P k (x) = k max{0, 1 x 1 x 2 } 0 =. 2x 2 2ρ k max{0, 1 x 1 x 2 } 0 Für alle Lösungen (x 1, x 2 ) dieses Gleichungssystems muss 1 x 1 x 2 > 0 gelten, denn im Falle 1 x 1 x 2 0 wäre max{0, 1 x 1 x 2 } = 0, womit sich x 1 = x 2 = 0, also ein Widerspruch, ergeben würde. Im Falle 1 x 1 x 2 > 0 ist max{0, 1 x 1 x 2 } = 1 x 1 x 2, sodass sich das obige Gleichungssystem wie folgt schreiben lässt: ( ) ( ) ( ) 4 + 2ρk 2ρ k x1 2ρk = 2ρ k 2 + 2ρ k x 2 2ρ k bzw., nach Division beider Gleichungen durch 2ρ k, ( ) ( ) 2ρ 1 k x1 1 ρ 1 = k + 1 x 2 ( 1 1 ). (4.6) Als (eindeutige) Lösung dieses Gleichungssystems und somit auch eindeutige Lösung des Problems (4.5) ergibt sich ( ) ( ) x x k k := x k := ρ 1. 2 k Offenbar gilt x k / G für alle k N 0. Aber die Folge {x k } k N0 konvergiert gegen einen zulässigen Punkt des Ausgangsproblems (4.4): ( 1 lim xk = 3, 2 ) =: x. 3 Der erhaltene Punkt ist sogar (die eindeutige) Lösung des Ausgangsproblems. Denn unter Beachtung von f(x ) = ( 4, ) gilt für alle zulässigen Punkte x = (x 1, x 2 ) des Problems (4.4): f(x ) (x x ) = 4 3 ( x ) ( x 2 2 ) = (x 1 + x 2 1) 0. Unter Beachtung der Konvexität des zulässigen Bereichs und der Zielfunktion von (4.4) ist x somit nach Satz 2.2 Lösung von (4.4).

8 58 Kapitel 4. Verfahren für Optimierungsaufgaben mit Restriktionen Dass eine Folge von Lösungen der Ersatzprobleme (4.3) gegen eine Lösung des Ausgangsproblems konvergiert, ist im Allgemeinen leider nicht zu erwarten. Aber es gilt zumindest das folgende Resultat. Satz 4.1. Sei {w k } k N0 eine Folge von Straffunktionen zum Problem (4.1). Es sei {x k } k N0 eine Folge von Lösungen der Ersatzprobleme (4.3) (insbesondere seien diese Probleme für alle k N 0 lösbar). Dann ist jeder Häufungspunkt der Folge {x k } k N0 eine Lösung von (4.1). Beweis. Sei x ein Häufungspunkt der Folge {x k } k N0 und sei {x k } k K eine gegen x konvergente Teilfolge. Dann gilt für jedes x G: f(x ) = lim f(x k ) ( ) lim inf P k K k(x k ) ( ) lim inf P k(x) ( ) = f(x). k K k K In ( ) und ( ) wurde dabei die Definition von Straffunktionen verwendet und in ( ) wurde ausgenutzt, dass, für jedes k, x k eine Lösung des Problems (4.3) ist. Insbesondere folgt aus der letzten Ungleichungskette lim inf P k(x k ) lim inf k K P k(x k ) < + und damit x = lim x k G. k K Wir haben also gezeigt, dass x zulässig für das Problem (4.1) ist und der zugehörige Zielfunktionswert nicht größer ist als die Zielfunktionswerte an beliebigen anderen zulässigen Punkten. Damit ist nachgewiesen, dass x eine Lösung von (4.1) ist. Als nächstes sollen einige Beispiele für Straffunktionen genannt werden: quadratische Straffunktion m w k (x) = ρ k (max{0, g i (x)}) 2 + ρ k i=1 l h j (x) 2 j=1 = ρ k max{0, g(x)} 2 + ρ k h(x) 2, wobei {ρ k } k N0 (0, ) eine Folge mit der Eigenschaft lim ρ k = + ist und max{0, g(x)} komponentenweise zu verstehen ist, das heißt max{0, g(x)} := max{0, g 1 (x)}. max{0, g m (x)}. Die auf diese Weise definierten Funktionen w k sind stetig differenzierbar, wenn g und h stetig differenzierbar sind. Allerdings sind sie im Allgemeinen nicht zweimal stetig differenzierbar, selbst wenn g und h zweimal stetig differenzierbar sind.

9 4.1. Strafverfahren (Penalty-Verfahren) 59 allgemeiner: wobei p 1, oder auch wobei p [1, ] w k (x) = ρ k max{0, g(x)} p p + ρ k h(x) p p, w k (x) = ρ k max{0, g(x)} p + ρ k h(x) p, Für die vorgestellten Beispiele für Straffunktionen gilt sogar die Äquivalenz w k (x) = 0 x G. Bemerkung. In der Literatur wird bei der Definition von Straffunktionen manchmal auch zugelassen, dass gewisse Funktionswerte der Funktionen w k gleich + sind und/oder dass die Gleichheit lim w k (x) = 0 nicht zwangsläufig für alle x G gilt, sondern lediglich für alle x aus einer Teilmenge B von G. Insbesondere bei sogenannten Barrierefunktionen ist das der Fall. Die Folgenglieder einer Folge {w k } k N0 von stetigen Funktionen w k : R n R {+ } werden als Barrierefunktionen bezeichnet, wenn lim inf w k (x k ) 0 für alle x int G und jede gegen x konvergente Folge {x k } k N0, w k (x) = + für alle x R n \ int G, lim w k (x) = 0 für alle Elemente x einer Teilmenge B int G. Mit Stetigkeit einer Funktion w : R n R {+ } ist dabei gemeint, dass die Konvergenz einer Folge {x k } k N0 gegen einen Punkt x die Konvergenz bzw. bestimmte Divergenz der Folge {w(x k )} k N0 gegen w(x) impliziert (wobei w(x) unter Umständen gleich + sein könnte). Offensichtlich ist die Verwendung von Barrierefunktionen nur dann sinnvoll, wenn im Optimierungsproblem (4.1) keine Gleichungsrestriktionen vorkommen. Beispiele für Barrierefunktionen sind: logarithmische Barrierefunktion { 1 m ρ w k (x) = k i=1 ln( g i(x)) für x G 0, + für x / G 0. inverse Barrierefunktion w k (x) = { 1 m 1 ρ k i=1 g i (x) für x G 0, + für x / G 0. Dabei sind jeweils G 0 := {x R n g(x) < 0} und {ρ k } (0, ) eine Folge mit der Eigenschaft lim ρ k = +.

10 60 Kapitel 4. Verfahren für Optimierungsaufgaben mit Restriktionen Satz 4.1 macht eine Aussage über den Zusammenhang einer Folge von Lösungen der unrestringierten Probleme (4.3) und Lösungen des Ausgangsproblems (4.1). Praktisch ist es im Allgemeinen jedoch schwer, eine (globale) Lösung von (4.3) zu bestimmen. Stattdessen wird man sich in der Regel mit einem stationären Punkt von (4.3) zufrieden geben müssen, den man darüber hinaus auch nur näherungsweise berechnen kann. Es lässt sich aber zeigen, dass unter gewissen Voraussetzungen jeder Häufungspunkt x einer Folge {x k } von stationären Punkten der Ersatzprobleme (4.3) (oder geeigneten Näherungswerten dafür) ein stationärer Punkt des Ausgangsproblems (4.1) ist, das heißt, dass Vektoren u, v existieren, sodass (x, u, v ) das zu (4.1) gehörige KKT-System löst. Satz 4.2. Gegeben seien Folgen {ρ k } k N0 (0, ) mit lim ρ k = + und {ε k } k N0 [0, ) mit lim ε k = 0. Die Funktionen f : R n R, g : R n R m und h : R n R l seien stetig differenzierbar. Weiter sei die Folge {w k } k N0 zum Problem (4.1) gegeben durch w k (x) := ρ k max{0, g(x)} 2 + ρ k h(x) 2. Sei {x k } R n eine Folge von Punkten, die für jedes k N 0 der Bedingung P k (x k ) = f(x k ) + w k (x k ) ε k genügt. Definiert man noch Vektoren u k R m + und v k R l durch u k i := 2ρ k max{0, g i (x k )} (i = 1,..., m) vj k := 2ρ k h j (x k ) (j = 1,..., l), und dann genügt jeder Häufungspunkt (x, u, v ) der Folge {(x k, u k, v k )} k N0 KKT-Bedingungen zum Problem (4.1). Beweis. Übungsaufgabe. den Der letzte Satz motiviert den folgenden Algorithmus zur Bestimmung eines stationären Punktes des restringierten Optimierungsproblems (4.1). Algorithmus 4.1 (Straffunktionsverfahren). S0: Wähle Folgen {ρ k } k N0 mit lim ρ k = + und {ε k } k N0 Setze k := 0. S1: Berechne x k derart, dass P k (x k ) = f(x k ) + w k (x k ) ε k mit lim ε k = 0. gilt, wobei w k wie im Satz 4.2 definiert sei. Definiere u k R m + und v k R l wie im Satz 4.2.

11 4.2. Verfahren mit zulässigen Richtungen 61 S2: Falls (x k, u k, v k ) eine Lösung des KKT-Systems (4.2) ist: STOPP. Ansonsten setze k := k + 1 und gehe zu S1. Bemerkung. 1. In unserem Beispiel 4.1 war für jedes k ein lineares Gleichungssystem zu lösen, um die Lösung des zu k gehörigen unrestringierten Optimierungsproblems zu bestimmen, nämlich das Gleichungssystem (4.6). Für k und somit ρ k geht die Konditionszahl der Koeffizientenmatrix des Systems (4.6) gegen Unendlich. Ein solches Verhalten ist leider typisch für Strafverfahren: es ist mit einer zunehmend schlechter werdenden Kondition der Teilprobleme für k zu rechnen, die Ersatzzielfunktionen P k sind für große k in der Nähe von lokalen Minima im Allgemeinen stark gekrümmt. Aus diesem Grund wird man bei einer Umsetzung nicht gleich mit einem sehr großen Strafparameter ρ 0 starten, sondern diesen erstmal verhältnismäßig klein wählen, dann, Iteration für Iteration, den Strafparameter erhöhen und dabei zur Berechnung von x k+1 jeweils die vorherige Iterierte x k als Startwert im Lösungsverfahren für unrestringierte Optimierungsprobleme zu verwenden. 2. Sei {w k } k N0 eine Folge von Straffunktionen und {P k } k N0 die zugehörige Folge von Ersatzzielfunktionen, wie in (4.3) definiert. Existiert ein Index k 0 N 0 derart, dass für jedes k k 0 jede lokale Lösung von (4.3) auch lokale Lösung des Ausgangsproblems (4.1) ist, dann nennt man {w k } k N0 Folge von exakten Straffunktionen. Beispiele sind die durch w k (x) := ρ k max{0, g(x)} p + ρ k h(x) p gegebenen Funktionen (für vorgegebenes p [1, ] und eine vorgegebene Folge {ρ k } k N0 (0, )). Ein Vorteil bei der Verwendung von exakten Straffunktionen besteht darin, dass der Strafparameter nicht beliebig oft erhöht werden muss und die Kondition der Teilprobleme somit nicht beliebig schlecht wird. Allerdings hat die Verwendung von exakten Straffunktionen auch einen großen Nachteil: man kann nachweisen, dass eine exakte Straffunktion in lokalen Lösungen des Ausgangsproblems (4.1) nicht differenzierbar sein kann, vgl. Übungsaufgabe. 4.2 Verfahren mit zulässigen Richtungen In diesem Abschnitt setzen wir voraus, dass im Optimierungsproblem (4.1) ausschließlich Ungleichungsrestriktionen vorkommen, das Problem also die Gestalt f(x) min bei g(x) 0 (4.7)

12 62 Kapitel 4. Verfahren für Optimierungsaufgaben mit Restriktionen besitzt. Die Funktionen f : R n R und g : R n R m werden als wenigstens stetig differenzierbar vorausgesetzt. Zur Erinnerung: ist x eine lokale Lösung des Problems (4.7), dann gilt f(x ) d 0 für alle d Z(x ). Existiert umgekehrt für einen zulässigen Punkt x eine Richtung d Z(x) mit f(x) d < 0, dann kann x keine lokale Lösung von (4.7) sein. Die Idee von Verfahren mit zulässigen Richtungen besteht darin, für einen vorgegebenen Startpunkt x 0 G eine Richtung d 0 Z(x 0 ) mit der Eigenschaft f(x 0 ) d 0 < 0 zu bestimmen und anschließend eine Schrittweite α 0 > 0 derart zu berechnen, die einerseits einen in einem gewissen Sinne hinreichenden Abstieg von f garantiert und andererseits x 1 := x 0 + α 0 d 0 G sicherstellt. Mit der neuen Näherung x 1 wird nun genauso verfahren. Usw. Für eine konkrete Umsetzung dieser Idee gibt es zahlreiche Möglichkeiten. Als Beispiele seien hier genannt: die Verfahren nach Zoutendijk (P1- und P2-Verfahren), Verfahren nach Topkins und Veiott sowie Modifikationen davon, spezielle SQP-Verfahren, siehe Abschnitt 4.3. Wir beschreiben im Folgenden das P2-Verfahren nach Zoutendijk und geben für dieses Verfahren ausgewählte Konvergenzresultate an. Für einen gegebenen zulässigen Punkt x G wird bei diesem Verfahren eine Lösung des folgenden Minimierungsproblems bestimmt: λ min d,λ bei f(x) d λ, g i (x) + g i (x) d λ d 1. für alle i I ε (x), (4.8) Dabei bezeichnet, für eine gegebene Zahl ε > 0, I ε (x) die Indexmenge der in x ε-aktiven Ungleichungsrestriktionen, das heißt I ε (x) := {i {1,..., m} g i (x) ε}.

13 Literaturverzeichnis [1] Eppler, K.: Vorlesung Kontinuierliche Optimierung. Vorlesungsskript, Technische Universität Dresden, Wintersemester 2017/18. [2] Fischer, A.: Kontinuierliche Optimierung. Vorlesungsskript, Technische Universität Dresden, Wintersemester 2015/16. [3] Geiger, C., Kanzow, C.: Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Springer, Berlin [4] Geiger, C., Kanzow, C.: Theorie und Numerik restringierter Optimierungsaufgaben. Springer, Berlin [5] Großmann, C., Terno, J.: Numerik der Optimierung. Teubner, Stuttgart [6] Nocedal, J., Wright, S.J.: Numerical Optimization. Second Edition. Springer, New York,

Konvexe Optimierungsprobleme

Konvexe Optimierungsprobleme von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger auf Details.

Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger auf Details. Kapitel 5 Lösungsverfahren Dieses Kapitel gibt einen Überblick über Lösungsverfahren für nichtlineare Optimierungsprobleme. Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger

Mehr

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis Innere-Punkte-Verfahren 3 1 Theoretische Grundlagen 3 1.1 Die KKT-Bedingungen........................... 3 1.2 Der zentrale Pfad.............................. 4

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Das Gradientenverfahren

Das Gradientenverfahren Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1

Mehr

Das Trust-Region-Verfahren

Das Trust-Region-Verfahren Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Seminarvortrag: Trust-Region-Verfahren

Seminarvortrag: Trust-Region-Verfahren Seminarvortrag: Trust-Region-Verfahren Helena Klump Universität Paderborn Dezember 2012 Helena Klump 1 / 22 Trust-Region-Verfahren Problemstellung Sei die Funktion f : R n R gegeben. Betrachtet wird das

Mehr

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für

Mehr

Regularitätsbedingungen

Regularitätsbedingungen Kapitel 5 Regularitätsbedingungen 5.1 Eine notwendige und hinreichende Regularitätsbedingung Beim Studium Lagrangescher Multiplikatorenregeln in ihrer Grundform, bestehend aus Stationaritäts und Komplementaritätsbedingung,

Mehr

18.4 Das Newton-Verfahren

18.4 Das Newton-Verfahren 18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift

Mehr

Analysis I für Studierende der Ingenieurwissenschaften

Analysis I für Studierende der Ingenieurwissenschaften Analysis I für Studierende der Ingenieurwissenschaften Ingenuin Gasser Department Mathematik Universität Hamburg Technische Universität Hamburg Harburg Wintersemester 2008/2009 1 Definition: Sei M R, alsom

Mehr

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren

Mehr

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09 ................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 Obige Angaben sind richtig: Unterschrift der Kandidatin/des Kandidaten 3 TECHNISCHE UNIVERSITÄT

Mehr

Inexakte Newton Verfahren

Inexakte Newton Verfahren Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n

Mehr

KAPITEL 10 DIE INNERE-PUNKTE-METHODE

KAPITEL 10 DIE INNERE-PUNKTE-METHODE KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Das Subgradientenverfahren

Das Subgradientenverfahren Das Subgradientenverfahren Seminar Optimierung WS 05/06 Betreuer: Prof. F. Jarre von Jalo Liljo Das Subgradientenverfahren Das Ziel dieses Vortrags ist die Berechnung einer Lösung des unrestringierten

Mehr

KAPITEL 3. Konvexe Funktionen

KAPITEL 3. Konvexe Funktionen KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems Kapitel 2 Newton Verfahren 2.1 Das lokale Newton Verfahren Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems F (x) = 0 (2.1) mit einer zumindest

Mehr

NICHTRESTRINGIERTE OPTIMIERUNG

NICHTRESTRINGIERTE OPTIMIERUNG 3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene

Mehr

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende) . Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)

Mehr

VIII Inhaltsverzeichnis 4 Innere - Punkte - Methoden für Lineare Programme Exkurs: Newton -Verfahren,Konvergenzraten Anwendung:

VIII Inhaltsverzeichnis 4 Innere - Punkte - Methoden für Lineare Programme Exkurs: Newton -Verfahren,Konvergenzraten Anwendung: Inhaltsverzeichnis 1 Einleitung... 1 1.1 Modellbildung,mathematische Formulierung............... 1 1.2 Nichtlineare Programme................................. 2 1.3 Einteilung von nichtlinearen Programmen...

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Konvexe Mengen und Funktionen

Konvexe Mengen und Funktionen Konvexe Mengen und Funktionen von Corinna Alber Seminararbeit Leiter: Prof. Jarre im Rahmen des Seminars Optimierung III am Lehrstuhl für Mathematische Optimierung an der Heinrich-Heine-Universität Düsseldorf

Mehr

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 markus.sinnl@univie.ac.at http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.

Mehr

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x

Mehr

Kapitel 3. Konvergenz von Folgen und Reihen

Kapitel 3. Konvergenz von Folgen und Reihen Kapitel 3. Konvergenz von Folgen und Reihen 3.1. Normierte Vektorräume Definition: Sei V ein Vektorraum (oder linearer Raum) über (dem Körper) R. Eine Abbildung : V [0, ) heißt Norm auf V, falls die folgenden

Mehr

1 Die direkte Methode der Variationsrechnung

1 Die direkte Methode der Variationsrechnung Die direkte Methode der Variationsrechnung Betrachte inf I(u) = f(x, u(x), u(x)) dx : u u + W,p () wobei R n, u W,p mit I(u ) < und f : R R n R. (P) Um die Existenz eines Minimierers direkt zu zeigen,

Mehr

TU Dresden Fachrichtung Mathematik Institut für Numerische Mathematik 1. Dr. M. Herrich SS 2017

TU Dresden Fachrichtung Mathematik Institut für Numerische Mathematik 1. Dr. M. Herrich SS 2017 TU Dresden Fachrichtung Mathematik Institut für Numerische Mathematik Prof. Dr. K. Eppler Institut für Numerische Mathematik Dr. M. Herrich SS 207 Aufgabe Gegeben sei die Funktion f : R 2 R mit Übungen

Mehr

12. Trennungssätze für konvexe Mengen 83

12. Trennungssätze für konvexe Mengen 83 12. Trennungssätze für konvexe Mengen 83 C_1 C_2 a Abbildung 12.4. Trennung konvexer Mengen durch eine Hyperebene mit Normalenvektor a Dann ist int(c) nicht leer (warum?) und [als Minkowski-Summe von C

Mehr

sign: R R, sign(x) := 0 falls x = 0 1 falls x < 0 Diese ist im Punkt x 0 = 0 nicht stetig, denn etwa zu ε = 1 finden wir kein δ > 0

sign: R R, sign(x) := 0 falls x = 0 1 falls x < 0 Diese ist im Punkt x 0 = 0 nicht stetig, denn etwa zu ε = 1 finden wir kein δ > 0 ANALYSIS FÜR PHYSIK UND VERWANDTE FÄCHER I 81 3. Stetigkeit 3.1. Stetigkeit. Im Folgenden sei D R eine beliebige nichtleere Teilmenge. Typischerweise wird D ein allgemeines Intervall sein, siehe Abschnitt

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

Wie in der reellen Analysis üblich notiert man Folgen f in der Form

Wie in der reellen Analysis üblich notiert man Folgen f in der Form 2.1.3 Folgen und Konvergenz Viele aus der Analysisvorlesung bekannte Begriffe lassen sich in den Bereich der metrischen Räume verallgemeinern. Diese Verallgemeinerung hat sich als sehr nützliches mathematisches

Mehr

Prof. Dr. Elmar Grosse-Klönne Institut für Mathematik

Prof. Dr. Elmar Grosse-Klönne Institut für Mathematik Prof. Dr. Elmar Grosse-Klönne Institut für Mathematik Lineare Algebra Analytische Geometrie I* Übungsaufgaben, Blatt Musterlösungen Aufgabe. Es seien A, B, C Teilmengen einer Menge X. Zeige: i A B C =

Mehr

5 Numerische Iterationsverfahren

5 Numerische Iterationsverfahren In diesem Kapitel besprechen wir numerische Iterationsverfahren (insbesondere Fixpunktverfahren) als eine weitere Lösungsmethode zur Lösung von linearen Gleichungssystemen (Kapitel 4) sowie zur Lösung

Mehr

Rechenoperationen mit Folgen. Rekursion und Iteration.

Rechenoperationen mit Folgen. Rekursion und Iteration. Rechenoperationen mit Folgen. Die Menge aller Folgen in V bildet einen Vektorraum, V N, für den die Addition und skalare Multiplikation wie folgt definiert sind. (a n ) n N + (b n ) n N := (a n + b n )

Mehr

GRUNDLAGEN MATHEMATIK

GRUNDLAGEN MATHEMATIK Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik GRUNDLAGEN MATHEMATIK 2. Folgen Prof. Dr. Gunar Matthies Wintersemester 2015/16 G. Matthies Grundlagen Mathematik

Mehr

Praktische Optimierung

Praktische Optimierung Grundlagen klassischer Optimiertechniken Praktische Optimierung Wintersemester 2008/09 Prof Dr Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund Themen der heutigen

Mehr

Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn Optimierung Vorlesung 5 Optimierung mit Nebenbedingungen 1 Minimierung mit Gleichheitsrestriktionen Gegeben: Funktion,,,, : Ziel:,,, Unrestringierter Fall: Notwendige Bedingung für lokales Minimum keine

Mehr

Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung

Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung 18.3.14-20.3.14 Dr. Florian Lindemann Moritz Keuthen, M.Sc. Technische Universität München Garching, 19.3.2014 Kursplan Dienstag, 18.3.2014

Mehr

Analysis II 14. Übungsblatt

Analysis II 14. Übungsblatt Jun.-Prof. PD Dr. D. Mugnolo Wintersemester 01/13 F. Stoffers 04. Februar 013 Analysis II 14. Übungsblatt 1. Aufgabe (8 Punkte Man beweise: Die Gleichung z 3 + z + xy = 1 besitzt für jedes (x, y R genau

Mehr

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016 Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b

Mehr

( ) Dann gilt f(x) g(x) in der Nähe von x 0, das heisst. Für den Fehler r(h) dieser Näherung erhält man unter Verwendung von ( )

( ) Dann gilt f(x) g(x) in der Nähe von x 0, das heisst. Für den Fehler r(h) dieser Näherung erhält man unter Verwendung von ( ) 64 Die Tangente in x 0 eignet sich also als lokale (lineare) Näherung der Funktion in der Nähe des Punktes P. Oder gibt es eine noch besser approximierende Gerade? Satz 4.9 Unter allen Geraden durch den

Mehr

Praktische Optimierung

Praktische Optimierung Praktische Optimierung Dozent: Günter Rudolph Vertretung: Nicola Beume Wintersemester 2007/08 Universität Dortmund Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS11) Fachgebiet Computational

Mehr

Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript

Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript Janko Latschev Fachbereich Mathematik Universität Hamburg www.math.uni-hamburg.de/home/latschev Hamburg,

Mehr

Konstruktion der reellen Zahlen

Konstruktion der reellen Zahlen Konstruktion der reellen Zahlen Zur Wiederholung: Eine Menge K (mit mindestens zwei Elementen) heißt Körper, wenn für beliebige Elemente x, y K eindeutig eine Summe x+y K und ein Produkt x y K definiert

Mehr

Aufgaben und Lösungen Ausarbeitung der Übungsstunde zur Vorlesung Analysis I

Aufgaben und Lösungen Ausarbeitung der Übungsstunde zur Vorlesung Analysis I Aufgaben und en Ausarbeitung der Übungsstunde zur Vorlesung Analysis I Wintersemester 2008/2009 Übung 6 Einleitung Eventuell auftretende Fragen zum Übungsblatt sollen beantwortet werden. Dazu ist es erforderlich,

Mehr

MATTHIAS GERDTS. Optimierung. Universität der Bundeswehr München Wintertrimester 2014

MATTHIAS GERDTS. Optimierung. Universität der Bundeswehr München Wintertrimester 2014 MATTHIAS GERDTS Optimierung Universität der Bundeswehr München Wintertrimester 2014 Addresse des Autors: Matthias Gerdts Institut für Mathematik und Rechneranwendung Universität der Bundeswehr München

Mehr

Analysis I. Guofang Wang Universität Freiburg

Analysis I. Guofang Wang Universität Freiburg Universität Freiburg 30.11.2016 5. Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,..., x n ) : x i R} = } R. {{.. R }. n mal Für x R ist x der Abstand zum

Mehr

Einführung in Softwaretools zur Nichtlinearen Optimierung

Einführung in Softwaretools zur Nichtlinearen Optimierung Einführung in Softwaretools zur Nichtlinearen Optimierung 3. April 2017 5. April 2017 Sebastian Garreis, M. Sc. (hons) Johannes Haubner, M. Sc. Technische Universität München Fakultät für Mathematik Lehrstuhl

Mehr

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist: Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,

Mehr

(alternierendes Vorzeichen) a n := ( 1)n n + 1 a n := 3n 2 7n a n := n(n 1)(n 2), n 3

(alternierendes Vorzeichen) a n := ( 1)n n + 1 a n := 3n 2 7n a n := n(n 1)(n 2), n 3 ANALYSIS FÜR PHYSIK UND VERWANDTE FÄCHER I 43 2. Folgen und Reihen Folgen und Reihen werden in jedem Analysislehrbuch besprochen, siehe etwa [H, Kapitel III], [K, Kapitel 5], [J2, Kapitel 23] oder [M,

Mehr

Lineare Optimierung: Simplexverfahren Phase Ⅰ

Lineare Optimierung: Simplexverfahren Phase Ⅰ Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren

Mehr

Rechnerpraktikum zur Nichtlinearen Optimierung

Rechnerpraktikum zur Nichtlinearen Optimierung Rechnerpraktikum zur Nichtlinearen Optimierung 9. März 2016 11. März 2016 Sebastian Garreis, B. Sc. Philipp Jarde, M. Sc. Technische Universität München Fakultät für Mathematik Lehrstuhl für Mathematische

Mehr

Numerische Ableitung

Numerische Ableitung Numerische Ableitung Die Ableitung kann angenähert werden durch den Differentenquotient: f (x) f(x + h) f(x) h oder f(x + h) f(x h) 2h für h > 0, aber h 0. Beim numerischen Rechnen ist folgendes zu beachten:

Mehr

Rückblick auf die letzte Vorlesung

Rückblick auf die letzte Vorlesung Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige

Mehr

Höhere Mathematik I für die Fachrichtung Informatik. Lösungsvorschläge zum 4. Übungsblatt

Höhere Mathematik I für die Fachrichtung Informatik. Lösungsvorschläge zum 4. Übungsblatt KARLSRUHER INSTITUT FÜR TECHNOLOGIE INSTITUT FÜR ANALYSIS Dr. Christoph Schmoeger Heiko Hoffmann WS 0/4 Höhere Mathematik I für die Fachrichtung Informatik Lösungsvorschläge zum 4. Übungsblatt Aufgabe

Mehr

Topologische Grundbegriffe I. 1 Offene und Abgeschlossene Mengen

Topologische Grundbegriffe I. 1 Offene und Abgeschlossene Mengen Topologische Grundbegriffe I Vortrag zum Proseminar Analysis, 26.04.2010 Nina Neidhardt und Simon Langer Im Folgenden soll gezeigt werden, dass topologische Konzepte, die uns schon für die Reellen Zahlen

Mehr

Stetige Funktionen. Definition. Seien (X, d) und (Y, D) metrische Räume und f : X Y eine Abbildung. i) f heißt stetig in x 0 (x 0 D(f)), wenn

Stetige Funktionen. Definition. Seien (X, d) und (Y, D) metrische Räume und f : X Y eine Abbildung. i) f heißt stetig in x 0 (x 0 D(f)), wenn Stetige Funktionen Eine zentrale Rolle in der Analysis spielen Abbildungen f : X Y, wobei X und Y strukturierte Mengen sind (wie z.b. Vektorräume oder metrische Räume). Dabei sind i.a. nicht beliebige

Mehr

Inhaltsverzeichnis. Teil I Lineare Programmierung

Inhaltsverzeichnis. Teil I Lineare Programmierung Inhaltsverzeichnis 1 Einleitung................................................ 1 1.1 Modellbildung, mathematische Formulierung............... 1 1.2 Nichtlineare Programme.................................

Mehr

Zulassungsprüfung in Mathematik

Zulassungsprüfung in Mathematik der Deutschen Aktuarvereinigung e V Hinweise: Als Hilfsmittel sind ein Taschenrechner, eine mathematische Formelsammlung sowie entsprechende Literatur zugelassen Die Gesamtpunktzahl beträgt 9 Punkte Die

Mehr

Nichtlineare Optimierung

Nichtlineare Optimierung Nichtlineare Optimierung Roland Pulch Vorlesung im Wintersemester 2015/16 Institut für Mathematik und Informatik Mathematisch-Naturwissenschaftliche Fakultät Ernst-Moritz-Arndt-Universität Greifswald Inhalt:

Mehr

Musterlösung zu Blatt 1

Musterlösung zu Blatt 1 Musterlösung zu Blatt Analysis III für Lehramt Gymnasium Wintersemester 0/4 Überprüfe zunächst die notwendige Bedingung Dfx y z = 0 für die Existenz lokaler Extrema Mit x fx y z = 8x und y fx y z = + z

Mehr

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf. IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei

Mehr

Höhere Mathematik für Physiker II

Höhere Mathematik für Physiker II Universität Heidelberg Sommersemester 2013 Wiederholungsblatt Übungen zur Vorlesung Höhere Mathematik für Physiker II Prof Dr Anna Marciniak-Czochra Dipl Math Alexandra Köthe Fragen Machen Sie sich bei

Mehr

Einführung in die numerische Mathematik

Einführung in die numerische Mathematik Prof. Dr. M. Günther K. Gausling, M.Sc. C. Hendricks, M.Sc. Sommersemester 4 Bergische Universität Wuppertal Fachbereich C Mathematik und Naturwissenschaften Angewandte Mathematik / Numerische Analysis

Mehr

17. Penalty- und Barriere-Methoden

17. Penalty- und Barriere-Methoden H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende

Mehr

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum. Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

1 Übungsaufgaben zu Kapitel 1

1 Übungsaufgaben zu Kapitel 1 Übungsaufgaben zu Kapitel. Übungsaufgaben zu Abschnitt... Aufgabe. Untersuchen Sie die nachstehend definierten Folgen ( a k ) k und ( b k ) k auf Konvergenz und bestimmen Sie ggf. den jeweiligen Grenzwert:

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

Lösungen der Übungsaufgaben von Kapitel 3

Lösungen der Übungsaufgaben von Kapitel 3 Analysis I Ein Lernbuch für den sanften Wechsel von der Schule zur Uni 1 Lösungen der Übungsaufgaben von Kapitel 3 zu 3.1 3.1.1 Bestimmen Sie den Abschluss, den offenen Kern und den Rand folgender Teilmengen

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

Karlsruher Institut für Technologie (KIT) SS 2013 Institut für Analysis Prof. Dr. Tobias Lamm Dr. Patrick Breuning

Karlsruher Institut für Technologie (KIT) SS 2013 Institut für Analysis Prof. Dr. Tobias Lamm Dr. Patrick Breuning Karlsruher Institut für Technologie KIT SS 2013 Institut für Analysis 06.05.2013 Prof. Dr. Tobias Lamm Dr. Patrick Breuning Höhere Mathematik II für die Fachrichtung Physik 4. Übungsblatt Aufgabe 1 Bestimmen

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

Dualität bei konvexer Optimierung

Dualität bei konvexer Optimierung Dualität bei konvexer Optimierung Seminar zur Numerik I im SS 2016 Laslo Hunhold 10. Mai 2016 Ausarbeitung zum Seminarvortrag vom 2. Mai 2016 Mathematisches Institut Mathematisch-Naturwissenschaftliche

Mehr

Das Newton Verfahren.

Das Newton Verfahren. Das Newton Verfahren. Ziel: Bestimme eine Nullstelle einer differenzierbaren Funktion f :[a, b] R. Verwende die Newton Iteration: x n+1 := x n f x n) f x n ) für f x n ) 0 mit Startwert x 0. Das Verfahren

Mehr

Lösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 2016/17

Lösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 2016/17 Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 6/7 837 Aufgabe Punkte): Gegeben sei das lineare Gleichungssystem Ax = b mit A = 6 3 und

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 2 Nichtlineare Gleichungssysteme Problem: Für vorgegebene Abbildung f : D R n R n finde R n mit oder ausführlicher f() = 0 (21) f 1 ( 1,, n ) = 0, f n ( 1,, n ) = 0 Einerseits führt die mathematische

Mehr

Übungen zu Splines Lösungen zu Übung 20

Übungen zu Splines Lösungen zu Übung 20 Übungen zu Splines Lösungen zu Übung 20 20.1 Gegeben seien in der (x, y)-ebene die 1 Punkte: x i 6 5 4 2 1 0 1 2 4 5 6 y i 1 1 1 1 1 + 5 1 + 8 4 1 + 8 1 + 5 1 1 1 1 (a) Skizzieren Sie diese Punkte. (b)

Mehr

(a), für i = 1,..., n.

(a), für i = 1,..., n. .4 Extremwerte Definition Sei M R n eine Teilmenge, f : M R stetig, a M ein Punkt. f hat in a auf M ein relatives (oder lokales) Maximum bzw. ein relatives (oder lokales) Minimum, wenn es eine offene Umgebung

Mehr

a) Die Householder-Transformation, welche den ersten Spaltenvektor a 1 = der Matrix A auf , a 1 αe A = QR, A k =: Q k R k, A k+1 := R k Q k.

a) Die Householder-Transformation, welche den ersten Spaltenvektor a 1 = der Matrix A auf , a 1 αe A = QR, A k =: Q k R k, A k+1 := R k Q k. Karlsruher Institut für Technologie (KIT) Institut für Analysis Prof. Dr. W. Reichel Sommersemester 00 7.07.00 MODULPRÜFUNG Numerische Methoden (Höhere Mathematik IV für die Fachrichtung Meteorologie bzw.

Mehr

Aufgabensammlung zur Analysis 1

Aufgabensammlung zur Analysis 1 Analysis 1 18.12.2017 Prof. Dr. H. Koch Dr. F. Gmeineder Abgabe: Keine Abgabe. Aufgabensammlung zur Analysis 1 Anmerkungen: Das vorliegende Blatt enthält eine Auswahl von Aufgaben, die auf Klausuren zur

Mehr

MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE

MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE Differentialrechnung für Funktionen mehrerer

Mehr

5.3.5 Abstiegs & Gradientenverfahren

5.3.5 Abstiegs & Gradientenverfahren 5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3.5 Abstiegs & Gradientenverfahren Die bisher kennengelernten Iterationsverfahren zur Approximation von linearen Gleichungssystemen haben

Mehr

5 Numerische Mathematik

5 Numerische Mathematik 6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul

Mehr

Optimierungstheorie Scheinklausur Sommersemester Juli 2007

Optimierungstheorie Scheinklausur Sommersemester Juli 2007 Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur

Mehr

6. Einführung 43. gilt. Dann soll also A B x B = b eindeutig lösbar sein, also A B vollen Rang haben, d. h. invertierbar (regulär) sein.

6. Einführung 43. gilt. Dann soll also A B x B = b eindeutig lösbar sein, also A B vollen Rang haben, d. h. invertierbar (regulär) sein. 6. Einführung 43 und aus der linearen Unabhängigkeit der (a i ) i I(x) folgt y i = z i auch für i I(x). Insgesamt gilt also y = z, d. h., nach Definition 6.9 ist x eine Ecke von P. Beachte: Der Koordinatenvektor

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Nichtlineare Gleichungssysteme Jetzt: Numerische Behandlung nichtlinearer GS f 1 (x 1,..., x n ) =0. f n (x 1,..., x n ) =0 oder kurz f(x) = 0 mit f : R n R n Bemerkung: Neben dem direkten Entstehen bei

Mehr

Optimale Steuerung, Prof.Dr. L. Blank 1. II Linear-quadratische elliptische Steuerungsprobleme

Optimale Steuerung, Prof.Dr. L. Blank 1. II Linear-quadratische elliptische Steuerungsprobleme Optimale Steuerung, Prof.Dr. L. Blank 1 II Linear-quadratische elliptische Steuerungsprobleme Zuerst: Zusammenstellung einiger Begriffe und Aussagen aus der Funktionalanalysis (FA), um dann etwas über

Mehr

Vorlesung Mathematik für Ingenieure I (Wintersemester 2007/08)

Vorlesung Mathematik für Ingenieure I (Wintersemester 2007/08) 1 Vorlesung Mathematik für Ingenieure I (Wintersemester 2007/08) Kapitel 4: Konvergenz und Stetigkeit Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 22. November 2007) Folgen Eine Folge

Mehr

Analysis I. 4. Beispielklausur mit Lösungen

Analysis I. 4. Beispielklausur mit Lösungen Fachbereich Mathematik/Informatik Prof. Dr. H. Brenner Analysis I 4. Beispielklausur mit en Aufgabe 1. Definiere die folgenden (kursiv gedruckten) Begriffe. (1) Eine bijektive Abbildung f: M N. () Ein

Mehr

Kapitel 5 KONVERGENZ

Kapitel 5 KONVERGENZ Kapitel 5 KONVERGENZ Fassung vom 21. April 2002 Claude Portenier ANALYSIS 75 5.1 Metrische Räume 5.1 Metrische Räume DEFINITION 1 Sei X eine Menge. Eine Abbildung d : X X! R + heißt Metrik oder Distanz

Mehr