Nichtlineare Optimierung
|
|
|
- Kerstin Schäfer
- vor 8 Jahren
- Abrufe
Transkript
1 Nichtlineare Optimierung Roland Griesse Numerische Mathematik Chemnitzer Skiseminar Gerlosberg, März 2009
2 Gliederung Konvexe Optimierung 1 Konvexe Optimierung Bedeutung Beispiele Charakterisierung konvexer Funktionen 2 bei konvexen Aufgaben 3
3 Konvexe Optimierungsaufgaben Bedeutung Beispiele Charakterisierung konvexer Funktionen Konvexe Optimierungsaufgabe min f (x) konvex sodass x C konvex Theorem (Eigenschaften konvexer Optimierungsaufgaben) 1 Jedes lokale Minimum ist bereits globales Minimum. 2 Die Menge globaler Minima ist konvex (evtl. leer). 3 Ist f strikt konvex, dann ist die Lösung (falls sie existiert) eindeutig. Beachte: Diese Eigenschaften gehen verloren bei nicht-konvexen Aufgaben.
4 Bedeutung Beispiele Charakterisierung konvexer Funktionen Beispiele konvexer Optimierungsaufgaben Lineare Programme (LP) Minimiere sodass c x A x b Minimiere c x sodass A x = b, x 0 Quadratische Programme (QP) Minimiere 1 2 x Q x + b x, Q = Q 0 sodass A 1 x b 1 und A 2 x = b 2
5 Bedeutung Beispiele Charakterisierung konvexer Funktionen Beispiele konvexer Optimierungsaufgaben Projektionsaufgabe Minimiere f (x) := x y (konvex) sodass x C konvex Allgemeine nichtlineare Optimierungsaufgaben (NLP) Minimiere f (x) konvex sodass g(x) 0 konvex und h(x) = 0 affin-linear Beachte: Hierbei kann man sich geschickt und ungeschickt anstellen.
6 Bedeutung Beispiele Charakterisierung konvexer Funktionen Konvexe und nichtkonvexe Beschreibungen Beispiel C = {x R 2 : x 1 0, x 1 + x 2 = 0} (konvex) Nichtkonvexe Beschreibung g(x) = x x2 2 0 h(x) = (x 1 + x 2 ) 2 = 0 Konvexe Beschreibung g(x) = x 1 0 h(x) = x 1 + x 2 = 0
7 Bedeutung Beispiele Charakterisierung konvexer Funktionen Charakterisierung konvexer Funktionen Theorem f (stetig diffbar) ist konvex auf C f (x) f (y) + f (y) (x y) für alle x, y C f (x) f (y), x y 0 für alle x, y C Das heißt: f verläuft oberhalb aller Tangenten der Gradient f ( ) ist ein monotoner Operator
8 Gliederung Konvexe Optimierung bei konvexen Aufgaben 1 Konvexe Optimierung Bedeutung Beispiele Charakterisierung konvexer Funktionen 2 bei konvexen Aufgaben 3
9 Nichtlineare Optimierung bei konvexen Aufgaben Nichtlineares Programm (NLP) Minimiere f (x) sodass g(x) 0 g : R n R m und h(x) = 0 h : R n R p (alles stetig diffbar, nicht notwendig konvex) Ziel: notwendige für lokale Minima
10 bei konvexen Aufgaben Lagrangefunktion L(x, µ, λ) = f (x) + µ g(x) + λ h(x) Nebenbedingungen angekoppelt L x (x, µ, λ) = f (x) + g (x) µ + h (x) λ = 0 h(x) = 0 µ 0, g(x) 0, µ g(x) = 0 (Komplementarität) Ein Tripel (x, µ, λ), das diese Bedingungen erfüllt, heißt KKT-Punkt.
11 Motivation für bei konvexen Aufgaben Einfacher Fall: h : R n R, keine Ungleichungen f (x) + h(x) λ = 0 Parallelität
12 Motivation für bei konvexen Aufgaben Einfacher Fall: h : R n R, keine Ungleichungen f (x) + h(x) λ = 0 Parallelität Theorem (Notwendige Bedingungen) Ist x ein lokales Minimum von (NLP) und sind gewisse Regularitätsbedingungen () erfüllt, dann existieren (nicht notwendig eindeutig bestimmte) Lagrange-Multiplikatoren µ, λ, sodass (x, µ, λ ) ein KKT-Punkt ist. Vorteil: System von Gleichungen und Ungleichungen
13 Brauchen wir CQs? bei konvexen Aufgaben Beispiel Minimiere x 1 sodass g 1 (x) = x 2 + x1 3 0 und g 2 (x) = x 2 0. x = (0, 0) ist eindeutiges (sogar globales) Minimum. g 1 (x) = (3 x 2 1, 1) g 2 (x) = (0, 1) f (x) = ( 1, 0) g 1 (x ) = (0, 1) g 1 (x ) = (0, 1) f (x ) = ( 1, 0)
14 Brauchen wir CQs? bei konvexen Aufgaben Folgerungen Offenbar lässt sich f (x ) nicht als µ 1 g 1 (x ) + µ 2 g 2 (x ) schreiben. Lagrange-Multiplikatoren existieren nicht. Über lässt sich diese Aufgabe nicht lösen.
15 Übersicht bei konvexen Aufgaben Zusammenhang allgemeine NLP konvexe NLP LICQ MFCQ Abadie-CQ Slater-Bedingung
16 Bedeutung der Abadie-CQ Tangentialkegel und Linearisierung bei konvexen Aufgaben T X (x ) := {d R n : {x k x } X, t k 0, k x t k d} { } { gi T lin (x ) := d R n (x ) d 0 für alle i A(x ) } : h j (x ) d = 0 für alle j = 1,... p d T lin (x ) ist tangential zu den Gleichungen, nicht nach außen zeigend bzgl. der aktiven Ungleichungen. In einem lokalen Minimum x gilt: f (x ) d 0 für alle d T X (x ) f (x ) T X (x ) Normalenkegel
17 Bedeutung der Abadie-CQ Tangentialkegel und Linearisierung bei konvexen Aufgaben T X (x ) := {d R n : {x k x } X, t k 0, k x t k d} { } { gi T lin (x ) := d R n (x ) d 0 für alle i A(x ) } : h j (x ) d = 0 für alle j = 1,... p d T lin (x ) ist tangential zu den Gleichungen, nicht nach außen zeigend bzgl. der aktiven Ungleichungen. In einem lokalen Minimum x gilt: f (x ) d 0 für alle d T X (x ) f (x ) T X (x ) Normalenkegel Problem: Den Normalenkegel T X (x ) kann man nur schwer charakterisieren.
18 Bedeutung der Abadie-CQ bei konvexen Aufgaben Abadie-CQ Im Punkt x gelte T X (x ) = T lin (x ). f (x ) T X (x ) = T lin (x )
19 Bedeutung der Abadie-CQ bei konvexen Aufgaben Abadie-CQ Im Punkt x gelte T X (x ) = T lin (x ). f (x ) T X (x ) = T lin (x ) Vorteil { m p T lin (x ) = µ i g i (x ) + λ j h j (x ) : µ i 0 für i A(x ), i=1 j=1 } µ i = 0 für i I(x ), λ j R. Beachte: f (x ) T lin (x ).
20 Bedeutung der Abadie-CQ bei konvexen Aufgaben Einschätzung Im Allgemeinen sind die Abadie-CQ schwer zu handhaben. Jedoch: Die Abadie-CQ gelten, falls g und h affin-linear sind.
21 bei konvexen Aufgaben Notorisches Gegenbeispiel für die Abadie-CQ MPCCs Minimiere f (x) sodass 0 g 1 (x), 0 g 2 (x), g 1 (x) g 2 (x) = 0. Die Abadie-CQ ist in bi-aktiven Punkten nicht erfüllt. Die MFCQ ist in keinem zulässigen Punkt erfüllt. Anwendungen Optimierungsaufgaben, in denen ein Optimalitätssystem einer anderen Aufgabe (lower-level) als Nebenbedingung vorkommt.
22 Weitere CQ bei konvexen Aufgaben MFCQ / Linearisierte Slaterbedingung Die Gradienten { h j (x )} p j=1 seien linear unabhängig. Es existiere ein Vektor d R n mit g i (x ) d < 0 für alle i A(x ) h j (x ) d = 0 für alle j = 1,..., p. LICQ Die Gradienten { h j (x )} p j=1 { g i(x )} i A(x ) sind linear unabhängig.
23 bei konvexen Aufgaben Slater-Bedingung für konvexe Aufgaben Sei also g( ) konvex und h(x) = A x b. Slater-Bedingung Es existiere ein x 0 (Slater-Punkt) mit g(x 0 ) < 0 und A x 0 = b.
24 bei konvexen Aufgaben Slater-Bedingung für konvexe Aufgaben Sei also g( ) konvex und h(x) = A x b. Slater-Bedingung Es existiere ein x 0 (Slater-Punkt) mit g(x 0 ) < 0 und A x 0 = b. Vorteil: Man muss x nicht kennen.
25 bei konvexen Aufgaben für konvexe Aufgaben Theorem (Hinreichende Bedingungen) Ist das (NLP) konvex, dann ist jeder KKT-Punkt (x, µ, λ ) ein lokales = globales Minimum.
26 bei konvexen Aufgaben für konvexe Aufgaben Theorem (Hinreichende Bedingungen) Ist das (NLP) konvex, dann ist jeder KKT-Punkt (x, µ, λ ) ein lokales = globales Minimum. Beachte: CQs kommen nicht vor.
27 bei konvexen Aufgaben für konvexe Aufgaben Theorem (Hinreichende Bedingungen) Ist das (NLP) konvex, dann ist jeder KKT-Punkt (x, µ, λ ) ein lokales = globales Minimum. Beachte: CQs kommen nicht vor. Beweis. f (x) f (x ) + f (x ) (x x ) = f (x ) (µ ) g (x )(x x ) (λ ) A (x x ) }{{} =b b=0 f (x ) (µ ) ( g i (x) g i (x ) ) f (x )
28 bei konvexen Aufgaben Hinreichende Bedingungen 2. Ordnung (SSC) Theorem Es sei (x, µ, λ ) ein KKT-Punkt. Wenn d L xx (x, µ, λ ) d > 0 für alle d T lin (x ) \ {0} gilt, dann ist x ein striktes lokales Minimum von (NLP).
29 bei konvexen Aufgaben Hinreichende Bedingungen 2. Ordnung (SSC) Theorem Es sei (x, µ, λ ) ein KKT-Punkt. Wenn d L xx (x, µ, λ ) d > 0 für alle d T lin (x ) \ {0} gilt, dann ist x ein striktes lokales Minimum von (NLP). Beachte: (NLP) verhält sich dann in der Nähe von x wie ein strikt konvexes Problem.
30 bei konvexen Aufgaben Hinreichende Bedingungen 2. Ordnung (SSC) Theorem Es sei (x, µ, λ ) ein KKT-Punkt. Wenn d L xx (x, µ, λ ) d > 0 für alle d T lin (x ) \ {0} gilt, dann ist x ein striktes lokales Minimum von (NLP). Beachte: (NLP) verhält sich dann in der Nähe von x wie ein strikt konvexes Problem. Verfeinerung Diese Aussage gilt auch mit den kleineren Kegel T 2, bei dem man stark aktive Ungleichungen wie Gleichungen behandelt.
31 Gliederung Konvexe Optimierung 1 Konvexe Optimierung Bedeutung Beispiele Charakterisierung konvexer Funktionen 2 bei konvexen Aufgaben 3
32 Aufgabenstellung Nichtlineares Programm (NLP) Minimiere f (x) X, Z g, Z h Banachräume sodass g(x) 0 g : X Z g und h(x) = 0 h : X Z h (PDE)
33 Aufgabenstellung Nichtlineares Programm (NLP) Minimiere f (x) und h(x) = 0 h : X Z h (PDE) X, Z g, Z h Banachräume Zunächst: nur Gleichungsbeschränkungen
34 Aufgabenstellung Nichtlineares Programm (NLP) Minimiere f (x) und h(x) = 0 h : X Z h (PDE) X, Z g, Z h Banachräume Zunächst: nur Gleichungsbeschränkungen Lagrangefunktion L(x, λ) = f (x) + λ, h(x) Nebenbedingungen angekoppelt mit λ Z h
35 Notwendige Bedingungen ohne Ungleichungsbeschränkungen L x (x, λ) δx = f (x) δx + λ, h (x) δx = 0 für alle δx X h(x) = 0
36 Notwendige Bedingungen ohne Ungleichungsbeschränkungen L x (x, λ) δx = f (x) δx + λ, h (x) δx = 0 f (x) + h (x) λ = 0 in X h(x) = 0 für alle δx X
37 Notwendige Bedingungen ohne Ungleichungsbeschränkungen L x (x, λ) δx = f (x) δx + λ, h (x) δx = 0 f (x) + h (x) λ = 0 in X h(x) = 0 für alle δx X Theorem (Notwendige Bedingungen) Ist x ein lokales Minimum von (NLP) und sind gewisse Regularitätsbedingungen () erfüllt, dann existieren (nicht notwendig eindeutig bestimmte) Lagrange-Multiplikatoren λ Z h, sodass (x, λ ) ein KKT-Punkt ist.
38 LICQ Die lineare Abbildung h (x ) ist surjektiv auf Z h. Bedeutung für PDEs Die lineariserte PDE h (x ) δx = f ist für jede rechte Seite f Z h lösbar in X.
39 Ungleichungsbeschränkungen Frage: Was soll g(x) 0 für x X bedeuten? Eigentlicher (proper) Kegel Ein konvexer Kegel K Z heißt eigentlich, wenn gilt: K ( K) = {0} K ist abgeschlossen K hat nichtleeres Inneres Bedeutung eigentlicher Kegel Ein eigentlicher Kegel induziert mittels x K y y x K x < K y y x int(k) eine [strikte] partielle Ordnung, die verträglich ist mit der Addition und mit Limiten in Z.
40 Lagrange-Multikplikatoren für Ungleichungen Ungleichungsbeschränkung g(x) K 0, g(x) K K Z g eigentlicher Kegel Lagrange-Multiplikatoren leben im Dualkegel: Dualkegel K = {µ Zg : µ, k 0 für alle k K} Wenn K eigentlicher Kegel ist, dann auch K ( Ordnung auf Zh ).
41 Lagrange-Funktion und KKT-Punkt Lagrangefunktion L(x, µ, λ) = f (x) + µ, g(x) + λ, h(x) L x (x, µ, λ) = f (x) + g (x) µ + h (x) λ = 0 h(x) = 0 µ K 0, g(x) K 0, µ, g(x) = 0 (Komplementarität) Beachte: Die Regularität der Multiplikatoren ist bei Optimalsteueraufgaben oft besser als erwartet (µ Z g, λ Z h ).
42 Slater-Bedingung für konvexe Aufgaben Sei also g( ) konvex und h(x) = A x b. Slater-Bedingung Es existiere ein x 0 (Slater-Punkt) mit g(x 0 ) < K 0 und A x 0 = b.
43 Slater-Bedingung für konvexe Aufgaben Sei also g( ) konvex und h(x) = A x b. Slater-Bedingung Es existiere ein x 0 (Slater-Punkt) mit Beachte: g(x 0 ) int(k) g(x 0 ) < K 0 und A x 0 = b.
44 Slater-Bedingung für konvexe Aufgaben Sei also g( ) konvex und h(x) = A x b. Slater-Bedingung Es existiere ein x 0 (Slater-Punkt) mit g(x 0 ) < K 0 und A x 0 = b. Beachte: g(x 0 ) int(k) Beispiele konvexer Aufgaben Optimalsteuerungsaufgaben mit quadratischem Zielfunktional linearer PDE (Gleichungsnebenbedingung) linearen punktweisen Ungleichungen (z.b. Box-Beschränkungen)
45 CQ für allgemeine Aufgaben Allgemeine Theorie: [Zowe, Kurcyusz (1979)] MFCQ / Linearisierte Slater-Bedingung h (x ) sei surjektiv Es existiere d X mit { g(x ) + g (x ) d < K 0 h(x ) +h (x ) d = 0 }{{} =0 Vergleiche MFCQ im Endlich-Dimensionalen Die Gradienten { h j (x )} p j=1 seien linear unabhängig. Es existiere ein Vektor d R n mit g i (x ) d < 0 für alle i A(x ) h j (x ) d = 0 für alle j = 1,..., p.
46 Erweiterungen Konvexe Grundmenge Die Theorie kann erweitert werden auf Minimiere f (x) über x C, C konvex sodass g(x) 0 und h(x) = 0 Die L x (x, µ, λ ) = 0 wird dann ersetzt durch L x (x, µ, λ )(x x ) 0 für alle x C. Man bekommt keine Lagrange-Multiplikatoren für x C.
47 Erweiterungen Gleichungen und Ungleichungen Die Gleichungen h(x) = 0 können als verallgemeinerte Ungleichungen g(x) K 0 geschrieben werden mit K = {0}. Dann ist µ K = Zg der ganze Raum (keine Vorzeichenbedingung).
48 Hinreichende Bedingungen 2. Ordnung (SSC) Wir betrachten zunächst die Aufgabe Minimiere f (x), x C X, C konvex. Notwendige Bedingung 1. Ordnung f (x )(x x ) 0 für alle x C. Theorem (Hinreichende Bedingung) x erfülle die notwendige Bedingung 1. Ordnung. Es existiere δ > 0 mit f (x )(x, x) δ x 2 für alle x X. Dann ist x ein strikt lokales Minimum, und es gilt f (x + h) f (x ) + δ 4 h 2 für h hinreichend klein.
49 (Gegen-)Beispiel (Tröltzsch, Kapitel 4.9) Aufgabenstellung Minimiere sodass f (u) := 1 0 cos(u(x)) dx u C = {u L 2 (0, 1) : 0 u(x) 2π f.ü.} Offenbar ist u 0 eine globale Lösung der Aufgabe. Die notwendige Bedingung 1. Ordnung f (u )(u u ) = 1 für alle u C ist erfüllt. 0 sin(u (x))(u(x) u (x)) dx = 1 0 sin(0) u(x) dx = 0
50 (Gegen-)Beispiel (Tröltzsch, Kapitel 4.9) f (u )(u, u) = 1 0 cos(0) u 2 (x) dx = 1 u 2 L 2 (0,1) für alle u L 2 (0, 1). Also ist die hinreichende Bedingung 2. Ordnung erfüllt, und u 0 ist ein strikt lokales Minimum. Aber: Auch die Funktion u ε (x) = { 2π, 0 x ε 0, ε < x 1 ist für jedes ε > 0 ein globales Minimum, und es gilt u u ε 2 L 2 (0,1) = 2π ε.
51 (Gegen-)Beispiel (Tröltzsch, Kapitel 4.9) Fehler Die Funktion f (u) := 1 0 cos(u(x)) dx ist im Raum L 2 (0, 1) nicht zweimal stetig diffbar, jedoch in L (0, 1).
52 (Gegen-)Beispiel (Tröltzsch, Kapitel 4.9) Fehler Die Funktion f (u) := 1 0 cos(u(x)) dx ist im Raum L 2 (0, 1) nicht zweimal stetig diffbar, jedoch in L (0, 1). Aber: In L (0, 1) bekommen wir nicht die benötigte Abschätzung f (u )(u, u) δ u 2 L (0,1) für alle u L (0, 1). Zwei-Norm-Diskrepanz
53 Ausweg Konvexe Optimierung Arbeiten mit zwei Normen Im Beispiel: f (u + h) f (u) = Taylorpolynom 2. Ordnung + r 2 (u, h) mit der Restgliedabschätzung Es folgt: r 2 (u, h) h 2 L 2 (0,1) 0 für h L (0,1) 0. f (u + h) f (u ) + δ h 2 L 2 (0,1), falls h L (0,1) ε.
54 Aufgabe Konvexe Optimierung Beispiel: (Tröltzsch, Satz 4.27) Minimiere ϕ(x, y) dx + ψ(x, u) dx Ω Ω { y + y + d(x, y) = u in Ω unter y n = 0 auf Γ und u a (x) u(x) u b (x) f.ü. in Ω Voraussetzungen: siehe Tröltzsch, Vor Notwendige Bedingung 1. Ordnung Ω p + p + d y (x, y ) p = ϕ y (x, y ) in Ω p n = 0 auf Γ [ p + ψ u (x, u ) ] (u u ) dx 0 für alle u U ad
55 Beispiel: (Tröltzsch, Satz 4.27) Theorem (Hinreichende Bedingung 2. Ordnung) Falls (y, u, p ) die notwendige Bedingung 1. Ordnung und L xx (y, u, p )[(y, u), (y, u)] δ u 2 L 2 (Ω) für alle u C(u ) mit zugehörigem linearisertem Zustand y y + y + d y (x, y ) y = u y n = 0 in Ω auf Γ erfüllt, dann gilt die quadratische Wachstumsbedingung J(y, u) J(y, u ) + δ u u 2 L 2 (Ω) für alle u U ad mit u u L (Ω) ε.
56 Beispiel: (Tröltzsch, Satz 4.27) Kegel zulässiger Richtungen C(u ) = { u L (Ω) : { } u(x) 0 wo u = u } a u(x) 0 wo u = u b Dieser kann noch verkleinert werden, indem man stark aktive Ungleichungen berücksichtigt, vgl. T lin (x ) und T 2 (x ).
57 Zusammenfassung Eigenschaften konvexer Optimierungsaufgaben lokale = globale Minima notwendige Bedingungen sind hinreichend allgemeines (NLP) und hinreichende Bedingungen 2. Ordnung unendlich-dimensionale Optimierung und hinreichende Bedingungen 2. Ordnung: Zwei-Norm-Diskrepanz
58 Referenzen Konvexe Optimierung S. Boyd and L. Vandenberghe. Convex Optimization. Cambridge University Press, Cambridge, J. Zowe and S. Kurcyusz. Regularity and stability for the mathematical programming problem in Banach spaces. Applied Mathematics and Optimization, 5(1):49 62, H. Maurer and J. Zowe. First and second order necessary and sufficient optimality conditions for infinite-dimensional programming problems. Mathematical Programming, 16:98 110, F. Tröltzsch. Optimale Steuerung partieller Differentialgleichungen. Vieweg, Wiesbaden, 2005.
3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
Extremwerte von Funktionen mehrerer reeller Variabler
Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein
Übungen zu Partielle Differentialgleichungen, WS 2016
Übungen zu Partielle Differentialgleichungen, WS 2016 Ulisse Stefanelli 16. Januar 2017 1 Beispiele 1. Betrachten Sie die Beispiele von nichtlinearen PDG und Systemen, die wir im Kurs diskutiert haben,
3 Lineare Differentialgleichungen
3 Lineare Differentialgleichungen In diesem Kapitel behandeln wir die allgemeine Theorie linearer Differentialgleichungen Sie werden zahlreiche Parallelen zur Theorie linearer Gleichungssysteme feststellen,
Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen
Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen In diesem Kapitel betrachten wir die Invertierbarkeit von glatten Abbildungen bzw. die Auflösbarkeit von impliziten Gleichungen.
Lösungen zu Mathematik I/II
Prof. Dr. E. W. Farkas ETH Zürich, Februar 11 D BIOL, D CHAB Lösungen zu Mathematik I/II Aufgaben 1. 1 Punkte a Wir berechnen lim x x + x + 1 x + x 3 + x = 1. b Wir benutzen L Hôpital e x e x lim x sinx
Mathematik 2 für Wirtschaftsinformatik
für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar
Klausur zu Analysis II - Lösungen
Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Dr. Axel Grünrock WS 1/11 11..11 Klausur zu Analysis II - Lösungen 1. Entscheiden Sie, ob die folgenden Aussagen richtig oder falsch sind.
Nichtlineare Optimierung
Nichtlineare Optimierung Roland Pulch Vorlesung im Wintersemester 2015/16 Institut für Mathematik und Informatik Mathematisch-Naturwissenschaftliche Fakultät Ernst-Moritz-Arndt-Universität Greifswald Inhalt:
Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.
Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x
Nichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
1.6 Implizite Funktionen
1 1.6 Implizite Funktionen Wir werden uns jetzt mit nichtlinearen Gleichungen beschäftigen, f(x) = 0, wobei f = (f 1,..., f m ) stetig differenzierbar auf einem Gebiet G R n und m < n ist. Dann hat man
Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1
1 Funktionen Definition 1 (Funktion). Übungsblatt 1 Eine Funktion f(x) einer reellen Variable x mit Definitionsbereich D ist eine Regel, die jeder Zahl x in D eine reelle Zahl f(x) eindeutig zuordnet.
Lösungen zu den Hausaufgaben zur Analysis II
Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin
Regularitätsresultate für parabolische Gleichungen mit nichtlokalem Operator
Universität Bielefeld Regularitätsresultate für parabolische Gleichungen mit nichtlokalem Operator Matthieu Felsinger Universität Bielefeld Mathematisches Kolloquium, TU Clausthal 05. Februar 2014 1 Einleitung
11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen
11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen Ziel: Wir wollen lokale Extrema von Funktionen f : M R untersuchen, wobei M R n eine k-dimensionale Untermannigfaltigkeit des
Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
Optimalitätskriterien
Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen
Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:
Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,
Kapitel 16 : Differentialrechnung
Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen
Optimierung für Wirtschaftsinformatiker: Lineare Programme
Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen
Optimale Steuerung, Prof.Dr. L. Blank 1. II Linear-quadratische elliptische Steuerungsprobleme
Optimale Steuerung, Prof.Dr. L. Blank 1 II Linear-quadratische elliptische Steuerungsprobleme Zuerst: Zusammenstellung einiger Begriffe und Aussagen aus der Funktionalanalysis (FA), um dann etwas über
Rückblick auf die letzte Vorlesung. Bemerkung
Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag
Serie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015
Analysis D-BAUG Dr. Cornelia Busch FS 05 Serie 4. Finden Sie die lokalen Extrema der Funktionen f : R R auf dem Einheitskreis S = {x, y R : x + y = } und geben Sie an, ob es sich um ein lokales Minimum
Optimalitätsbedingungen
Optimalitätsbedingungen Nadja Irmscher 28. Mai 2010 1 Nachweis von Suboptimalität und Abbruchkriterien Über das gegebene Programm minimiere f 0 (x) über x D sodass f i (x) 0, i = 1,..., m h i (x) = 0,
Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II. x 2
Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II Wiederholungsblatt: Analysis Sommersemester 2011 W. Werner, F. Springer erstellt von: Max Brinkmann Aufgabe 1: Untersuchen Sie, ob die
Funktionen mehrerer Variabler
Vektoranalysis Funktionen mehrerer Variabler Wir untersuchen allgemein vektorwertige Funktionen von vektoriellen Argumenten, wobei zunächst nur reelle Vektoren zugelassen seien. Speziell betrachten wir:
Mathematik II für Inf und WInf
Gruppenübung Mathematik II für Inf und WInf 8. Übung Lösungsvorschlag G 28 (Partiell aber nicht total differenzierbar) Gegeben sei die Funktion f : R 2 R mit f(x, ) := x. Zeige: f ist stetig und partiell
Übungen zu Einführung in die Numerische Mathematik (V2E2) Sommersemester 2016
Übungen zu Einführung in die Numerische Mathematik (VE) Sommersemester 6 Prof. Dr. Martin Rumpf Pascal Huber Sascha Tölkes Übungsblatt 8 Abgabe:.6.6 Aufgabe 5 (Elliptisches Randwertproblem auf einem Ring)
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra
f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.
Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales
Folgerungen aus dem Auflösungsatz
Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und
NUMERISCHE METHODEN DER OPTIMIERUNG
NUMERISCHE METHODEN DER OPTIMIERUNG VORLESUNGSSKRIPT FS 2008 (Vorläufige Fassung vom 14. Mai 2008) D. Peterseim Institut für Mathematik Universität Zürich Inhaltsverzeichnis Inhaltsverzeichnis iii 1 Einführung
10 Untermannigfaltigkeiten
10. Untermannigfaltigkeiten 1 10 Untermannigfaltigkeiten Definition. Eine Menge M R n heißt k-dimensionale Untermannigfaltigkeit des R n, 1 k n, falls es zu jedem a M eine offene Umgebung U R n von a und
B Lösungen. Aufgabe 1 (Begriffe zur Differenziation) Sei (x, y) R 2 Berechnen Sie zur Abbildung. f(x, y) := x sin(xy) f : R 2 R,
B en Aufgabe 1 (Begriffe zur Differenziation) Sei (x, y) R Berechnen Sie zur Abbildung f : R R, f(x, y) : x sin(xy) das totale Differenzial f df, die Jacobi-Matrix J f (x, y) und den Gradienten ( f)(x,
Skript zur Vorlesung im SS 2013+SS Konvexe Optimierung. Thorsten Raasch. 14. August 2014
Skript zur Vorlesung im SS 2013+SS 2014 Konvexe Optimierung Thorsten Raasch 14. August 2014 Inhaltsverzeichnis I. Konvexe Optimierung I 5 1. Einführung 7 2. Konvexe Mengen 11 3. Konvexe Funktionen 13
Analysis I - Stetige Funktionen
Kompaktheit und January 13, 2009 Kompaktheit und Funktionengrenzwert Definition Seien X, d X ) und Y, d Y ) metrische Räume. Desweiteren seien E eine Teilmenge von X, f : E Y eine Funktion und p ein Häufungspunkt
18 Höhere Ableitungen und Taylorformel
8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a
Flüsse, Fixpunkte, Stabilität
1 Flüsse, Fixpunkte, Stabilität Proseminar: Theoretische Physik Yannic Borchard 7. Mai 2014 2 Motivation Die hier entwickelten Formalismen erlauben es, Aussagen über das Verhalten von Lösungen gewöhnlicher
Universität des Saarlandes Seminar der Fachrichtung Mathematik Rudolf Umla
Universität des Saarlandes Seminar der Fachrichtung Mathematik Rudolf Umla Sätze über Konvexität von Kapitel 4.7 bis 4.10 Theorem 4.7-1. Sei U ein konvexer Unterraum eines normierten Vektorraums. Dann
Outline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel
Outline 1 Funktionen von mehreren Veränderlichen 2 Grenzwert und Stetigkeit 3 Partielle Ableitungen 4 Die verallgemeinerte Kettenregel 5 Das totale Differential 6 Extremstellen Roman Wienands (Universität
Differential- und Integralrechnung
Brückenkurs Mathematik TU Dresden 2016 Differential- und Integralrechnung Schwerpunkte: Differentiation Integration Eigenschaften und Anwendungen Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik
f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.
Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit
16. FUNKTIONEN VON MEHREREN VARIABLEN
16. FUNKTIONEN VON MEHREREN VARIABLEN 1 Reelle Funktionen auf dem R 2 Wir betrachten Funktionen f(x 1, x 2 ) von zwei reellen Variablen x 1, x 2, z.b. f(x 1, x 2 ) = x 2 1 + x2 2, g(x 1, x 2 ) = x 2 1
Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 5. Juni 2016 Definition 5.21 Ist a R, a > 0 und a 1, so bezeichnet man die Umkehrfunktion der Exponentialfunktion x a x als
Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz
Mathematik für Bioinformatik und Systembiologie - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz WS 2009/10 Universität Freiburg Dieses Vorlesungsskript ist auf der Basis von Vorlesungen
Teil I. Lineare Optimierung
Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,
Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh ([email protected]) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen
Kapitel 8 Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen Wir hatten im Beispiel 5. gesehen, dass die Wärmeleitungsgleichung t u u = f auf Ω (0, ) (8.1) eine parabolische Differentialgleichung
Multivariate Analysis
Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle
Inhalt. Problemstellung und Überblick. Allgemeine Problemstellung und Terminologie. Überblick über spezielle Klassen von Optimierungsproblemen
Inhalt Problemstellung und Überblick Allgemeine Problemstellung und Terminologie Überblick über spezielle Klassen von Optimierungsproblemen 40: 40 [40,40] 2.1 Das Optimierungsproblem in allgemeiner Form
4 Fehlerabschätzungen und Konvergenz der FEM
4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 153 Es sei V der Lösungsraum und V N V ein endlich dimensionaler Unterraum. Weiters sei u V die exakte Lösung und
Mathematik für Anwender I. Beispielklausur I mit Lösungen
Fachbereich Mathematik/Informatik Prof. Dr. H. Brenner Mathematik für Anwender I Beispielklausur I mit en Dauer: Zwei volle Stunden + 10 Minuten Orientierung, in denen noch nicht geschrieben werden darf.
Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester
Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang Sommersemester 03 6.06.03 Höhere Mathematik II für die Fachrichtungen Elektrotechnik und Informationstechnik
Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
Optimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den
Studientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Numerische Verfahren der nicht-linearen Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Line
Dynamische Systeme eine Einführung
Dynamische Systeme eine Einführung Seminar für Lehramtstudierende: Mathematische Modelle Wintersemester 2010/11 Dynamische Systeme eine Einführung 1. Existenz und Eindeutigkeit von Lösungen 2. Flüsse,
1 Formen und äußeres Differential
1 Formen und äußeres Differential Wir betrachten den n-dimensionalen reellen Raum R n = { x = x 1,...,x n ) : x i R für i = 1,...,n }. Definition 1.1 Ein Tangentialvektor an R n im Punkt x R n ist ein
Iterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen
Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden
Brückenkurs Rechentechniken
Brückenkurs Rechentechniken Dr. Jörg Horst Technische Universität Dortmund Fakultät für Mathematik SS 2014 1 Vollständige Induktion Vollständige Induktion 2 Funktionenfolgen Punktweise Konvergenz Gleichmäßige
Skript zur Vorlesung Optimale Steuerung partieller Differentialgleichungen
Skript zur Vorlesung Optimale Steuerung partieller Differentialgleichungen Christian Meyer gekürzte Version eines Skripts von Prof. Roland Griesse Dieses Vorlesungsskript entspricht einer gekürzten Version
Elemente der Analysis II
Elemente der Analysis II Kapitel 5: Differentialrechnung im R n Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 17. Juni 2009 1 / 31 5.1 Erinnerung Kapitel
Finite Elemente I 2. 1 Variationstheorie
Finite Elemente I 2 1 Variationstheorie 1 Variationstheorie TU Bergakademie Freiberg, SoS 2007 Finite Elemente I 3 1.1 Bilinearformen Definition 1.1 Sei V ein reeller normierter Vektorraum. Eine Bilinearform
Mathematik 1 für Wirtschaftsinformatik
Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration
Dualitätssätze der linearen Optimierung
Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =
Anwendungen der Differentialrechnung
KAPITEL 5 Anwendungen der Differentialrechnung 5.1 Maxima und Minima einer Funktion......................... 80 5.2 Mittelwertsatz.................................... 82 5.3 Kurvendiskussion..................................
Eigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
4.1 Motivation von Variationsmethoden Variationsmethoden im Sobolevraum Motivation von Variationsmethoden
Kapitel 4 Das Dirichlet Prinzip Bevor wir uns der Lösung von Randwertproblemen mithilfe der eben entwickelten Techniken zuwenden, wollen wir uns einer Idee zur Lösung widmen, die einige Elemente dieser
Mathematik 3 für Informatik
Gunter Ochs Wintersemester 5/6 Mathematik 3 für Informatik Lösungen zum Hausaufgabenblatt Lösungshinweise ohne Garnatie auf Fehlerfreiheit c 5. Berechnen Sie die folgenden unbestimmten Integrale: a x 4
2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
Kapitel 3. Konvergenz von Folgen und Reihen
Kapitel 3. Konvergenz von Folgen und Reihen 3.1. Normierte Vektorräume Definition: Sei V ein Vektorraum (oder linearer Raum) über (dem Körper) R. Eine Abbildung : V [0, ) heißt Norm auf V, falls die folgenden
31 Die Potentialgleichung
3 Die Potentialgleichung Die Potentialgleichung oder auch Poisson-Gleichung ist die lineare Gleichung zweiter Ordnung u = f in einem Gebiet R n. Im homogenen Fall f = 0 spricht man auch von der Laplace-
ist reelles lineares Funktional. x(t) ϕ(t) dt ist reelles lineares Funktional für alle ϕ L 2 (0, 1).
Kapitel 4 Stetige lineare Funktionale 4.1 Der Satz von Hahn - Banach Definition 4.1. Sei X ein linearer normierter Raum über dem Körper K (R oder C). Ein linearer Operator f : X K heißt (reelles oder komplexes)
Mathematik für Wirtschaftswissenschaftler Kapitel 4-6. Universität Trier Wintersemester 2013 / 2014
Mathematik für Kapitel 4-6 Universität Trier Wintersemester 2013 / 2014 Kapitel 4 1. Extremwerte 2. Lokale Optimalpunkte 3. Wendepunkte 2 Kapitel 4.1 EXTREMWERTE 3 Extrempunkte und Extremwerte 4 Strikte
Lösung zu Serie 24. a ij b i b j. v = j=1. v = v j b j.
Lineare Algebra D-MATH, HS 2014 Prof. Richard Pink Lösung zu Serie 24 1. Zeige: Ist 1 n := min{dim K (V 1 ), dim K (V 2 )} < für Vektorräume V 1 und V 2, so ist jeder Tensor in V 1 K V 2 eine Summe von
II. Nichtlineare Optimierung
II. Nichtlineare Optimierung 1. Problemstellungen 2. Grundlagen 3. Probleme ohne Nebenbedingungen 4. Probleme mit Nebenbedingungen Theorie 5. Probleme mit Nebenbedingungen Verfahren H. Weber, FHW, OR SS06,
Musterlösung zur Klausur zur Vorlesung Mathematik für Wirtschaftswissenschaftler II. am , Zeit: 120 Minuten
Musterlösung zur Klausur zur Vorlesung Mathematik für Wirtschaftswissenschaftler II am 5.8.25, Zeit: 2 Minuten Aufgabe (3 Punkte Eine Bakterienkultur hat eine stetige Wachstumsrate von % pro Stunde. Wie
Aufgaben zu Kapitel 20
Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v
Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen
Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)
18.2 Implizit definierte Funktionen
18.2 Implizit definierte Funktionen Ziel: Untersuche Lösungsmengen von nichtlinearen Gleichungssystemen g(x) = 0 mit g : D R m, D R n, d.h. betrachte m Gleichungen für n Unbekannte mit m < n, d.h. wir
2 Stetigkeit und Differenzierbarkeit
2.1) Sei D R. a) x 0 R heißt Häufungspunkt von D, wenn eine Folge x n ) n N existiert mit x n D,x n x 0 und lim n x n = x 0. D sei die Menge der Häufungspunkte von D. b) x 0 D heißt innerer Punkt von D,
Von Skalarprodukten induzierte Normen
Von Skalarprodukten induzierte Normen Niklas Angleitner 4. Dezember 2011 Sei ein Skalarproduktraum X,, gegeben, daher ein Vektorraum X über C bzw. R mit einer positiv definiten Sesquilinearform,. Wie aus
Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen
Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes
Technische Universität München Zentrum Mathematik. Übungsblatt 12
Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 1 Hausaufgaben Aufgabe 1.1 Sei f : R R gegeben durch f(x 1, x ) = x 3
1 Einführung, Terminologie und Einteilung
Zusammenfassung Kapitel V: Differentialgleichungen 1 Einführung, Terminologie und Einteilung Eine gewöhnliche Differentialgleichungen ist eine Bestimmungsgleichung um eine Funktion u(t) einer unabhängigen
Lineare (Un-)Gleichungen und lineare Optimierung
Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik Universität Innsbruck Lehrer/innen/fortbildungstag Wien 2010 9. April 2010 Eine Maximumsaufgabe Eine Firma stellt aus
Algebraische Kurven - Vorlesung 29. Projektion weg von einem Punkt
Algebraische Kurven - Vorlesung 29 Definition 1. Die Abbildung P n K Projektion weg von einem Punkt {(1, 0,..., 0)} Pn 1 K, (x 0, x 1...,x n ) (x 1,..., x n ), heißt die Projektion weg vom Punkt (1, 0,...,
Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom
Prof. Dr. M. Kaßmann Fakultät für Mathematik Wintersemester 2011/2012 Universität Bielefeld Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom 27.10.2011 Aufgabe III.1 (4 Punkte) Sei Ω R
Outline. 1 Vektoren im Raum. 2 Komponenten und Koordinaten. 3 Skalarprodukt. 4 Vektorprodukt. 5 Analytische Geometrie. 6 Lineare Räume, Gruppentheorie
Outline 1 Vektoren im Raum 2 Komponenten und Koordinaten 3 Skalarprodukt 4 Vektorprodukt 5 Analytische Geometrie 6 Lineare Räume, Gruppentheorie Roman Wienands (Universität zu Köln) Mathematik II für Studierende
17. Penalty- und Barriere-Methoden
H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende
3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z
R Es sei f : R n D R eine einmal stetig differenzierbare Funktion, für die in einer Umgebung eines Punkte a = a 1, a,, a n D gilt: fa 1, a,, a n = 0, f xn a 1, a,, a n 0 Dann gibt es eines Umgebung U des
Musterlösung. TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Klausur Mathematik für Physiker 3 (Analysis 2) I... II...
................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 3 Unterschrift der Kandidatin/des Kandidaten 4 TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik
BWL-Crash-Kurs Mathematik
Ingolf Terveer BWL-Crash-Kurs Mathematik UVK Verlagsgesellschaft mbh Vorwort 9 1 Aufgaben der Linearen Wirtschaftsalgebra 13 Aufgaben 17 2 Lineare Gleichungssysteme 19 2.1 Lineare Gleichungssysteme in
Vorlesung Mathematik für Ingenieure (WS 11/12, SS 12, WS 12/13)
1 Vorlesung Mathematik für Ingenieure (WS 11/12, SS 12, WS 12/13) Kapitel 5: Konvergenz Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 15. Dezember 2011) Folgen Eine Folge x 0, x 1,
55 Lokale Extrema unter Nebenbedingungen
55 Lokale Extrema unter Nebenbedingungen Sei f : O R mit O R n differenzierbar. Notwendige Bescheinigung für ein lokales Extremum in p 0 ist dann die Bedingung f = 0 (siehe 52.4 und 49.14). Ist nun F :
