KAPITEL 3. Konvexe Funktionen

Größe: px
Ab Seite anzeigen:

Download "KAPITEL 3. Konvexe Funktionen"

Transkript

1 KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn der Epigraph epif eine konvexe Menge in R n+1 darstellt. LEMMA 3.1. f : F R ist konvex genau dann, wenn gilt (i) F ist konvex; (ii) für alle x, y F und 0 < λ < 1: f[x + λ(y x)] f(x) + λ[f(y) f(x)]. Beweis. Seien (x, z) und (y, w) Punkte im Epigraphen von f. Konvexität ist gleichbedeutend mit der Eigenschaft (x, z) + (λ(y x), λ(w z)) epif (0 < λ < 1). Nach Komponenten aufgeschlüsselt bedeutet dies, dass x + λ(y x) F und somit (i) erfüllt sein muss. Ausserdem müssen wir haben: f[x + λ(y x)] z + λ(w z) = (1 λ)z + λw. Die Wahl z = f(x) und w = f(y) ergibt die Notwendigkeit von (ii). Offensichtlich ist (ii) zusammen mit (i) aber auch hinreichend. Lemma 3.1 zeigt, dass Konvexität von Funktionen im Grunde eine eindimensionale Eigenschaft ist: f ist konvex genau dann wenn die Richtungsfunktionen t f h (t) = f(x + th) t R so, dass x + th F in beliebige Richtungen h R n und in beliebigen Punkten x in der Variablen t konvex sind. 1. Differenzierbare konvexe Funktionen Wir betrachten zuerst den eindimensionalen Fall. LEMMA 3.2. Sei f : (a, b) R differenzierbar. Genau dann ist f konvex, wenn die Ableitung f (x) auf (a, b) monoton wächst. 33

2 34 3. KONVEXE FUNKTIONEN Beweis. Sei x < y. Wir betrachten z(λ) = x + λ(y x). Dann finden wir f (x) = f(z(λ)) f(x) lim λ 0 λ(y x) f (y) = f(y) f(x) lim x y y x λ[f(y) f(x)] f(y) f(x) lim = λ 0 λ(y x) y x f (x). Die Bedingung ist also notwendig. Wir zeigen nun, dass sie auch hinreicht, und nehmen obda x < y an. Nach dem Zwischenwertsatz existiert dann ein x < ξ < y mit f (x) f f(y) f(x) (ξ) = d.h. f(y) f(x) + f (x)(y y). y x Sei nun z = x + λ(y x). Dann ergibt sich auf die gleiche Weise und daraus f(x) f(z) + f (z)(x z) f(y) f(z) + f (z)(y z) f(x) + λ[f(y) f(x)] = (1 λ)f(x) + λf(y) f(z) + f (z) 0 = f(z). Betrachten wir nun den allgemeinen Fall F R n und eine bei jedem x F differenzierbaren Funktion f : F R. Dann erhalten wir nach der Kettenregel für die Richtung h und die Funktion f h (t) = f(x + th): n f h (0) = f(x)h = Ist f konvex, so zeigt der obige Beweis: j=1 f(x) x j h j. f h (t) f h (0) + f h (0)(t 0) = f h(0) + f h (0)t. Die Wahl h = y x und t = 1 ergibt somit die charakteristische Eigenschaft differenzierbarer konvexer Funktionen f : F R: (11) f(y) f(x) + f(x)(y x) für alle x, y F 1.1. Quadratische Funktionen. Eine Funktion f : R n R der Form f(x) = 1 2 xt Qx c T x = 1 n n n q ij x i x j c j x j. 2 j=1 mit einer symmetrischen Matrix Q = [q ij ] R n n und c R n heisst quadratisch. f(x) hat den Gradienten f(x) = x T Q c T. Nach der Kettenregel ergibt sich für die Richtungsfunktion p h (t) = f(x + th) die Ableitung p h (t) = f(x + th)h = xt Qh c T h + th T Qh. Also ist p h (t) monoton wachsend, wenn ht Qh 0 gilt. j=1 d.h.

3 2. MINIMIERUNG KONVEXER FUNKTIONEN 35 Die Matrix Q heisst positiv semidefinit, wenn für alle h R n gilt: n n h T Qh = q ij h i h j 0. j=1 Also erhalten wir mit dieser Terminologie: PROPOSITION 3.1. Die quadratische Funktion f(x) = 1 2 xt Qx c T ist genau dann konvex, wenn Q positiv semidefinit ist. Trivialerweise ist die Nullmatrix Q = 0 positiv semidefinit. Also finden wir: KOROLLAR 3.1. Jede lineare Funktion ist konvex. BEMERKUNG. Die Konvexität linearer Funktionen kann man natürlich viel einfacher auch direkt beweisen Minimierung konvexer Funktionen Wir betrachten bzgl. der differenzierbaren konvexen Funktion f : F R das Problem min x F f(x). BEMERKUNG. Das Maximierungsproblem ist für allgemeine konvexe Funktionen sehr viel schwerer zu lösen! Wir beschränken uns deshalb auf das Minimierungsproblem Notwendige und hinreichende Optimalitätsbedingungen. Welche Bedingungen muss der Punkt x F erfüllen, damit er als Minimum in frage kommt? Sei x + h F und p h (t) = f(x + th). Dann gilt notwendigerweise (12) n j=1 f(x) h j = f(x)h = p f(x + th) f(x) h (0) = lim 0 x j t 0 + t Diese Bedingung ist aber auch hinreichend dafür, dass x ein Minimum ist. Denn für jedes andere y F gilt dann (mit h = y x) wegen der Konvexität von f: Also finden wir: f(y) f(x) + f(x)h f(x). SATZ 3.1. x F minimiert die differenzierbare konvexe Funktion f : F R genau dann, wenn x die Bedingung (12) erfüllt.

4 36 3. KONVEXE FUNKTIONEN 2.2. Minimierung über Teilräumen. Sei f : F R konvex und differenzierbar und F = {x R n Ax = b} (A R m n, b R m ) ein affiner Teilraum von R n. Dann gilt für jedes x F und h R n : x + h F x h F h ker A. Der Punkt x F minimiert also f genau dann, wenn n f(x) (13) f(x)h = h j = 0 für alle h ker A. x j j=1 Die Bedingung (13) besagt, dass f(x) orthogonal zu ker A bzw. dass f(x) im Zeilenraum von A liegt (d.h. eine Linearkombination der Zeilenvektoren a T i von A ist). Als zu (13) äquivalent erhalten wir folglich die Optimalitätsbedingung: (14) f(x) = y T A = y i a T i für einen geeigneten Vektor y T = [y 1,..., y m ]. Im Fall einer über F zu minimierenden quadratischen konvexen Funktion der Form f(x) = 1 2 xt Qx c T x hat man wegen f(x) = x T Q c T somit nur das (lineare) Gleichungssystem Qx A T y = c Ax = b zu lösen Projektionen auf (affine) Teilräume. Unter der Projektion eines gegebenen Vektors p R n auf den Teilraum F = {x R n Ax = b} versteht man einen Vektor ˆp, der den (euklidischen) Abstand zu F minimiert: p ˆp 2 = min p x F x 2. Wegen p x 2 = (p x) T (p x) = p T p 2p T x + x T x reduziert sich die Berechnung von ˆp auf das konvexe Minimierungsproblem: Also finden wir ˆp als Lösung von min f(x) = 1 2 xt x p T x s.d. Ax = b. x A T y = p Ax = b Einsetzen von x = p + A T y führt auf das Gleichungssystem Ap + AA T y = b bzw. Ay = b mit A = AA T, b = b Ap.

5 2. MINIMIERUNG KONVEXER FUNKTIONEN Das Regressionsproblem. Die Aufgabe besteht darin, die beste Lösung des linearen Gleichungssystems Ax = b zu bestimmen. Das soll heissen, wir suchen ein x R n derart, dass der Abstand b Ax so klein wie möglich ist: min b x R Ax 2 = b T b 2b T Ax + x T A T Ax. n Setzen wir c T = b T A und Q = A T A, dann ist das Problem äquivalent mit min x R n f(x) = 1 2 xt Qx c T x. Q = A T A ist positiv semidefinit und folglich f konvex. Also finden wir: x R n löst das Regressionsproblem genau dann, wenn gilt: Qx = c bzw. A T Ax = A T b. Das Regressionsproblem reduziert sich also auf das Lösen des linearen Gleichungssystems Qx = c. EX. 3.1 (Interpolation). Wir gehen von einer (unbekannten) Funktion f : R R aus, deren Werte y i = f(t i ) wir bei den Stützstellen t 1,..., t n festgestellt haben. Wir suchen eine Linearkombination n ˆf(t) = a j f j (t) j=1 von gegebenen Funktionen f 1 (t),..., f m (t), die f an den Stützstellen bestmöglich interpoliert. Also suchen wir die beste Lösung (in den Unbekannten a 1,..., a n ) des linearen Gleichungssystems a 1 f 1 (t 1 ) + a 2 f 2 (t 1 ) a n f n (t 1 ) = y 1 a 1 f 1 (t 2 ) + a 2 f 2 (t 2 ) a n f n (t 2 ) = y a 1 f 1 (t m ) + a 2 f 2 (t m ) a n f n (t m ) = y m Wählt man beim Interpolationsproblem {f 1 (t), f 2 (t)} = {1, t} so spricht man auch von linearer Regression und nennt ˆf(t) = a 1 + a 2 t die Regressionsgerade. Im Fall {f 1 (t), f 1 (t), f 2 (t)} = {1, t, t 2 } erhält man das quadratische Regressionspolynom ˆf(t) = a 1 + a 2 t + a 3 t 2.

6 38 3. KONVEXE FUNKTIONEN 2.3. Lagrange-Dualität. Ein allgemeines mathematisches Optimierungsproblem hat die Form (15) min x R n f(x) s.d. g i(x) 0 (i I). Dabei ist I ein Indexbereicht und f, g i : R n R Funktionen, die wir als konvex und differenzierbar annehmen. Wir nehmen weiter I = {1,..., n} an. Wir haben also ein konvexes Minimierungsproblem über dem Zulässigkeitsbereich F = {x R n g i (x) 0, i I} vorliegen. Die zugeordnete Lagrange-Funktion ist definiert als L(x, y) = f(x) + y i g i (x) = f(x) + y T g(x). Lagrange fasst das Minimierungsproblem als ein Spiel mit zwei Spielern auf: Der erste will L(x, y) minimieren und darf x wählen. Der zweite will L(x, y) maximieren und darf die sog. Lagrange-Multiplikatoren y i 0 festlegen. Der erste Spieler betrachtet also die Funktion L 1 (x) = max L(x, y) y 0 und sucht ein x R n mit der Eigenschaft (16) L 1 (x) = min L 1(x) = min x R n Der zweite Spieler betrachtet die Funktion und sucht ein y 0 mit der Eigenschaft max y 0 x R L 2 (y) = min L(x, y) x Rn (17) L 2 (y) = max L 2(y) = max y 0 min y 0 x R n L(x, y). n L(x, y) Das primale Problem. Wir beobachten L 1 (x) = max f(x) + m { f(x) wenn x F y i g i (x) = y 0 + wenn x / F. Also wird der erste Spieler sein x in F wählen. Das Problem (16) ist somit äquivalent zum Ausgangsproblem: min x R n L 1(x) = min x F f(x).

7 2. MINIMIERUNG KONVEXER FUNKTIONEN Das duale Problem. Zu einem gegebenen y 0 stellte die Berechunung von L 2 (y) eine konvexes Minimierungsproblem dar. Also gilt die Gleichheit L 2 (y) = L(x, y) genau dann, wenn x R n die Optimalitätsbedingung (18) x L(x, y) = f(x) + y i g i (x) = 0 T. erfüllt. Für den zweiten Spieler stellt sich damit das duale Problem (19) max f(x) + m y i g i (x) s.d. f(x) + y 0 y i g i (x) = 0 T. LINEARE PROGRAMME. Wir betrachten als Beispiel das lineare Programmierproblem max c T x s.d. a T i x b i (i = 1,..., m) als primales Problem. Sei f(x) = c T x und g i (x) = a T i x b i. Fassen wir die Zeilenvektoren a T i in der Matrix A zusammen lautet das duale Problem max y 0 ct x + y T (Ax b) s.d. c T + y T A = 0 T. Einsetzen von y T A = c T in die duale Zielfunktion ergibt somit die folgende Form des dualen Problems: max ( b T y) s.d. A T y = c, y 0. Dieses ist äquivalent zu dem sog. dualen linearen Programm (20) min b T y s.d. A T y = c, y Schwache Dualität. Sei x eine zulässige (aber nicht notwendig optimale) Lösung des primalen y 0 eine zulässige (aber nicht notwendig optimale) Lösung des dualen Lagrangeproblems, d.h. f(x) + y i g i (x) = 0 T. Dann gilt natürlich für die entsprechenden Zielfunktionswerte (21) L 1 (x) = f(x) f(x) + y i g i (x) = L 2 (y). Dies ist als das Phänomen der schwachen Dualität bekannt.

8 40 3. KONVEXE FUNKTIONEN EX Im Fall des linearen Programms max c T x s.d. Ax b mit der zu minimierenden Zielfunktion f(x) = c T x ergibt die schwache Dualität wegen c T = y T A: f(x) = c T x c T x + y T (Ax b) = y T b bzw. c T x b T y Die KKT-Bedingungen. Fassen wir die primalen und dualen Restriktionen aus dem Lagrange-Ansatz zusammen, so suchen wir einen Punkt x R n zu dem ein y 0 existiert mit den Eigenschaften (22) f(x) + y i g i (x) = 0 T y i g i (x) = 0 g i (x) 0 (i = 1,..., m) y 0 Ein solches x heisst Karush-Kuhn-Tucker-Punkt (KKT-Punkt) bzgl. des Optimierungsproblems min f(x) s.d. g i (x) 0 (i = 1,..., m) und (22) sind die sog. KKT-Bedingungen. PROPOSITION 3.2. Sei x ein KKT-Punkt mit zugehörigem y 0. Dann ist x eine Optimallösung des konvexen Minimierungsproblems (15). Beweis. x erfüllt alle Restriktionen g i (x ) 0 und minimiert die konvexe Funktion n L(x, y ) = f(x) + yi g i (x) f(x) (wegen y 0). Aus (y ) T g(x ) = 0 folgt f(x ) = L(x, y ). D.h. f(x ) ist minimal. BEMERKUNG. Die KKT-Bedingungen sind bei allgemeinen (nicht-konvexen) mathematischen Optimierungsproblemen weder hinreichend noch notwendig für Optimalität.

9 2. MINIMIERUNG KONVEXER FUNKTIONEN Lineare Nebenbedingungen. Wir betrachten hier den Fall linearer (eigentlich: affiner) Restriktionsfunktionen g i (x) = a T i x b i, sodass die Nebenbedingungen in kompakter Matrixschreibweise die Form Ax b haben. Der Zulässigkeitsbereich ist das Polyeder F = P (A, b) = {x R n a T i x b i, i = 1,..., m}. Sei x F. Um Optimallösung zu sein, muss gelten f(x)h 0 wenn x + h F, d.h. a T i x + at i h b i (i = 1,..., m). Sei J(x) die Menge der Indizes i mit a T i x = b i. Dann muss also die Implikation A J(x) h = 0 = f(x)h 0 erfüllt sein. Folglich (nach dem Farkas-Lemma) muss f(x) eine nichtnegative Linearkombination der Zeilen von A J(x) sein. Mit anderen Worten: Es existiert ein y 0 so, dass n f(x) = y i a T i. i J(x) OBdA können im Fall i / J(x) die Gleichheit y i = 0 voraussetzen. Dann ergibt sich auch y T (Ax b) = y i (a T i x b i ) = 0. Damit sind notwendigerweise die KKT-Bedingungen unter linearen Restriktionen erfüllt: Wir finden: f(x) + y T A = 0 y T (Ax b) = 0 Ax b y 0 SATZ 3.2. Die KKT-Bedingungen sind hinreichend und notwendig dafür, dass x eine Optimallösung eines konvexen Optimierungsproblems folgender Form ist: Ax b. min x R n s.d Lineare Programme. Man beachte: Ist f(x) nicht linear, dann ergeben die KKT-Bedingungen (selbst bei linearen Restriktionen) ein nichtlineares(!) Ungleichungssystem. Im Fall des linearen Programms max c T x s.d. Ax b

10 42 3. KONVEXE FUNKTIONEN ergeben die KKT-Bedingungen jedoch das lineare Ungleichungssystem A T y = c c T x b T y = 0 Ax b y Starke Dualität. Wir betrachten das primal-duale Paar linearer Programme max c T x s.d. Ax b min b T y s.d. A T y = c, y 0. Die schwache Dualtität besagt für beliebige jeweils zulässige Lösungen x und y: c T x b T y. Im Fall von Gleichheit müssen folglich beide Lösungen optimal sein. Die KKT- Bedingungen garantieren bei einer optimalen Lösung x ein dual zulässiges y mit c T x = b T y. Also schliessen wir SATZ 3.3 (Starke Dualität). Genau dann ist die primal zulässige Lösung x optimal, wenn es eine dual zulässige Lösung y gibt mit der Eigenschaft c T x = b T y. In diesem Fall ist y notwendigerweise dual optimal. 3. Newtons Methode und die Methode innerer Punkte Die Berechnung von Koordinatenvektoren, welche die KKT-Bedingungen erfüllen, erfordert die Berechnung von nichtnegativen Lösungen gewisser (meist) nichtlinearer Gleichungssysteme, die wir in der allgemeinen Form F (x) = 0, x 0 notieren. Dabei ist F : R n R m eine Funktion, die aus m Koordinatenfunktionen f i : R n R zusammengesetzt ist: f 1 (x) F (x) =. R m. f m (x) Die exakte Lösung einer nichtlinearen Gleichung ist im allgemeinen sehr schwer. Oft genügt aber schon eine hinreichend gute approximative Lösung.

11 3. NEWTONS METHODE UND DIE METHODE INNERER PUNKTE Newtons Methode. Zur approximativen Lösung der Gleichung F (x) = 0 geht Newtons Methode iterativ vor. Man beginnt mit einem x 0 R n und berechnet dann iterativ x 1,..., x k,.... Man stoppt im Fall F (x k ) 0. Ansonsten sucht man sich eine lineare Approximation von F bei x k, d.h. eine Matrix A k derart, dass F (x k + h) F (x k ) + A k h (wenn h hinreichend klein), und berechnet eine Lösung h k des linearen(!) Gleichungssystems Nun setzt man x k+1 = x k + h k usw. A k h = F (x k ). BEMERKUNG. Wenn F differenzierbar ist, wählt man gerne die Jacobimatrix, die als Zeilen gerade die m Gradienten f i (x k ) besitzt: [ ] fi (x k ) A k = (x k ) = R m n x j EX Wir suchen eine Lösung der Gleichung f(x) = x 2 2 = 0. Man beginnt mit einem x 0. Ist x k schon berechnet, wählt man z.b. A k = f (x k ) und erhält f (x k )h = f(x k ) d.h. h k = f(x k) f (x k ) = x2 k + 2 2x k und somit x k+1 = x k + h k = x k x k. BEMERKUNG. Im allgemeinen hat man keine Garantie, dass das Newtonverfahren tatsächlich zu einer zulässigen Lösung der Ausgangsgleichung konvergiert Die Methode der inneren Punkte. Wir wollen ein KKT-Punkt für das lineare Programm max c T x s.d. Ax b (A R m n, b R m ) bestimmen. Setzen wir s = b Ax, dann sind die KKT-Bedinungen (23) s i y i = µ (i = 1,..., m) Ax + s = b A T y = c s, y 0 mit µ = 0 gegeben. Wir relaxieren nun, indem wir einen Parameter µ > 0 wählen und das resultierende System mit einem Newtonverfahren zu lösen versuchen. In

12 44 3. KONVEXE FUNKTIONEN diesem Fall müssen wir immer s i > 0 und y i > 0 (d.h. s, y > 0) sicherstellen. Deshalb spricht man von inneren Punkten (des positiven Quadranten von R m ). LEMMA 3.3. Sei (x µ, y µ, s µ ) eine Lösung des Systems (24) zu µ > 0. Dann ist x µ eine zulässige Lösung des linearen Programms. Und für jede andere zulässige Lösung x gilt c T x µ c T x ε (mit ε mµ). Beweis. Aus der schwachen Dualität folgt c T x b T y µ = (Ax µ + s µ ) T y µ = (x µ )A T y µ + s µ y µ = c T x µ + mµ. Im Fall µ 0 sind die x µ also annähernd optimale Lösungen des ursprünglichen linearen Programms. Um (24) mit einem Newtonansatz zu lösen, gehen wir davon aus, dass wir Vektoren y > 0 und x schon zur Verfügung haben mit der Eigenschaft Wir suchen dann x, y, s so, dass (24) c = A T y und s = b Ax > 0. (s i + s i )(y i + y i ) = µ (i = 1,..., m) A(x + x) + (s + s) = b A T (y + y) = c s + s, y + y 0 Nach unseren Annahmen über x und y reduziert sich diese Aufgabe auf das Lösen von s i y i + y i s i + s i y i = µ s i y i (i = 1,..., m) A x + s = 0 (25) A T y = 0 s + s, y + y 0 Das letztere System relaxieren wir nun zu dem linearen Gleichungssystem (26) s i y i + y i s i = µ s i y i (i = 1,..., m) A x + s = 0 A T y = 0 Mit dessen Lösung datiert man auf: x + = x + x, y + = y + y, s + = s und verfährt nun wie zuvor mit x + und y + anstelle von x und y (wobei man in jeder Iteration auch den Parameter µ reduziert), bis man eine hinreichend gute Lösung x des Ausgangsproblems gefunden hat. Man kann zeigen, dass dieses Verfahren funktioniert und (sehr schnell!) gegen eine optimale Lösung des Ausgansproblems konvergiert.

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

17. Penalty- und Barriere-Methoden

17. Penalty- und Barriere-Methoden H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende

Mehr

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra

Mehr

Extrema mit Nebenbedingungen

Extrema mit Nebenbedingungen Extrema mit Nebenbedingungen Gesucht ist das Extremum der Funktion f(x,y) = 5 x y unter der Nebenbedingung g(x,y) = x+y =. 5 y x In diesem einfachen Fall kann die Nebenbedingung nach einer Variablen aufgelöst

Mehr

18 Höhere Ableitungen und Taylorformel

18 Höhere Ableitungen und Taylorformel 8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a

Mehr

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 7 Lineare Programmierung II 1 Lineare Programme Lineares Programm: Lineare Zielfunktion Lineare Nebenbedingungen (Gleichungen oder Ungleichungen) Spezialfall der konvexen Optimierung

Mehr

GLEICHUNGEN MIT PARAMETERN

GLEICHUNGEN MIT PARAMETERN Mathematik-Olympiaden in Rheinland-Pfalz GLEICHUNGEN MIT PARAMETERN Fortgeschrittene Die Aufgaben auf diesem Arbeitsblatt haben alle eine elegante Lösungsidee. Bei vielen Gleichungen ist nach Anwenden

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Aufgaben zur nicht-linearen Optimierung Teil II Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Aufgabe 5 Bestimmen

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS

ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS Aufgabe 1. a) Gegeben sei die Gleichung 2x 2 4xy +y 2 3x+4y = 0. Verifizieren Sie, dass diese Gleichung

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

Konvexe Mengen und konvexe Funktionen

Konvexe Mengen und konvexe Funktionen Konvexe Mengen und konvexe Funktionen Teilnehmer: Moritz Butz Franziska Ihlefeldt Johannes Jendersie Marie Lambert Eike Müller Gregor Pasemann Konstantin Rohde Herder-Gymnasium Herder-Gymnasium Georg-Forster-Gymnasium

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz Mathematik für Bioinformatik und Systembiologie - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz WS 2009/10 Universität Freiburg Dieses Vorlesungsskript ist auf der Basis von Vorlesungen

Mehr

Optimierung I. Einführung in die Optimierung. Skript zur Vorlesung von Prof. Dr. Mirjam Dür Prof. Dr. Alexander Martin Prof. Dr.

Optimierung I. Einführung in die Optimierung. Skript zur Vorlesung von Prof. Dr. Mirjam Dür Prof. Dr. Alexander Martin Prof. Dr. Optimierung I Einführung in die Optimierung Skript zur Vorlesung von Prof. Dr. Mirjam Dür Prof. Dr. Alexander Martin Prof. Dr. Stefan Ulbrich Wintersemester 2008/2009 TU Darmstadt Überarbeitete Version

Mehr

Mathematik 1 für Wirtschaftsinformatik

Mathematik 1 für Wirtschaftsinformatik Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration

Mehr

Konvexe Optimierung. Prof. Dr. Sven Rahmann. LS 11, Fakultät für Informatik, TU Dortmund Entwurf vom 17. Mai 2010

Konvexe Optimierung. Prof. Dr. Sven Rahmann. LS 11, Fakultät für Informatik, TU Dortmund Entwurf vom 17. Mai 2010 Konvexe Optimierung Prof. Dr. Sven Rahmann LS 11, Fakultät für Informatik, TU Dortmund 2009 2010 Entwurf vom 17. Mai 2010 Vorbemerkungen Dieses Dokument enthält Notizen zu meiner Vorlesung Konvexe Optimierung,

Mehr

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit) 3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 2 Nichtlineare Gleichungssysteme Problem: Für vorgegebene Abbildung f : D R n R n finde R n mit oder ausführlicher f() = 0 (21) f 1 ( 1,, n ) = 0, f n ( 1,, n ) = 0 Einerseits führt die mathematische

Mehr

3. Grundlagen der Linearen Programmierung

3. Grundlagen der Linearen Programmierung 3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57 Vorwort... 13 Vorwort zur 3. deutschen Auflage... 17 Kapitel 1 Einführung, I: Algebra... 19 1.1 Die reellen Zahlen... 20 1.2 Ganzzahlige Potenzen... 23 1.3 Regeln der Algebra... 29 1.4 Brüche... 34 1.5

Mehr

ε δ Definition der Stetigkeit.

ε δ Definition der Stetigkeit. ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x

Mehr

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz Optimale Steuerung Kevin Sieg Fachbereich für Mathematik und Statistik Universität Konstanz 14. Juli 2010 1 / 29 Aufgabenstellung 1 Aufgabenstellung Aufgabenstellung 2 Die zusammengesetzte Trapezregel

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den

Mehr

INGENIEURMATHEMATIK. 9. Differentialrechnung für Funktionen mehrerer Variablen. Sommersemester Prof. Dr. Gunar Matthies

INGENIEURMATHEMATIK. 9. Differentialrechnung für Funktionen mehrerer Variablen. Sommersemester Prof. Dr. Gunar Matthies Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik INGENIEURMATHEMATIK 9. Differentialrechnung für Funktionen mehrerer Variablen Prof. Dr. Gunar Matthies Sommersemester

Mehr

Nichtlineare Optimierungsprobleme mit Komplexität

Nichtlineare Optimierungsprobleme mit Komplexität Definition eines Nichtlinearen Optimierungsproblemes (NLP) min f (x) bzw. min f (x) s.d. x S x S wobei die zulässige Menge S R n typischerweise definiert ist durch S {x R n : h(x) =, c(x) } für Gleichungs-

Mehr

2 Euklidische Vektorräume

2 Euklidische Vektorräume Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,

Mehr

Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen

Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen In diesem Kapitel betrachten wir die Invertierbarkeit von glatten Abbildungen bzw. die Auflösbarkeit von impliziten Gleichungen.

Mehr

II. Nichtlineare Optimierung

II. Nichtlineare Optimierung II. Nichtlineare Optimierung 1. Problemstellungen 2. Grundlagen 3. Probleme ohne Nebenbedingungen 4. Probleme mit Nebenbedingungen Theorie 5. Probleme mit Nebenbedingungen Verfahren H. Weber, FHW, OR SS06,

Mehr

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.

Mehr

Mathematik für Wirtschaftswissenschaftler

Mathematik für Wirtschaftswissenschaftler Knut Sydsaeter Peter HammondJ Mathematik für Wirtschaftswissenschaftler Basiswissen mit Praxisbezug 2., aktualisierte Auflage Inhaltsverzeichnis Vorwort 13 Vorwort zur zweiten Auflage 19 Kapitel 1 Einführung,

Mehr

Brückenkurs Mathematik

Brückenkurs Mathematik Brückenkurs Mathematik 6.10. - 17.10. Vorlesung 3 Geometrie Doris Bohnet Universität Hamburg - Department Mathematik Mi 8.10.2008 1 Geometrie des Dreiecks 2 Vektoren Länge eines Vektors Skalarprodukt Kreuzprodukt

Mehr

Optimierung und Variationsrechnung

Optimierung und Variationsrechnung Optimierung und Variationsrechnung Hermann Schichl Sommersemester 2011 Inhalt 1 Einleitung 3 1.1 Terminologie............................... 4 2 Anwendungen 7 2.1 Optimierung der Erzeugnisse einer Firma...............

Mehr

OPERATIONS-RESEARCH (OR)

OPERATIONS-RESEARCH (OR) OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:

Mehr

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes

Mehr

Kapitel VI. Euklidische Geometrie

Kapitel VI. Euklidische Geometrie Kapitel VI. Euklidische Geometrie 1 Abstände und Lote Wiederholung aus Kapitel IV. Wir versehen R n mit dem Standard Skalarprodukt x 1 y 1.,. := x 1 y 1 +... + x n y n x n y n Es gilt für u, v, w R n und

Mehr

Die Taylorreihe einer Funktion

Die Taylorreihe einer Funktion Kapitel 6 Die Taylorreihe einer Funktion Dieser Abschnitt beschäftigt sich mit Taylorreihen, Taylorpolynomen und der Restgliedabschätzung für Taylorpolynome. Die Taylorreihe einer reellen Funktion ist

Mehr

3 Nichtlineare Gleichungssysteme

3 Nichtlineare Gleichungssysteme 3 Nichtlineare Gleichungsssteme 3.1 Eine Gleichung in einer Unbekannten Problemstellung: Gegeben sei die stetige Funktion f(). Gesucht ist die Lösung der Gleichung f() = 0. f() f() a) f ( ) 0 b) f ( )

Mehr

Mathematik für Anwender I. Beispielklausur I mit Lösungen

Mathematik für Anwender I. Beispielklausur I mit Lösungen Fachbereich Mathematik/Informatik Prof. Dr. H. Brenner Mathematik für Anwender I Beispielklausur I mit en Dauer: Zwei volle Stunden + 10 Minuten Orientierung, in denen noch nicht geschrieben werden darf.

Mehr

00. Einiges zum Vektorraum R n

00. Einiges zum Vektorraum R n 00. Einiges zum Vektorraum R n In diesem einleitenden Kapitel werden die in der LV Einführung in die mathematischen Methoden erwähnten Konzepte über Vektoren (im R 2 und R 3 ) im Rahmen des n-dimensionalen

Mehr

Mathematik für Wirtschaftswissenschaftler, WS 10/11 Musterlösungen zu Aufgabenblatt 11

Mathematik für Wirtschaftswissenschaftler, WS 10/11 Musterlösungen zu Aufgabenblatt 11 Mathematik für Wirtschaftswissenschaftler, WS / Musterlösungen zu Aufgabenblatt Aufgabe 76: Bestimmen Sie mittels Gauß-Elimination die allgemeine Lösung der folgenden linearen Gleichungssysteme Ax b: a)

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Differentialrechnung bei Funktionen mehreren Variablen

Differentialrechnung bei Funktionen mehreren Variablen Kap. 6 Differentialrechnung bei Funktionen mehreren Variablen Im folgenden geht es um Funktionen des Typsf :R n R X... Y =f(x,...,x n ) X n Eine Weiterentwicklung der Differentialrechnung für solche Funktionen

Mehr

Multivariate Analysis

Multivariate Analysis Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle

Mehr

2004, x 0 (e 2x + x) x 1, x > 0. Untersuchen Sie die Funktion auf Stetigkeit an der Stelle x 0 = 0!

2004, x 0 (e 2x + x) x 1, x > 0. Untersuchen Sie die Funktion auf Stetigkeit an der Stelle x 0 = 0! Klausur 25.02.2004 Aufgabe 5 Gegeben ist die Funktion f(x) = 2004, x 0 (e 2x + x) x 1, x > 0. Untersuchen Sie die Funktion auf Stetigkeit an der Stelle x 0 = 0! Klausur 06.08.2003 Aufgabe 5 Gegeben ist

Mehr

Schranken für zulässige Lösungen

Schranken für zulässige Lösungen Schranken für zulässige Lösungen Satz 5.9 Gegeben seien primales und duales LP gemäß der asymmetrischen Form der Dualität. Wenn x eine zulässige Lösung des primalen Programms und u eine zulässige Lösung

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +

Mehr

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010 Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und

Mehr

Analysis II (FS 2015): Vektorfelder und Flüsse

Analysis II (FS 2015): Vektorfelder und Flüsse Analysis II (FS 215): Vektorfelder und Flüsse Dietmar A. Salamon ETH-Zürich 7. April 215 1 Der Fluss eines Vektorfeldes Sei U R n eine offene Menge und sei f : U R n eine lokal Lipschitz-stetige Abbildung.

Mehr

Mathematische Methoden in den Ingenieurwissenschaften 1. Übungsblatt

Mathematische Methoden in den Ingenieurwissenschaften 1. Übungsblatt Prof Dr M Gerdts Dr A Dreves J Michael Wintertrimester 216 Mathematische Methoden in den Ingenieurwissenschaften 1 Übungsblatt Aufgabe 1 : (Schwimmer Ein Schwimmer möchte einen Fluss der Breite b > überqueren,

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

OPTIMIERUNG I. Christian Clason. Fakultät für Mathematik Universität Duisburg-Essen

OPTIMIERUNG I. Christian Clason. Fakultät für Mathematik Universität Duisburg-Essen OPTIMIERUNG I Vorlesungsskript, Sommersemester 2014 Christian Clason Stand vom 1. Juli 2014 Fakultät für Mathematik Universität Duisburg-Essen INHALTSVERZEICHNIS I GRUNDLAGEN 1 theorie der linearen ungleichungen

Mehr

4.7 Der Taylorsche Satz

4.7 Der Taylorsche Satz 288 4 Differenziation 4.7 Der Taylorsche Satz Die Differenzierbarkeit, also die Existenz der ersten Ableitung einer Funktion, erlaubt bekanntlich, diese Funktion lokal durch eine affine Funktion näherungsweise

Mehr

Taylorentwicklung von Funktionen einer Veränderlichen

Taylorentwicklung von Funktionen einer Veränderlichen Taylorentwicklung von Funktionen einer Veränderlichen 17. Januar 2013 KAPITEL 1. MATHEMATISCHE GRUNDLAGEN 1 Kapitel 1 Mathematische Grundlagen 1.1 Stetigkeit, Differenzierbarkeit und C n -Funktionen Der

Mehr

4. Vektorräume und Gleichungssysteme

4. Vektorräume und Gleichungssysteme technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 41 und 42 4 Vektorräume

Mehr

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Lineare Gleichungssysteme (Teschl/Teschl 11.1) Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...

Mehr

Maximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge)

Maximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge) Beispiel: Produktionsplanung Maximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge) Produktionskapazität Ressourcenmenge bei als fest angenommenem

Mehr

MATTHIAS GERDTS NICHTDIFFERENZIERBARE OPTIMIERUNG

MATTHIAS GERDTS NICHTDIFFERENZIERBARE OPTIMIERUNG MATTHIAS GERDTS NICHTDIFFERENZIERBARE OPTIMIERUNG Address of the Author: Matthias Gerdts Mathematisches Institut Universität Bayreuth D-95440 Bayreuth E-Mail: Matthias.Gerdts@uni-bayreuth.de WWW: www.staff.uni-bayreuth.de/

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

2. Stetige lineare Funktionale

2. Stetige lineare Funktionale -21-2. Stetige lineare Funktionale Die am Ende von 1 angedeutete Eigenschaft, die ein lineares Funktional T : D(ú) 6 verallgemeinerten Funktion macht, ist die Stetigkeit von T in jedem n 0 0 D(ú). Wenn

Mehr

Optimierung mit Matlab

Optimierung mit Matlab Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof. Dr. L. Cromme Computerbasierte Mathematische Modellierung für Mathematiker, Wirtschaftsmathematiker, Informatiker im Wintersemester

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 4

Technische Universität München Zentrum Mathematik. Übungsblatt 4 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 4 Hausaufgaben Aufgabe 4. Gegeben sei die Funktion f : D R mit f(x) :=

Mehr

1 Zahlentheorie. 1.1 Kongruenzen

1 Zahlentheorie. 1.1 Kongruenzen 3 Zahlentheorie. Kongruenzen Der letzte Abschnitt zeigte, daß es sinnvoll ist, mit großen Zahlen möglichst einfach rechnen zu können. Oft kommt es nicht darauf, an eine Zahl im Detail zu kennen, sondern

Mehr

Z = 60! 29!31! 1,1 1017.

Z = 60! 29!31! 1,1 1017. Aufgabe : Eine Hochzeitsgesellschaft besteht aus 60 Personen. a Wieviele verschiedene Möglichkeiten für Sitzordnungen gibt es? b Nehmen Sie nun an, dass 9 Gäste aus dem Familien- und Freundeskreis der

Mehr

KLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen)

KLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen) Mathematisches Institut WS 2012/13 der Heinrich-Heine-Universität 7.02.2013 Düsseldorf Prof. Dr. Achim Schädle KLAUSUR zu Einführung in die Optimierung Bitte folgende Angaben ergänzen und DEUTLICH LESBAR

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Sei K ein Körper, a ij K für 1 i m, 1 j n. Weiters seien b 1,..., b m K. Dann heißt a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2... a m1

Mehr

Optimierung. Florian Jarre Josef Stoer. Springer

Optimierung. Florian Jarre Josef Stoer. Springer 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Florian Jarre Josef Stoer Optimierung Springer Inhaltsverzeichnis

Mehr

Lineare Optimierung. bei Prof. Walter Alt. Semester: SS 2006 und WS 2009

Lineare Optimierung. bei Prof. Walter Alt. Semester: SS 2006 und WS 2009 Lineare Optimierung bei Prof. Walter Alt Semester: SS 2006 und WS 2009 Vorwort Dieses Dokument wurde als Skript für die auf der Titelseite genannte Vorlesung erstellt und wird jetzt im Rahmen des Projekts

Mehr

Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1

Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1 Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1 Kapitel 3 Lineare Gleichungssysteme 3.1. Einleitung Beispiel 1 3 Kinder haben eingekauft. Franz hat 4 Lakritzen, 2 Schokoriegel und 5 Kaugummis

Mehr

Mathematik II für Inf und WInf

Mathematik II für Inf und WInf Gruppenübung Mathematik II für Inf und WInf 8. Übung Lösungsvorschlag G 28 (Partiell aber nicht total differenzierbar) Gegeben sei die Funktion f : R 2 R mit f(x, ) := x. Zeige: f ist stetig und partiell

Mehr

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II. Aufgaben und Lösungen

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II. Aufgaben und Lösungen Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II Aufgaben und Lösungen SS 2005 Aufgaben Aufgabe 41 Ein Betrieb stellt zwei Produkte P 1 und P 2 her, die die

Mehr

8 Tangenten an Quadriken

8 Tangenten an Quadriken 8 Tangenten an Quadriken A Geraden auf Quadriken: Sei A 0 eine symmetrische n n Matri und Q : t A + b t + c = 0 eine nicht leere Quadrik im R n, b R n, c R. g = p + R v R n ist die Gerade durch p mit Richtung

Mehr

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Wintersemester 3/4 (.3.4). (a) Für z = + i und z = 3 4i berechne man z z und z z. Die Ergebnisse sind in kartesischer Form anzugeben.

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Eines der am häufigsten auftretenden Standardprobleme der angewandten Mathematik ist das Lösen linearer Gleichungssysteme, etwa zur Netzwerkberechnung in der Elektrotechnik oder

Mehr

7.2.1 Zweite partielle Ableitungen

7.2.1 Zweite partielle Ableitungen 72 72 Höhere Ableitungen 72 Höhere Ableitungen Vektorwertige Funktionen sind genau dann differenzierbar, wenn ihre Koordinatenfunktionen differenzierbar sind Es ist also keine wesentliche Einschränkung,

Mehr

Classpad 300 / Classpad 330 (Casio) Der Taschenrechner CAS:

Classpad 300 / Classpad 330 (Casio) Der Taschenrechner CAS: Der Taschenrechner CAS: Classpad 300 / Classpad 330 (Casio) Übersicht: 1. Katalog (wichtige Funktionen und wie man sie aufruft) 2. Funktionen definieren (einspeichern mit und ohne Parameter) 3. Nullstellen

Mehr

Kapitel 5. Stetige Funktionen 5.1. Stetigkeit

Kapitel 5. Stetige Funktionen 5.1. Stetigkeit Kapitel 5. Stetige Funktionen 5.1. Stetigkeit Reelle Zahlen sind ideale Objekte, die es uns ermöglichen, eine transparente und leistungsfähige Theorie aufzubauen. Ein Computer kann jedoch nur mit Approximationen

Mehr

Mathematik 3 für Informatik

Mathematik 3 für Informatik Gunter Ochs Wintersemester 5/6 Mathematik 3 für Informatik Lösungen zum Hausaufgabenblatt Lösungshinweise ohne Garnatie auf Fehlerfreiheit c 5. Berechnen Sie die folgenden unbestimmten Integrale: a x 4

Mehr

Übungen zur Linearen Optimierung Sommersemester 2011. Übungsblatt 1

Übungen zur Linearen Optimierung Sommersemester 2011. Übungsblatt 1 Universität Heidelberg Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Graduiertenschule HGS MathComp Dr. Stefan Körkel Magdalena Gottfried Übungen zur Linearen Optimierung Sommersemester 2011

Mehr

(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren

(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren Aufgabe Gegeben seien die Punkte A(,,, B(,,, C(,,. (a Geben Sie die Hesse-Normalform der Ebene E, welche die drei Punkte A, B und C enthält, an. (b Bestimmen Sie den Abstand des Punktes P (,, 5 zur Ebene

Mehr

Lineare Programmierung

Lineare Programmierung Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in

Mehr

Lineare Abhängigkeit

Lineare Abhängigkeit Lineare Abhängigkeit Vorbemerkung. Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung I X, i x i. I heißt dabei Indexmenge. Man verwendet dabei oft die Schreibweise (x i ) oder (x

Mehr

Vektorräume und Rang einer Matrix

Vektorräume und Rang einer Matrix Universität Basel Wirtschaftswissenschaftliches Zentrum Vektorräume und Rang einer Matrix Dr. Thomas Zehrt Inhalt:. Lineare Unabhängigkeit 2. Vektorräume und Basen 3. Basen von R n 4. Der Rang und Rangbestimmung

Mehr

4.4. Rang und Inversion einer Matrix

4.4. Rang und Inversion einer Matrix 44 Rang und Inversion einer Matrix Der Rang einer Matrix ist die Dimension ihres Zeilenraumes also die Maximalzahl linear unabhängiger Zeilen Daß der Rang sich bei elementaren Zeilenumformungen nicht ändert

Mehr

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

Differenzialrechnung

Differenzialrechnung Mathe Differenzialrechnung Differenzialrechnung 1. Grenzwerte von Funktionen Idee: Gegeben eine Funktion: Gesucht: y = f(x) lim f(x) = g s = Wert gegen den die Funktion streben soll (meist 0 oder ) g =

Mehr

Damit läßt sich die Aufgabe durch einfaches Rechnen zeigen: k=1

Damit läßt sich die Aufgabe durch einfaches Rechnen zeigen: k=1 Aufgabe (4 Punte) Sei A eine n m-matrix Die Matrix A T ist die m n-matrix, die durch Vertauschen der Zeilen und Spalten aus A hervorgeht (dh: aus Zeilen werden Spalten, und umgeehrt) Die Matrix A T heißt

Mehr

Lineare Programmierung Teil I

Lineare Programmierung Teil I Seminar über Algorithmen Prof. Dr. Helmut Alt Lineare Programmierung Teil I Lena Schlipf, Benjamin Jankovic Lena Schlipf, Benjamin Jankovic Seminar über Algorithmen SS05 1 Struktur des Vortrags 1. Was

Mehr

3. Schnittebenenverfahren

3. Schnittebenenverfahren 3. Schnittebenenverfahren Themen 3. Schnittebenenverfahren Ganzzahlige lineare Programmierung Schnittebenenverfahren Konstruktion von Schnittebenen Auswahl von Schnittrestriktionen Operations Research

Mehr

Optimierung. Nürnberg, Oktober 2015

Optimierung. Nürnberg, Oktober 2015 1 Optimierung Nürnberg, Oktober 2015 Prof. Dr. Yvonne Stry Technische Hochschule Nürnberg Fakultät Angewandte Mathematik, Physik und Allgemeinwissenschaften Keßlerplatz 12 90461 Nürnberg Germany 1 Beispiel

Mehr

3.3 Klassifikation quadratischer Formen auf R n

3.3 Klassifikation quadratischer Formen auf R n 3.3. Klassifikation quadratischer Formen auf R n 61 3.3 Klassifikation quadratischer Formen auf R n Wir können den Hauptsatz über symmetrische Matrizen verwenden, um uns einen Überblick über die Lösungsmengen

Mehr