KAPITEL 3. Konvexe Funktionen
|
|
- Hansl Diefenbach
- vor 6 Jahren
- Abrufe
Transkript
1 KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn der Epigraph epif eine konvexe Menge in R n+1 darstellt. LEMMA 3.1. f : F R ist konvex genau dann, wenn gilt (i) F ist konvex; (ii) für alle x, y F und 0 < λ < 1: f[x + λ(y x)] f(x) + λ[f(y) f(x)]. Beweis. Seien (x, z) und (y, w) Punkte im Epigraphen von f. Konvexität ist gleichbedeutend mit der Eigenschaft (x, z) + (λ(y x), λ(w z)) epif (0 < λ < 1). Nach Komponenten aufgeschlüsselt bedeutet dies, dass x + λ(y x) F und somit (i) erfüllt sein muss. Ausserdem müssen wir haben: f[x + λ(y x)] z + λ(w z) = (1 λ)z + λw. Die Wahl z = f(x) und w = f(y) ergibt die Notwendigkeit von (ii). Offensichtlich ist (ii) zusammen mit (i) aber auch hinreichend. Lemma 3.1 zeigt, dass Konvexität von Funktionen im Grunde eine eindimensionale Eigenschaft ist: f ist konvex genau dann wenn die Richtungsfunktionen t f h (t) = f(x + th) t R so, dass x + th F in beliebige Richtungen h R n und in beliebigen Punkten x in der Variablen t konvex sind. 1. Differenzierbare konvexe Funktionen Wir betrachten zuerst den eindimensionalen Fall. LEMMA 3.2. Sei f : (a, b) R differenzierbar. Genau dann ist f konvex, wenn die Ableitung f (x) auf (a, b) monoton wächst. 33
2 34 3. KONVEXE FUNKTIONEN Beweis. Sei x < y. Wir betrachten z(λ) = x + λ(y x). Dann finden wir f (x) = f(z(λ)) f(x) lim λ 0 λ(y x) f (y) = f(y) f(x) lim x y y x λ[f(y) f(x)] f(y) f(x) lim = λ 0 λ(y x) y x f (x). Die Bedingung ist also notwendig. Wir zeigen nun, dass sie auch hinreicht, und nehmen obda x < y an. Nach dem Zwischenwertsatz existiert dann ein x < ξ < y mit f (x) f f(y) f(x) (ξ) = d.h. f(y) f(x) + f (x)(y y). y x Sei nun z = x + λ(y x). Dann ergibt sich auf die gleiche Weise und daraus f(x) f(z) + f (z)(x z) f(y) f(z) + f (z)(y z) f(x) + λ[f(y) f(x)] = (1 λ)f(x) + λf(y) f(z) + f (z) 0 = f(z). Betrachten wir nun den allgemeinen Fall F R n und eine bei jedem x F differenzierbaren Funktion f : F R. Dann erhalten wir nach der Kettenregel für die Richtung h und die Funktion f h (t) = f(x + th): n f h (0) = f(x)h = Ist f konvex, so zeigt der obige Beweis: j=1 f(x) x j h j. f h (t) f h (0) + f h (0)(t 0) = f h(0) + f h (0)t. Die Wahl h = y x und t = 1 ergibt somit die charakteristische Eigenschaft differenzierbarer konvexer Funktionen f : F R: (11) f(y) f(x) + f(x)(y x) für alle x, y F 1.1. Quadratische Funktionen. Eine Funktion f : R n R der Form f(x) = 1 2 xt Qx c T x = 1 n n n q ij x i x j c j x j. 2 j=1 mit einer symmetrischen Matrix Q = [q ij ] R n n und c R n heisst quadratisch. f(x) hat den Gradienten f(x) = x T Q c T. Nach der Kettenregel ergibt sich für die Richtungsfunktion p h (t) = f(x + th) die Ableitung p h (t) = f(x + th)h = xt Qh c T h + th T Qh. Also ist p h (t) monoton wachsend, wenn ht Qh 0 gilt. j=1 d.h.
3 2. MINIMIERUNG KONVEXER FUNKTIONEN 35 Die Matrix Q heisst positiv semidefinit, wenn für alle h R n gilt: n n h T Qh = q ij h i h j 0. j=1 Also erhalten wir mit dieser Terminologie: PROPOSITION 3.1. Die quadratische Funktion f(x) = 1 2 xt Qx c T ist genau dann konvex, wenn Q positiv semidefinit ist. Trivialerweise ist die Nullmatrix Q = 0 positiv semidefinit. Also finden wir: KOROLLAR 3.1. Jede lineare Funktion ist konvex. BEMERKUNG. Die Konvexität linearer Funktionen kann man natürlich viel einfacher auch direkt beweisen Minimierung konvexer Funktionen Wir betrachten bzgl. der differenzierbaren konvexen Funktion f : F R das Problem min x F f(x). BEMERKUNG. Das Maximierungsproblem ist für allgemeine konvexe Funktionen sehr viel schwerer zu lösen! Wir beschränken uns deshalb auf das Minimierungsproblem Notwendige und hinreichende Optimalitätsbedingungen. Welche Bedingungen muss der Punkt x F erfüllen, damit er als Minimum in frage kommt? Sei x + h F und p h (t) = f(x + th). Dann gilt notwendigerweise (12) n j=1 f(x) h j = f(x)h = p f(x + th) f(x) h (0) = lim 0 x j t 0 + t Diese Bedingung ist aber auch hinreichend dafür, dass x ein Minimum ist. Denn für jedes andere y F gilt dann (mit h = y x) wegen der Konvexität von f: Also finden wir: f(y) f(x) + f(x)h f(x). SATZ 3.1. x F minimiert die differenzierbare konvexe Funktion f : F R genau dann, wenn x die Bedingung (12) erfüllt.
4 36 3. KONVEXE FUNKTIONEN 2.2. Minimierung über Teilräumen. Sei f : F R konvex und differenzierbar und F = {x R n Ax = b} (A R m n, b R m ) ein affiner Teilraum von R n. Dann gilt für jedes x F und h R n : x + h F x h F h ker A. Der Punkt x F minimiert also f genau dann, wenn n f(x) (13) f(x)h = h j = 0 für alle h ker A. x j j=1 Die Bedingung (13) besagt, dass f(x) orthogonal zu ker A bzw. dass f(x) im Zeilenraum von A liegt (d.h. eine Linearkombination der Zeilenvektoren a T i von A ist). Als zu (13) äquivalent erhalten wir folglich die Optimalitätsbedingung: (14) f(x) = y T A = y i a T i für einen geeigneten Vektor y T = [y 1,..., y m ]. Im Fall einer über F zu minimierenden quadratischen konvexen Funktion der Form f(x) = 1 2 xt Qx c T x hat man wegen f(x) = x T Q c T somit nur das (lineare) Gleichungssystem Qx A T y = c Ax = b zu lösen Projektionen auf (affine) Teilräume. Unter der Projektion eines gegebenen Vektors p R n auf den Teilraum F = {x R n Ax = b} versteht man einen Vektor ˆp, der den (euklidischen) Abstand zu F minimiert: p ˆp 2 = min p x F x 2. Wegen p x 2 = (p x) T (p x) = p T p 2p T x + x T x reduziert sich die Berechnung von ˆp auf das konvexe Minimierungsproblem: Also finden wir ˆp als Lösung von min f(x) = 1 2 xt x p T x s.d. Ax = b. x A T y = p Ax = b Einsetzen von x = p + A T y führt auf das Gleichungssystem Ap + AA T y = b bzw. Ay = b mit A = AA T, b = b Ap.
5 2. MINIMIERUNG KONVEXER FUNKTIONEN Das Regressionsproblem. Die Aufgabe besteht darin, die beste Lösung des linearen Gleichungssystems Ax = b zu bestimmen. Das soll heissen, wir suchen ein x R n derart, dass der Abstand b Ax so klein wie möglich ist: min b x R Ax 2 = b T b 2b T Ax + x T A T Ax. n Setzen wir c T = b T A und Q = A T A, dann ist das Problem äquivalent mit min x R n f(x) = 1 2 xt Qx c T x. Q = A T A ist positiv semidefinit und folglich f konvex. Also finden wir: x R n löst das Regressionsproblem genau dann, wenn gilt: Qx = c bzw. A T Ax = A T b. Das Regressionsproblem reduziert sich also auf das Lösen des linearen Gleichungssystems Qx = c. EX. 3.1 (Interpolation). Wir gehen von einer (unbekannten) Funktion f : R R aus, deren Werte y i = f(t i ) wir bei den Stützstellen t 1,..., t n festgestellt haben. Wir suchen eine Linearkombination n ˆf(t) = a j f j (t) j=1 von gegebenen Funktionen f 1 (t),..., f m (t), die f an den Stützstellen bestmöglich interpoliert. Also suchen wir die beste Lösung (in den Unbekannten a 1,..., a n ) des linearen Gleichungssystems a 1 f 1 (t 1 ) + a 2 f 2 (t 1 ) a n f n (t 1 ) = y 1 a 1 f 1 (t 2 ) + a 2 f 2 (t 2 ) a n f n (t 2 ) = y a 1 f 1 (t m ) + a 2 f 2 (t m ) a n f n (t m ) = y m Wählt man beim Interpolationsproblem {f 1 (t), f 2 (t)} = {1, t} so spricht man auch von linearer Regression und nennt ˆf(t) = a 1 + a 2 t die Regressionsgerade. Im Fall {f 1 (t), f 1 (t), f 2 (t)} = {1, t, t 2 } erhält man das quadratische Regressionspolynom ˆf(t) = a 1 + a 2 t + a 3 t 2.
6 38 3. KONVEXE FUNKTIONEN 2.3. Lagrange-Dualität. Ein allgemeines mathematisches Optimierungsproblem hat die Form (15) min x R n f(x) s.d. g i(x) 0 (i I). Dabei ist I ein Indexbereicht und f, g i : R n R Funktionen, die wir als konvex und differenzierbar annehmen. Wir nehmen weiter I = {1,..., n} an. Wir haben also ein konvexes Minimierungsproblem über dem Zulässigkeitsbereich F = {x R n g i (x) 0, i I} vorliegen. Die zugeordnete Lagrange-Funktion ist definiert als L(x, y) = f(x) + y i g i (x) = f(x) + y T g(x). Lagrange fasst das Minimierungsproblem als ein Spiel mit zwei Spielern auf: Der erste will L(x, y) minimieren und darf x wählen. Der zweite will L(x, y) maximieren und darf die sog. Lagrange-Multiplikatoren y i 0 festlegen. Der erste Spieler betrachtet also die Funktion L 1 (x) = max L(x, y) y 0 und sucht ein x R n mit der Eigenschaft (16) L 1 (x) = min L 1(x) = min x R n Der zweite Spieler betrachtet die Funktion und sucht ein y 0 mit der Eigenschaft max y 0 x R L 2 (y) = min L(x, y) x Rn (17) L 2 (y) = max L 2(y) = max y 0 min y 0 x R n L(x, y). n L(x, y) Das primale Problem. Wir beobachten L 1 (x) = max f(x) + m { f(x) wenn x F y i g i (x) = y 0 + wenn x / F. Also wird der erste Spieler sein x in F wählen. Das Problem (16) ist somit äquivalent zum Ausgangsproblem: min x R n L 1(x) = min x F f(x).
7 2. MINIMIERUNG KONVEXER FUNKTIONEN Das duale Problem. Zu einem gegebenen y 0 stellte die Berechunung von L 2 (y) eine konvexes Minimierungsproblem dar. Also gilt die Gleichheit L 2 (y) = L(x, y) genau dann, wenn x R n die Optimalitätsbedingung (18) x L(x, y) = f(x) + y i g i (x) = 0 T. erfüllt. Für den zweiten Spieler stellt sich damit das duale Problem (19) max f(x) + m y i g i (x) s.d. f(x) + y 0 y i g i (x) = 0 T. LINEARE PROGRAMME. Wir betrachten als Beispiel das lineare Programmierproblem max c T x s.d. a T i x b i (i = 1,..., m) als primales Problem. Sei f(x) = c T x und g i (x) = a T i x b i. Fassen wir die Zeilenvektoren a T i in der Matrix A zusammen lautet das duale Problem max y 0 ct x + y T (Ax b) s.d. c T + y T A = 0 T. Einsetzen von y T A = c T in die duale Zielfunktion ergibt somit die folgende Form des dualen Problems: max ( b T y) s.d. A T y = c, y 0. Dieses ist äquivalent zu dem sog. dualen linearen Programm (20) min b T y s.d. A T y = c, y Schwache Dualität. Sei x eine zulässige (aber nicht notwendig optimale) Lösung des primalen y 0 eine zulässige (aber nicht notwendig optimale) Lösung des dualen Lagrangeproblems, d.h. f(x) + y i g i (x) = 0 T. Dann gilt natürlich für die entsprechenden Zielfunktionswerte (21) L 1 (x) = f(x) f(x) + y i g i (x) = L 2 (y). Dies ist als das Phänomen der schwachen Dualität bekannt.
8 40 3. KONVEXE FUNKTIONEN EX Im Fall des linearen Programms max c T x s.d. Ax b mit der zu minimierenden Zielfunktion f(x) = c T x ergibt die schwache Dualität wegen c T = y T A: f(x) = c T x c T x + y T (Ax b) = y T b bzw. c T x b T y Die KKT-Bedingungen. Fassen wir die primalen und dualen Restriktionen aus dem Lagrange-Ansatz zusammen, so suchen wir einen Punkt x R n zu dem ein y 0 existiert mit den Eigenschaften (22) f(x) + y i g i (x) = 0 T y i g i (x) = 0 g i (x) 0 (i = 1,..., m) y 0 Ein solches x heisst Karush-Kuhn-Tucker-Punkt (KKT-Punkt) bzgl. des Optimierungsproblems min f(x) s.d. g i (x) 0 (i = 1,..., m) und (22) sind die sog. KKT-Bedingungen. PROPOSITION 3.2. Sei x ein KKT-Punkt mit zugehörigem y 0. Dann ist x eine Optimallösung des konvexen Minimierungsproblems (15). Beweis. x erfüllt alle Restriktionen g i (x ) 0 und minimiert die konvexe Funktion n L(x, y ) = f(x) + yi g i (x) f(x) (wegen y 0). Aus (y ) T g(x ) = 0 folgt f(x ) = L(x, y ). D.h. f(x ) ist minimal. BEMERKUNG. Die KKT-Bedingungen sind bei allgemeinen (nicht-konvexen) mathematischen Optimierungsproblemen weder hinreichend noch notwendig für Optimalität.
9 2. MINIMIERUNG KONVEXER FUNKTIONEN Lineare Nebenbedingungen. Wir betrachten hier den Fall linearer (eigentlich: affiner) Restriktionsfunktionen g i (x) = a T i x b i, sodass die Nebenbedingungen in kompakter Matrixschreibweise die Form Ax b haben. Der Zulässigkeitsbereich ist das Polyeder F = P (A, b) = {x R n a T i x b i, i = 1,..., m}. Sei x F. Um Optimallösung zu sein, muss gelten f(x)h 0 wenn x + h F, d.h. a T i x + at i h b i (i = 1,..., m). Sei J(x) die Menge der Indizes i mit a T i x = b i. Dann muss also die Implikation A J(x) h = 0 = f(x)h 0 erfüllt sein. Folglich (nach dem Farkas-Lemma) muss f(x) eine nichtnegative Linearkombination der Zeilen von A J(x) sein. Mit anderen Worten: Es existiert ein y 0 so, dass n f(x) = y i a T i. i J(x) OBdA können im Fall i / J(x) die Gleichheit y i = 0 voraussetzen. Dann ergibt sich auch y T (Ax b) = y i (a T i x b i ) = 0. Damit sind notwendigerweise die KKT-Bedingungen unter linearen Restriktionen erfüllt: Wir finden: f(x) + y T A = 0 y T (Ax b) = 0 Ax b y 0 SATZ 3.2. Die KKT-Bedingungen sind hinreichend und notwendig dafür, dass x eine Optimallösung eines konvexen Optimierungsproblems folgender Form ist: Ax b. min x R n s.d Lineare Programme. Man beachte: Ist f(x) nicht linear, dann ergeben die KKT-Bedingungen (selbst bei linearen Restriktionen) ein nichtlineares(!) Ungleichungssystem. Im Fall des linearen Programms max c T x s.d. Ax b
10 42 3. KONVEXE FUNKTIONEN ergeben die KKT-Bedingungen jedoch das lineare Ungleichungssystem A T y = c c T x b T y = 0 Ax b y Starke Dualität. Wir betrachten das primal-duale Paar linearer Programme max c T x s.d. Ax b min b T y s.d. A T y = c, y 0. Die schwache Dualtität besagt für beliebige jeweils zulässige Lösungen x und y: c T x b T y. Im Fall von Gleichheit müssen folglich beide Lösungen optimal sein. Die KKT- Bedingungen garantieren bei einer optimalen Lösung x ein dual zulässiges y mit c T x = b T y. Also schliessen wir SATZ 3.3 (Starke Dualität). Genau dann ist die primal zulässige Lösung x optimal, wenn es eine dual zulässige Lösung y gibt mit der Eigenschaft c T x = b T y. In diesem Fall ist y notwendigerweise dual optimal. 3. Newtons Methode und die Methode innerer Punkte Die Berechnung von Koordinatenvektoren, welche die KKT-Bedingungen erfüllen, erfordert die Berechnung von nichtnegativen Lösungen gewisser (meist) nichtlinearer Gleichungssysteme, die wir in der allgemeinen Form F (x) = 0, x 0 notieren. Dabei ist F : R n R m eine Funktion, die aus m Koordinatenfunktionen f i : R n R zusammengesetzt ist: f 1 (x) F (x) =. R m. f m (x) Die exakte Lösung einer nichtlinearen Gleichung ist im allgemeinen sehr schwer. Oft genügt aber schon eine hinreichend gute approximative Lösung.
11 3. NEWTONS METHODE UND DIE METHODE INNERER PUNKTE Newtons Methode. Zur approximativen Lösung der Gleichung F (x) = 0 geht Newtons Methode iterativ vor. Man beginnt mit einem x 0 R n und berechnet dann iterativ x 1,..., x k,.... Man stoppt im Fall F (x k ) 0. Ansonsten sucht man sich eine lineare Approximation von F bei x k, d.h. eine Matrix A k derart, dass F (x k + h) F (x k ) + A k h (wenn h hinreichend klein), und berechnet eine Lösung h k des linearen(!) Gleichungssystems Nun setzt man x k+1 = x k + h k usw. A k h = F (x k ). BEMERKUNG. Wenn F differenzierbar ist, wählt man gerne die Jacobimatrix, die als Zeilen gerade die m Gradienten f i (x k ) besitzt: [ ] fi (x k ) A k = (x k ) = R m n x j EX Wir suchen eine Lösung der Gleichung f(x) = x 2 2 = 0. Man beginnt mit einem x 0. Ist x k schon berechnet, wählt man z.b. A k = f (x k ) und erhält f (x k )h = f(x k ) d.h. h k = f(x k) f (x k ) = x2 k + 2 2x k und somit x k+1 = x k + h k = x k x k. BEMERKUNG. Im allgemeinen hat man keine Garantie, dass das Newtonverfahren tatsächlich zu einer zulässigen Lösung der Ausgangsgleichung konvergiert Die Methode der inneren Punkte. Wir wollen ein KKT-Punkt für das lineare Programm max c T x s.d. Ax b (A R m n, b R m ) bestimmen. Setzen wir s = b Ax, dann sind die KKT-Bedinungen (23) s i y i = µ (i = 1,..., m) Ax + s = b A T y = c s, y 0 mit µ = 0 gegeben. Wir relaxieren nun, indem wir einen Parameter µ > 0 wählen und das resultierende System mit einem Newtonverfahren zu lösen versuchen. In
12 44 3. KONVEXE FUNKTIONEN diesem Fall müssen wir immer s i > 0 und y i > 0 (d.h. s, y > 0) sicherstellen. Deshalb spricht man von inneren Punkten (des positiven Quadranten von R m ). LEMMA 3.3. Sei (x µ, y µ, s µ ) eine Lösung des Systems (24) zu µ > 0. Dann ist x µ eine zulässige Lösung des linearen Programms. Und für jede andere zulässige Lösung x gilt c T x µ c T x ε (mit ε mµ). Beweis. Aus der schwachen Dualität folgt c T x b T y µ = (Ax µ + s µ ) T y µ = (x µ )A T y µ + s µ y µ = c T x µ + mµ. Im Fall µ 0 sind die x µ also annähernd optimale Lösungen des ursprünglichen linearen Programms. Um (24) mit einem Newtonansatz zu lösen, gehen wir davon aus, dass wir Vektoren y > 0 und x schon zur Verfügung haben mit der Eigenschaft Wir suchen dann x, y, s so, dass (24) c = A T y und s = b Ax > 0. (s i + s i )(y i + y i ) = µ (i = 1,..., m) A(x + x) + (s + s) = b A T (y + y) = c s + s, y + y 0 Nach unseren Annahmen über x und y reduziert sich diese Aufgabe auf das Lösen von s i y i + y i s i + s i y i = µ s i y i (i = 1,..., m) A x + s = 0 (25) A T y = 0 s + s, y + y 0 Das letztere System relaxieren wir nun zu dem linearen Gleichungssystem (26) s i y i + y i s i = µ s i y i (i = 1,..., m) A x + s = 0 A T y = 0 Mit dessen Lösung datiert man auf: x + = x + x, y + = y + y, s + = s und verfährt nun wie zuvor mit x + und y + anstelle von x und y (wobei man in jeder Iteration auch den Parameter µ reduziert), bis man eine hinreichend gute Lösung x des Ausgangsproblems gefunden hat. Man kann zeigen, dass dieses Verfahren funktioniert und (sehr schnell!) gegen eine optimale Lösung des Ausgansproblems konvergiert.
Optimalitätskriterien
Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
Mehr17. Penalty- und Barriere-Methoden
H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende
MehrKapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester
MehrWirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra
MehrExtrema mit Nebenbedingungen
Extrema mit Nebenbedingungen Gesucht ist das Extremum der Funktion f(x,y) = 5 x y unter der Nebenbedingung g(x,y) = x+y =. 5 y x In diesem einfachen Fall kann die Nebenbedingung nach einer Variablen aufgelöst
Mehr18 Höhere Ableitungen und Taylorformel
8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a
MehrOptimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 7 Lineare Programmierung II 1 Lineare Programme Lineares Programm: Lineare Zielfunktion Lineare Nebenbedingungen (Gleichungen oder Ungleichungen) Spezialfall der konvexen Optimierung
MehrGLEICHUNGEN MIT PARAMETERN
Mathematik-Olympiaden in Rheinland-Pfalz GLEICHUNGEN MIT PARAMETERN Fortgeschrittene Die Aufgaben auf diesem Arbeitsblatt haben alle eine elegante Lösungsidee. Bei vielen Gleichungen ist nach Anwenden
MehrTeil II. Nichtlineare Optimierung
Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene
MehrStudientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Aufgaben zur nicht-linearen Optimierung Teil II Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Aufgabe 5 Bestimmen
MehrBestimmung einer ersten
Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,
MehrÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS
ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS Aufgabe 1. a) Gegeben sei die Gleichung 2x 2 4xy +y 2 3x+4y = 0. Verifizieren Sie, dass diese Gleichung
MehrIterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
MehrKonvexe Mengen und konvexe Funktionen
Konvexe Mengen und konvexe Funktionen Teilnehmer: Moritz Butz Franziska Ihlefeldt Johannes Jendersie Marie Lambert Eike Müller Gregor Pasemann Konstantin Rohde Herder-Gymnasium Herder-Gymnasium Georg-Forster-Gymnasium
MehrNichtlineare Optimierung ohne Nebenbedingungen
Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt
MehrMathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz
Mathematik für Bioinformatik und Systembiologie - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz WS 2009/10 Universität Freiburg Dieses Vorlesungsskript ist auf der Basis von Vorlesungen
MehrOptimierung I. Einführung in die Optimierung. Skript zur Vorlesung von Prof. Dr. Mirjam Dür Prof. Dr. Alexander Martin Prof. Dr.
Optimierung I Einführung in die Optimierung Skript zur Vorlesung von Prof. Dr. Mirjam Dür Prof. Dr. Alexander Martin Prof. Dr. Stefan Ulbrich Wintersemester 2008/2009 TU Darmstadt Überarbeitete Version
MehrMathematik 1 für Wirtschaftsinformatik
Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration
MehrKonvexe Optimierung. Prof. Dr. Sven Rahmann. LS 11, Fakultät für Informatik, TU Dortmund Entwurf vom 17. Mai 2010
Konvexe Optimierung Prof. Dr. Sven Rahmann LS 11, Fakultät für Informatik, TU Dortmund 2009 2010 Entwurf vom 17. Mai 2010 Vorbemerkungen Dieses Dokument enthält Notizen zu meiner Vorlesung Konvexe Optimierung,
Mehr3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)
3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände
MehrLineare Gleichungssysteme
Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare
MehrNichtlineare Gleichungssysteme
Kapitel 2 Nichtlineare Gleichungssysteme Problem: Für vorgegebene Abbildung f : D R n R n finde R n mit oder ausführlicher f() = 0 (21) f 1 ( 1,, n ) = 0, f n ( 1,, n ) = 0 Einerseits führt die mathematische
Mehr3. Grundlagen der Linearen Programmierung
3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations
Mehr9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83
9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x
MehrInhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57
Vorwort... 13 Vorwort zur 3. deutschen Auflage... 17 Kapitel 1 Einführung, I: Algebra... 19 1.1 Die reellen Zahlen... 20 1.2 Ganzzahlige Potenzen... 23 1.3 Regeln der Algebra... 29 1.4 Brüche... 34 1.5
Mehrε δ Definition der Stetigkeit.
ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x
MehrOptimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz
Optimale Steuerung Kevin Sieg Fachbereich für Mathematik und Statistik Universität Konstanz 14. Juli 2010 1 / 29 Aufgabenstellung 1 Aufgabenstellung Aufgabenstellung 2 Die zusammengesetzte Trapezregel
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den
MehrINGENIEURMATHEMATIK. 9. Differentialrechnung für Funktionen mehrerer Variablen. Sommersemester Prof. Dr. Gunar Matthies
Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik INGENIEURMATHEMATIK 9. Differentialrechnung für Funktionen mehrerer Variablen Prof. Dr. Gunar Matthies Sommersemester
MehrNichtlineare Optimierungsprobleme mit Komplexität
Definition eines Nichtlinearen Optimierungsproblemes (NLP) min f (x) bzw. min f (x) s.d. x S x S wobei die zulässige Menge S R n typischerweise definiert ist durch S {x R n : h(x) =, c(x) } für Gleichungs-
Mehr2 Euklidische Vektorräume
Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,
MehrThema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen
Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen In diesem Kapitel betrachten wir die Invertierbarkeit von glatten Abbildungen bzw. die Auflösbarkeit von impliziten Gleichungen.
MehrII. Nichtlineare Optimierung
II. Nichtlineare Optimierung 1. Problemstellungen 2. Grundlagen 3. Probleme ohne Nebenbedingungen 4. Probleme mit Nebenbedingungen Theorie 5. Probleme mit Nebenbedingungen Verfahren H. Weber, FHW, OR SS06,
MehrÜbungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009
Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.
MehrMathematik für Wirtschaftswissenschaftler
Knut Sydsaeter Peter HammondJ Mathematik für Wirtschaftswissenschaftler Basiswissen mit Praxisbezug 2., aktualisierte Auflage Inhaltsverzeichnis Vorwort 13 Vorwort zur zweiten Auflage 19 Kapitel 1 Einführung,
MehrBrückenkurs Mathematik
Brückenkurs Mathematik 6.10. - 17.10. Vorlesung 3 Geometrie Doris Bohnet Universität Hamburg - Department Mathematik Mi 8.10.2008 1 Geometrie des Dreiecks 2 Vektoren Länge eines Vektors Skalarprodukt Kreuzprodukt
MehrOptimierung und Variationsrechnung
Optimierung und Variationsrechnung Hermann Schichl Sommersemester 2011 Inhalt 1 Einleitung 3 1.1 Terminologie............................... 4 2 Anwendungen 7 2.1 Optimierung der Erzeugnisse einer Firma...............
MehrOPERATIONS-RESEARCH (OR)
OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:
MehrOptimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen
Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes
MehrKapitel VI. Euklidische Geometrie
Kapitel VI. Euklidische Geometrie 1 Abstände und Lote Wiederholung aus Kapitel IV. Wir versehen R n mit dem Standard Skalarprodukt x 1 y 1.,. := x 1 y 1 +... + x n y n x n y n Es gilt für u, v, w R n und
MehrDie Taylorreihe einer Funktion
Kapitel 6 Die Taylorreihe einer Funktion Dieser Abschnitt beschäftigt sich mit Taylorreihen, Taylorpolynomen und der Restgliedabschätzung für Taylorpolynome. Die Taylorreihe einer reellen Funktion ist
Mehr3 Nichtlineare Gleichungssysteme
3 Nichtlineare Gleichungsssteme 3.1 Eine Gleichung in einer Unbekannten Problemstellung: Gegeben sei die stetige Funktion f(). Gesucht ist die Lösung der Gleichung f() = 0. f() f() a) f ( ) 0 b) f ( )
MehrMathematik für Anwender I. Beispielklausur I mit Lösungen
Fachbereich Mathematik/Informatik Prof. Dr. H. Brenner Mathematik für Anwender I Beispielklausur I mit en Dauer: Zwei volle Stunden + 10 Minuten Orientierung, in denen noch nicht geschrieben werden darf.
Mehr00. Einiges zum Vektorraum R n
00. Einiges zum Vektorraum R n In diesem einleitenden Kapitel werden die in der LV Einführung in die mathematischen Methoden erwähnten Konzepte über Vektoren (im R 2 und R 3 ) im Rahmen des n-dimensionalen
MehrMathematik für Wirtschaftswissenschaftler, WS 10/11 Musterlösungen zu Aufgabenblatt 11
Mathematik für Wirtschaftswissenschaftler, WS / Musterlösungen zu Aufgabenblatt Aufgabe 76: Bestimmen Sie mittels Gauß-Elimination die allgemeine Lösung der folgenden linearen Gleichungssysteme Ax b: a)
Mehr9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
MehrDifferentialrechnung bei Funktionen mehreren Variablen
Kap. 6 Differentialrechnung bei Funktionen mehreren Variablen Im folgenden geht es um Funktionen des Typsf :R n R X... Y =f(x,...,x n ) X n Eine Weiterentwicklung der Differentialrechnung für solche Funktionen
MehrMultivariate Analysis
Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle
Mehr2004, x 0 (e 2x + x) x 1, x > 0. Untersuchen Sie die Funktion auf Stetigkeit an der Stelle x 0 = 0!
Klausur 25.02.2004 Aufgabe 5 Gegeben ist die Funktion f(x) = 2004, x 0 (e 2x + x) x 1, x > 0. Untersuchen Sie die Funktion auf Stetigkeit an der Stelle x 0 = 0! Klausur 06.08.2003 Aufgabe 5 Gegeben ist
MehrSchranken für zulässige Lösungen
Schranken für zulässige Lösungen Satz 5.9 Gegeben seien primales und duales LP gemäß der asymmetrischen Form der Dualität. Wenn x eine zulässige Lösung des primalen Programms und u eine zulässige Lösung
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag
MehrTutorium Mathematik II, M Lösungen
Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +
MehrAufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010
Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und
MehrAnalysis II (FS 2015): Vektorfelder und Flüsse
Analysis II (FS 215): Vektorfelder und Flüsse Dietmar A. Salamon ETH-Zürich 7. April 215 1 Der Fluss eines Vektorfeldes Sei U R n eine offene Menge und sei f : U R n eine lokal Lipschitz-stetige Abbildung.
MehrMathematische Methoden in den Ingenieurwissenschaften 1. Übungsblatt
Prof Dr M Gerdts Dr A Dreves J Michael Wintertrimester 216 Mathematische Methoden in den Ingenieurwissenschaften 1 Übungsblatt Aufgabe 1 : (Schwimmer Ein Schwimmer möchte einen Fluss der Breite b > überqueren,
Mehr4 Lineare Algebra (Teil 2): Quadratische Matrizen
4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,
MehrOPTIMIERUNG I. Christian Clason. Fakultät für Mathematik Universität Duisburg-Essen
OPTIMIERUNG I Vorlesungsskript, Sommersemester 2014 Christian Clason Stand vom 1. Juli 2014 Fakultät für Mathematik Universität Duisburg-Essen INHALTSVERZEICHNIS I GRUNDLAGEN 1 theorie der linearen ungleichungen
Mehr4.7 Der Taylorsche Satz
288 4 Differenziation 4.7 Der Taylorsche Satz Die Differenzierbarkeit, also die Existenz der ersten Ableitung einer Funktion, erlaubt bekanntlich, diese Funktion lokal durch eine affine Funktion näherungsweise
MehrTaylorentwicklung von Funktionen einer Veränderlichen
Taylorentwicklung von Funktionen einer Veränderlichen 17. Januar 2013 KAPITEL 1. MATHEMATISCHE GRUNDLAGEN 1 Kapitel 1 Mathematische Grundlagen 1.1 Stetigkeit, Differenzierbarkeit und C n -Funktionen Der
Mehr4. Vektorräume und Gleichungssysteme
technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 41 und 42 4 Vektorräume
MehrLineare Gleichungssysteme (Teschl/Teschl 11.1)
Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...
MehrMaximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge)
Beispiel: Produktionsplanung Maximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge) Produktionskapazität Ressourcenmenge bei als fest angenommenem
MehrMATTHIAS GERDTS NICHTDIFFERENZIERBARE OPTIMIERUNG
MATTHIAS GERDTS NICHTDIFFERENZIERBARE OPTIMIERUNG Address of the Author: Matthias Gerdts Mathematisches Institut Universität Bayreuth D-95440 Bayreuth E-Mail: Matthias.Gerdts@uni-bayreuth.de WWW: www.staff.uni-bayreuth.de/
Mehr1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema
1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und
Mehr2. Stetige lineare Funktionale
-21-2. Stetige lineare Funktionale Die am Ende von 1 angedeutete Eigenschaft, die ein lineares Funktional T : D(ú) 6 verallgemeinerten Funktion macht, ist die Stetigkeit von T in jedem n 0 0 D(ú). Wenn
MehrOptimierung mit Matlab
Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof. Dr. L. Cromme Computerbasierte Mathematische Modellierung für Mathematiker, Wirtschaftsmathematiker, Informatiker im Wintersemester
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 4
Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 4 Hausaufgaben Aufgabe 4. Gegeben sei die Funktion f : D R mit f(x) :=
Mehr1 Zahlentheorie. 1.1 Kongruenzen
3 Zahlentheorie. Kongruenzen Der letzte Abschnitt zeigte, daß es sinnvoll ist, mit großen Zahlen möglichst einfach rechnen zu können. Oft kommt es nicht darauf, an eine Zahl im Detail zu kennen, sondern
MehrZ = 60! 29!31! 1,1 1017.
Aufgabe : Eine Hochzeitsgesellschaft besteht aus 60 Personen. a Wieviele verschiedene Möglichkeiten für Sitzordnungen gibt es? b Nehmen Sie nun an, dass 9 Gäste aus dem Familien- und Freundeskreis der
MehrKLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen)
Mathematisches Institut WS 2012/13 der Heinrich-Heine-Universität 7.02.2013 Düsseldorf Prof. Dr. Achim Schädle KLAUSUR zu Einführung in die Optimierung Bitte folgende Angaben ergänzen und DEUTLICH LESBAR
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme Sei K ein Körper, a ij K für 1 i m, 1 j n. Weiters seien b 1,..., b m K. Dann heißt a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2... a m1
MehrOptimierung. Florian Jarre Josef Stoer. Springer
2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Florian Jarre Josef Stoer Optimierung Springer Inhaltsverzeichnis
MehrLineare Optimierung. bei Prof. Walter Alt. Semester: SS 2006 und WS 2009
Lineare Optimierung bei Prof. Walter Alt Semester: SS 2006 und WS 2009 Vorwort Dieses Dokument wurde als Skript für die auf der Titelseite genannte Vorlesung erstellt und wird jetzt im Rahmen des Projekts
MehrProf. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1
Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1 Kapitel 3 Lineare Gleichungssysteme 3.1. Einleitung Beispiel 1 3 Kinder haben eingekauft. Franz hat 4 Lakritzen, 2 Schokoriegel und 5 Kaugummis
MehrMathematik II für Inf und WInf
Gruppenübung Mathematik II für Inf und WInf 8. Übung Lösungsvorschlag G 28 (Partiell aber nicht total differenzierbar) Gegeben sei die Funktion f : R 2 R mit f(x, ) := x. Zeige: f ist stetig und partiell
MehrInstitut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II. Aufgaben und Lösungen
Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II Aufgaben und Lösungen SS 2005 Aufgaben Aufgabe 41 Ein Betrieb stellt zwei Produkte P 1 und P 2 her, die die
Mehr8 Tangenten an Quadriken
8 Tangenten an Quadriken A Geraden auf Quadriken: Sei A 0 eine symmetrische n n Matri und Q : t A + b t + c = 0 eine nicht leere Quadrik im R n, b R n, c R. g = p + R v R n ist die Gerade durch p mit Richtung
MehrKommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler
Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Wintersemester 3/4 (.3.4). (a) Für z = + i und z = 3 4i berechne man z z und z z. Die Ergebnisse sind in kartesischer Form anzugeben.
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme Eines der am häufigsten auftretenden Standardprobleme der angewandten Mathematik ist das Lösen linearer Gleichungssysteme, etwa zur Netzwerkberechnung in der Elektrotechnik oder
Mehr7.2.1 Zweite partielle Ableitungen
72 72 Höhere Ableitungen 72 Höhere Ableitungen Vektorwertige Funktionen sind genau dann differenzierbar, wenn ihre Koordinatenfunktionen differenzierbar sind Es ist also keine wesentliche Einschränkung,
MehrClasspad 300 / Classpad 330 (Casio) Der Taschenrechner CAS:
Der Taschenrechner CAS: Classpad 300 / Classpad 330 (Casio) Übersicht: 1. Katalog (wichtige Funktionen und wie man sie aufruft) 2. Funktionen definieren (einspeichern mit und ohne Parameter) 3. Nullstellen
MehrKapitel 5. Stetige Funktionen 5.1. Stetigkeit
Kapitel 5. Stetige Funktionen 5.1. Stetigkeit Reelle Zahlen sind ideale Objekte, die es uns ermöglichen, eine transparente und leistungsfähige Theorie aufzubauen. Ein Computer kann jedoch nur mit Approximationen
MehrMathematik 3 für Informatik
Gunter Ochs Wintersemester 5/6 Mathematik 3 für Informatik Lösungen zum Hausaufgabenblatt Lösungshinweise ohne Garnatie auf Fehlerfreiheit c 5. Berechnen Sie die folgenden unbestimmten Integrale: a x 4
MehrÜbungen zur Linearen Optimierung Sommersemester 2011. Übungsblatt 1
Universität Heidelberg Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Graduiertenschule HGS MathComp Dr. Stefan Körkel Magdalena Gottfried Übungen zur Linearen Optimierung Sommersemester 2011
Mehr(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren
Aufgabe Gegeben seien die Punkte A(,,, B(,,, C(,,. (a Geben Sie die Hesse-Normalform der Ebene E, welche die drei Punkte A, B und C enthält, an. (b Bestimmen Sie den Abstand des Punktes P (,, 5 zur Ebene
MehrLineare Programmierung
Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in
MehrLineare Abhängigkeit
Lineare Abhängigkeit Vorbemerkung. Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung I X, i x i. I heißt dabei Indexmenge. Man verwendet dabei oft die Schreibweise (x i ) oder (x
MehrVektorräume und Rang einer Matrix
Universität Basel Wirtschaftswissenschaftliches Zentrum Vektorräume und Rang einer Matrix Dr. Thomas Zehrt Inhalt:. Lineare Unabhängigkeit 2. Vektorräume und Basen 3. Basen von R n 4. Der Rang und Rangbestimmung
Mehr4.4. Rang und Inversion einer Matrix
44 Rang und Inversion einer Matrix Der Rang einer Matrix ist die Dimension ihres Zeilenraumes also die Maximalzahl linear unabhängiger Zeilen Daß der Rang sich bei elementaren Zeilenumformungen nicht ändert
MehrOptimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg
Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei
MehrMatrizen, Determinanten, lineare Gleichungssysteme
Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n
MehrDifferenzialrechnung
Mathe Differenzialrechnung Differenzialrechnung 1. Grenzwerte von Funktionen Idee: Gegeben eine Funktion: Gesucht: y = f(x) lim f(x) = g s = Wert gegen den die Funktion streben soll (meist 0 oder ) g =
MehrDamit läßt sich die Aufgabe durch einfaches Rechnen zeigen: k=1
Aufgabe (4 Punte) Sei A eine n m-matrix Die Matrix A T ist die m n-matrix, die durch Vertauschen der Zeilen und Spalten aus A hervorgeht (dh: aus Zeilen werden Spalten, und umgeehrt) Die Matrix A T heißt
MehrLineare Programmierung Teil I
Seminar über Algorithmen Prof. Dr. Helmut Alt Lineare Programmierung Teil I Lena Schlipf, Benjamin Jankovic Lena Schlipf, Benjamin Jankovic Seminar über Algorithmen SS05 1 Struktur des Vortrags 1. Was
Mehr3. Schnittebenenverfahren
3. Schnittebenenverfahren Themen 3. Schnittebenenverfahren Ganzzahlige lineare Programmierung Schnittebenenverfahren Konstruktion von Schnittebenen Auswahl von Schnittrestriktionen Operations Research
MehrOptimierung. Nürnberg, Oktober 2015
1 Optimierung Nürnberg, Oktober 2015 Prof. Dr. Yvonne Stry Technische Hochschule Nürnberg Fakultät Angewandte Mathematik, Physik und Allgemeinwissenschaften Keßlerplatz 12 90461 Nürnberg Germany 1 Beispiel
Mehr3.3 Klassifikation quadratischer Formen auf R n
3.3. Klassifikation quadratischer Formen auf R n 61 3.3 Klassifikation quadratischer Formen auf R n Wir können den Hauptsatz über symmetrische Matrizen verwenden, um uns einen Überblick über die Lösungsmengen
Mehr