Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen

Größe: px
Ab Seite anzeigen:

Download "Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen"

Transkript

1 Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes (SOP)

2 Optimierungsprobleme mit Nebenbedingungen Allgemeine Form eines Optimierungsproblems mit Nebenbedingungen (NLP) min f (x) x s.t. h i (x) = 0, i = 1, 2,..., p; g j (x) 0, j = 1, 2,..., m. wobei f, g i, h j : R n R sind mindestens einmal differenzierbare Funktionen und x R n. Zulässigen Menge von NLP: x R n ist einer zulässige Punkt für NLP wenn h i (x) = 0, i = 1, 2,..., p und g j (x) 0, j = 1, 2,..., m. Die Menge alle zulässige Punkte von NLP ist F := { x R n h i (x) = 0, i = 1,..., p; g j (x) 0, j = 1,..., m }. bekannt als die zulässige Menge von NLP.

3 Optimierungsprobleme mit Nebenbedingungen... Manchmal ist es bequemer, die Nebenbedingungen des NLP in kompakter Form zu schreiben, wie wobei Beispiel: h(x) = 0, g(x) 0, h 1 (x) g 1 (x) h 2 (x) g 2 (x) h(x) = and g(x) =.. h p (x) g m (x) (NLP1) { } 1 min x 2 x2 1 + x 1x2 2 s.t. x 1 x = 0, x x 2 0, x 2 0.

4 Optimierungsprobleme mit Nebenbedingungen... Im Beispiel Problem NLP1 oben: es gibt nur eine Gleichungsnebenbedingung h 1 (x) = x 1 x und zwei Ungliechungsnebenbedingungen g 1 (x) = x x 2 0 und g 2 (x) = x 2 0. Beachten Sie, dass der Punkt x = (1, 1) ein zulässiger Punkt ist; während der Punkt (0, 0) nicht zulässig ist (oder unzulässig); d.h. x = (0, 0) gehört nicht in der zulässigen Menge {( ) } x1 F = R 2 x x 1 x2 2 1 = 0, x2 1 + x 2 0, x Optimale Lösung Ein Punkt x R n eine optimale Lösung des beschränkten Problems NLP genau dann, wenn (i) x ist einer zuläassige Punkt für NLP. D.h. x F und (ii) f (x) f (x ) für alle x F.

5 Optimierungsprobleme mit Nebenbedingungen... Für das Beispiel Problem NLP1, der Punkt (x ) = (1, 1) ist eine optimale Lösung. Im Allgemeinen ist es nicht einfach, eine optimale Lösung eines beschränkten Optimierungsproblems zu bestimmen. Frage: (Q1) Wie können wir überprüfen, ob ein gegebener Punkt x R n eine optimale Lösung des NLP ist? ( Diese ist etwa über Optimalitätskriterien. ) (Q2) Welche Methoden stehen zur Verfügung, um eine optimale Lösung des NLP zu finden? ( Diese ist über Berechnung von optimalen Lösungen. ) Definition (Aktive Nebenbedingungen) Sei x ein zulässiger Punkt des NLP. Eine Ungleichungsnebenbedingung g i (x) 0 ist aktiv in x wenn g i (x) = 0. Die Menge A(x) = {i {1, 2,..., m} g i (x) = 0} ist die Indexmenge der aktiven Nebenbedingungen in x.

6 Optimierungsprobleme mit Nebenbedingungen Optimalitätskriterien Für das Beispiel NLP1 Problem, die Nebenbedingung g 1 = x x 2 ist an der Stelle x = (1, 1) aktiv, während g 2 (x) = x 2 ist nicht aktiv. Daher, A = {1}. Abstiegsrichtung Ein Vektor d ist Abstiegsrichtung für die Zielfunktion f in Punkt x wenn f (x + d) f (x). Eine Bewegung vom Punkt x in Richtung d verringert die Funktion f. Jeder Vektor d mit der Eigenschaft d f (x) 0 ist eine Abstiegsrichtung. Um dies zu überprüfen, verwenden Sie Taylor-Approximation 1. Ordnung: f (x + d) f (x) + d f (x). Daraus folgt, dass f (x + d) f (x) = d f (x) 0 f (x + d) f (x) 0. Daher, f (x + d) f (x) und d ist eine Abstiegsrichtung. NB: Wenn d ein Abstiegsrichtung ist, dann d = αd, α > 0, ist auch ein Abstiegsrichtung.

7 Optimierungsprobleme mit Nebenbedingungen Optimalitätskriterien Zulässigerichtung Sei x einer Zulässigepunkt (d.h. x F) und d einer Vektor in R n. Wenn (i) h i (x + d) = 0, i = 1,..., p und (ii) g j (x + d) 0, j = 1,..., m, dann d ist eine Zulässigerichtung für das NLP. Sei x einer Zulässiger Punkt. Wenn ein Vektor d erfüllt d h i (x) = 0, i = 1,..., m und d g j (x) < 0, j A(x), dann d = αd ist eine Zulässigerichtung in x für ein α > 0. Um dies zu überprüfen, verwenden Sie die Taylor-Approximation 1. Ordnung. i = 1,..., p : h i (x + αd) h i (x) +α d h i (x); h i (x + d) = 0, } {{ } } {{ } =0 =0 j A(x) : g j (x + αd) g j (x) +α d g j (x) g j (x + d) 0; } {{ } } {{ } 0 <0 Optimierungsprobleme mit Nebenbedingungen - Einführung in j / A(x) : g j (x + αd) g j (x) +αd die Theorie, Numerische g j (x) g j (x + d) Methoden und Anwendungen 0, for 0 < α g j (x) } {{ } } {{ } d if d g j (x) > 0. g j (x) non active constraints <0

8 Optimierungsprobleme mit Nebenbedingungen Optimalitätskriterien Optimalitätskriterium Wenn x ist eine optimale Lösung des NLP, dann gibt es kein Vektor d R n das ist gleizeitg ein Abstieg Richtung für f und eine zuläassigetichtung in x ist. Das heißt, wenn x eine optimale Lösung des NLP, dann die folgende System von Ungleichungen d f (x ) < 0, d h i (x ) = 0, i = 1,..., p; d g j (x ) < 0, j A(x ) äquivalent [ f (x )] d > 0, [ h i (x ) ] d = 0, i = 1,..., p; [ g j (x )] d < 0, j A(x ) (1) besitzt keine Lösung d. Satz vn Farkas Gegeben sei einer Menge von Vektoren c, a i, b j R n, i = 1,..., m; j = 1,..., l. Dann genau nur eine der beiden folgenden Systems hat eine Lösung System I: c d > 0, a i d = 0, i = 1,..., p; b j d < 0, j = 1,..., m p l System II: c = λ i a i + µ j b j, µ > 0, λ R l. Optimierungsprobleme mit Nebenbedingungen - Einführung i=1 in die j=1theorie, Numerische Methoden und Anwendungen

9 Optimierungsprobleme mit Nebenbedingungen Optimalitätskriterien Wenn nun c = f (x ), a i = h i (x ), i = 1,..., p und b j = g j (x ), j A(x ), dann, da x ein optimaler Punkt ist, dann nur System II verfügt über ein Lösung. Wenn also x ist eine optimale Lösung des NLP, so gibt es Vektorens λ R m, λ = (λ 1, λ 2,..., λ m ) und µ R l, µ = (µ 1, µ 2,..., µ l ) > 0 so dass f (x ) = m l λ i h i (x ) + µ j g j (x ) i=1 j=1 wobei l = #A(x ). Sei nun µ j = 0 für j {1,..., m} \ A(x ), dann können wir schreiben f (x ) = m i=1 λ i h i (x ) + m j=1 µ j g j (x ).

10 Optimierungsprobleme mit Nebenbedingungen Optimalitätskriterien Die Karush-Kuhn-Tucker (KKT) Optimalitätskriterium Wenn x ist ein Minimum von NLP, dann gibt es λ inr p und µ R n, µ 0, so dass die folgenden Bedingungen gelten: f (x ) + m λ i h i (x ) + i=1 m µ j g j (x ) = 0 (Optimalität) j=1 h(x ) = 0 (zulässigkeit) g(x ) 0 (Nichtnegativitätsbedingungen) µ 0 (Komplementarität) µ j g j (x ) = 0, j = 1,..., m.

11 ... Optimalitätskriterien Die Funktion L(x, λ, µ) = f (x) + m λ i h i (x) + i=1 m µ j g j (x) j=1 ist die Lagrange-Funktion des NLP. Beispiel: Lösen Sie das folgende Optimierungsproblem: (NLP2) { min f (x) = x 2 x 1 x2 2 (2) s.t. (3) } x 1 + 2x = 0 (4) x 1 x 2 3. (5) Lösung: Lagrange Funktion L(x, λ, µ) = (x 2 1 x 2 2 ) + λ(x 1 + 2x 2 + 1) + µ(x 1 x 2 3).

12 ... Optimalitätskriterien Optimalitätsbedingungen: Zulässigkeit L = 0 2x 1 + λ + µ = 0 x 1 = 1 (λ + µ) x 1 2 (6) L = 0 2x 2 + 2λ µ = 0 x 2 = 1 (2λ µ) x 2 2 (7) h(x) = 0 x 1 + 2x = 0 1 (λ + µ) + (2λ µ) + 1 = 0 2 λ = µ 2 3 Komplementarität µg(x) = 0 µ(x 1 x 2 3) = 0 µ ( 12 (λ + µ) 12 ) (2λ µ) 3 = 0 ( µ 1 [(µ 23 ] 2 ) + µ 1 [2(µ 23 ] ) 2 ) µ 3 = 0 µ [ 32 ] µ 2 = 0 µ = 0 or µ = 4 3. µ = 4 3 < 0 ist nicht erlaubt. Daher, µ = 0 ist die einzige Möglichkeit. Damit erhalten wir λ = µ 2 3 = 2 3.

13 ... Optimalitätskriterien Nut mit µ = 0 und λ = 1 x 1 = 1 2 (λ + µ ) = 1 2 ( ) = 1 3 (8) x 2 = 1 2 (2λ µ ) = 1 2 (2 ( 2 3 ) 0) = 2 3. (9) Der Punkt x = ( 1 3, 2 3 ) ist ein Kandidat für Optimalität. beachten Sie:, dass tder Nebenbedingung g(x) = x 1 x ist nicht aktiv in x. Im Allgemeinen sind die KKT Bedingungen nur notwendigen Optimalitätsbedingungen.

14 ... Optimalitätskriterien Hinreichende Optimalitätsbedingungen Seien die Funktionen f, h i, i = 1,..., p; g j, j = 1,..., m zweimal differenzierbar und x ein zulässiger Punkt des NLP. Wenn es Lagrange-Multiplikatoren λ und µ 0 gibt, so dass: (i) die KKT Bedingungen sind für (x, µ, λ ) erfüllt; und (ii) und die Hesse-Matrix der Lagrange-Funktion p m x L(x, λ, µ ) = 2 f (x ) + λ i 2 h j (x ) + µ j 2 g j (x ) i=1 j=1 ist positiv definite (d.h. d x L(x, λ, µ )d > 0) für d aus dem Unterraum S = { d R n d h i (x ) = 0, i = 1,..., p; d g j (x ) = 0, µ j > 0, j A(x ) }, dann ist x eine optimale Lösung des NLP. Für das Problem NLP2, da g(x ) < 0 (inaktiv) haben wir ( S = {d R 2 d h(x ) = 0} = {d R 2 1 (d 1, d 2 ) = 0} = {d R 2) 2 d 1 = 2d 2 }. ( ) x L(x, λ, µ 2 0 ) =. Für d 0 2 = (d 1.d 2 ) S, d 0 (merke: wenn d 1 0, dann d 2 0 und umgekehrt.) ( 2 0 (d 1, d 2 ) 0 2 ) ( d1 ( ) Deshalb, x = 13, 2 ist eine optimale Lösung von NLP2. 3 ) ( ) ( ) 2 0 2d2 = ( 2d d 2, d 2 ) = 2d d 2 > 0. 2

15 Numerische Methoden für Optimierungsprobleme mit Nebenbedingungen Außer in sehr trivial Fälle, Lösung eines Optimierungsproblems mit Nebenbedingungen analytisch ist keine einfache Aufgabe. Deshalb derzeit gibt es mehrere numerische Methoden, um eine approximative Lösung (en) für eine beschränkte Optimierungsproblemeaufgabe zu bestimmen. Einige bekannte Gradienten-basierte Methoden sind: (I) Die sequentiell quadratische Programmierung (SQP)-Methode (II) Das Interior Point Methode (III) Straffunktion Methoden (IV) Die Augmented Lagrange Verfahren, etc Heutzutage sind SQP-basierte Algorithmen sehr beliebt für die Lösung nichtlinearen Optimierungsproblemen mit Nebenbedingungen. In der SQP-Verfahren: ausgehend von einem vorgegebenen Punkt x 0 wird eine Itarations Folge x k+1 = x k + α k d k erzeugt, in dem d k durch Lösen quadratische Optimierungsprobleme bestimmen ist.

16 Quadratische Optimierung (Programmierung) Probleme Quadratische Optimierung Probleme erscheinen in mehreren Ingenieurwissenschaftliche-Anwendungen. Einige Anwendungsgebiete: Approximationen durch Methode der kleinsten Quadrat (Regression), Filterentwurf in der Signalverarbeitung, Verbesserung der Bildschärfe und Entrauschung in der Bildbearbeitung, Optimale Entwurf Regelgrößen in der Regelungstechnik (z.b. Modellprädiktive Regelung (MPC)), im SQP-Verfahren für NLP, u.s.w.

17 Quadratische Optimierung... (I) Quadratische Programmierung Probleme mit Gleichungsnebenbedingungen (QP) min x { s.t. } f (x) = x Qx + q x (10) Ax = b, (11) wobei: Q R n n ist symmetrisch (d.h. Q = Q) und positiv definit. x R n die (unbekannte) Optimierungsvariabel; q R n ist einer vorgegebener vektor. A R m n und b R m sing vorgegeben; d.h. es gibt m Gleichungsnebenbedingungen. Rang von A: rank(a) = m.

18 Quadratische Optimierung... Die Lagrange-Funktion für (QP): Karush-Kuhn-Tucker-Bedingungen: L(x, λ) = x Qx + q x + λ (Ax b). L x = 0 Qx + A λ = q (12) L = 0 Ax = b. (13) λ Daraus folgt [ ] [ [ ] Q A x q = A 0 λ] c [ ] Q A Wenn Q ist positiv definit und rank(a) = m, dann ist invertierbar und A 0 [ [ ] x Q A = λ] 1 [ ], q A 0 c x = Q 1 q + Q 1 A ( AQ 1 A ) 1 ( b + AQ 1 q ) ( λ = AQ 1 A ) 1 ( b + AQ 1 q ).

19 Quadratische Optimierung... Beispiel: Ein Material Abfluss aus Behälter R1 und R2 fließt ins Behhälter R3. Die Fließgeschwindigkeit von R1 wird gemessen, um F1 M = 6.5m 3 /h und von R2 um F2 M = 14.7m 3 /h. Als Ergebnis dieser beiden Zuflüsse, wird die veränderung der Zuflussgeschwindigkeit ins R3 um F3 M = 19.8m 3 /h gemessen. Von der Durchflussmessgeräte entstehen jeweils Messfehler mit Standardabweichungen: σ 1 = 0.1m 3 /h, σ 2 = 0.2m 3 /h and σ 3 = 0.3m 3 /h. Formuliere ein Optimierungsproblem, um die tatsächlichen Volumenströme zu bestimmen. Lösung: Seien F 1, F 2 and F 3 die tatsächlichen Volumenströmen. Beachte, dass F i = Fi M ± η i σ i, i = 1, 2, 3; Die Größe ±η i σ i = F i Fi M stellt Messfehler. Um die Summe alle diese Messfehler zu minimieren {( ) ( ) ( F1 F1 M F2 F2 M F3 F3 M min + + (F 1,F 2,F 3 ) σ 1 σ 2 σ 3 s.t. F 1 + F 2 = F 3. )}

20 Quadratische Optimierung... Zielfunktion: 2 f (x) = 1 2 (F 1, F 2, F 3 ) σ σ 2 2 } {{ } =Q F 1 F F 3 σ3 2 ( 2 σ 1 F M 1, 2 σ 2 F M 2, 2 σ 3 F M 3 } {{ } =q [ ] F M 2 [ ] + 1 F M 2 [ ] + 2 F M σ 1 σ 2 σ 3 } {{ } =kconstant ) F 1 F 2 + F 3 Nebenbdinung: 1 1 F 1 F 2 = 0 1 F 3 } {{ } =A

21 Quadratische Optimierung... (II) Quadratische Optimierungsprobleme mit Gleichungs- und Ungleichungsnebenbedingungen (QP) { } min x f (x) = x Qx + q x (14) s.t. (15) a i x = b i, i = 1, 2,..., p (16) a i x b i, i = p + 1,..., m. (17) wobie Q symmetrisch und positiv definit. Setze A = [a 1, a 2,..., a p], a = (b 1, b 2,..., b p), B = [a p+1, a p+2,..., a m] und b = (b p+1, b p+2,..., b m) Dann (QP) kann kompakt geschrieben werden als: { } (QP) min f (x) = x Qx + q x x (18) s.t. (19) Ax = a (20) Bx b. (21) Im Allgemeinen, (QP)s mit Ungleichungsnebenbedingungen sind nicht leicht analytisch zu lösen.

22 Quadratic optimization... Active set Methode Active Set Verfahren Strategie: Start mit einem beliebigen Punkt x 0 Finde den nächsten Iterationspunkt durch x k+1 = x k + α k d k, wobei α k ist ein Schritt-Länge und d k Suchrichtung. Frage Wie bestimmt man die Suchrichtung d k? Wie ermittelt man den Schritt-Länge α k? (A) Bestimmung der Suchrichtung: An der aktuellen Iterierten x k bestimme den Indexmenge der aktiven Nebenbedingungen A k = {i a i x k b i = 0, i = p + 1,..., m} {1, 2,..., p}.

23 Quadratic optimization... Active set Methode Löse folgende (QP), um eine Suchrichtung d k zu bestimmen. { } 1 min d 2 (xk + d) Q(x k + d) + q (x k + d) s.t. a i (x k + d) = b i, i A k. Erweitern die Zielfunktion und die Nebenbedingungen 2 1 (xk + d) Q(x k + d) + q (x k + d) = 1 2 d Qd d Qx k (xk ) Qd (xk ) Qx k + q d + q x k ( ) a i x k + d = b i a i d = b i ai x k = 0. Vereinfachen diese Ausdrücke und vernachlässigen die Konstanten { 1 [ ] } min d 2 d Q + d + Qx k + q d s.t. a i d = 0, i A k. Set a 1 A = a2, i Ak.. Lösen Sie dieses Problem mit dem Hilfe der KKT Bedingungen um ein d k zu bestimmen.

24 Quadratic optimization... Active set Methode (A) Bestimmung der Schrittlänge: Sobald Sie d k bestimmt haben berechnen Sie α k durch α k = min [1, b i ai x k ] ai d k, für ai d k < 0 und i / A k

25 Nichtlineare Optimierung mit Nebenbedingungen Anwendungsbeispiel Ein Gleichstrom-Wärmetauscher mit einer gegebenen Länge ist zu entwerfen. Die Wärmeleitrohre, alle mit dem gleichen Durchmesser, werden in einer äußeren Schale mit einem Durchmesser D = 1 m eingeschlossen (siehe Abbildung). Der Durchmesser von jedem der Wärmeleitrohre darf 60 mm nicht überschreiten. Bestimmen Sie die Anzahl der Rohre und deren Durchmesser, damit die Wärmeleitfläche am größten wird.

26 Nichtlineare Optimierung mit Nebenbedingungen Lösung: Zilefunktion: Sei n die Anzhal Wärmeleitrohre. Zielfunktion Größe der Wärmeleitfläche: [ ( ) d 2 ] f (n, d) = n π 2 Nebenbdingungen: ( ) d 2 ( ) D 2 nπ π = pi (22) d 60mm = 0.06m. (23) Optimierungsaufgabe (NLP) max (n,d) {f (n, d) = π4 nd2 } s.t. π 4 nd2 π 4 d n ganzzahlig.

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag

Mehr

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz Mathematik für Bioinformatik und Systembiologie - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz WS 2009/10 Universität Freiburg Dieses Vorlesungsskript ist auf der Basis von Vorlesungen

Mehr

Mathematik 1 für Wirtschaftsinformatik

Mathematik 1 für Wirtschaftsinformatik Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration

Mehr

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

17. Penalty- und Barriere-Methoden

17. Penalty- und Barriere-Methoden H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende

Mehr

MATTHIAS GERDTS. Einführung in die lineare und nichtlineare Optimierung

MATTHIAS GERDTS. Einführung in die lineare und nichtlineare Optimierung MATTHIAS GERDTS Einführung in die lineare und nichtlineare Optimierung Address of the Author: Matthias Gerdts Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Universität

Mehr

Mathematik 2 für Wirtschaftsinformatik

Mathematik 2 für Wirtschaftsinformatik für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar

Mehr

MATTHIAS GERDTS NICHTDIFFERENZIERBARE OPTIMIERUNG

MATTHIAS GERDTS NICHTDIFFERENZIERBARE OPTIMIERUNG MATTHIAS GERDTS NICHTDIFFERENZIERBARE OPTIMIERUNG Address of the Author: Matthias Gerdts Mathematisches Institut Universität Bayreuth D-95440 Bayreuth E-Mail: Matthias.Gerdts@uni-bayreuth.de WWW: www.staff.uni-bayreuth.de/

Mehr

Nichtlineare Optimierungsprobleme mit Komplexität

Nichtlineare Optimierungsprobleme mit Komplexität Definition eines Nichtlinearen Optimierungsproblemes (NLP) min f (x) bzw. min f (x) s.d. x S x S wobei die zulässige Menge S R n typischerweise definiert ist durch S {x R n : h(x) =, c(x) } für Gleichungs-

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel

Mehr

Übungen zur Numerischen Mathematik 2 Sommersemester 2014. Übungsblatt 13

Übungen zur Numerischen Mathematik 2 Sommersemester 2014. Übungsblatt 13 Universität Heidelberg Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Prof. Dr. Dres. h.c. Hans Georg Bock Dr. Christian Kirches Dipl.-Phys. Simon Lenz Übungen zur Numerischen Mathematik 2 Sommersemester

Mehr

Eigenwerte und Eigenvektoren von Matrizen

Eigenwerte und Eigenvektoren von Matrizen Eigenwerte und Eigenvektoren von Matrizen Das Eigenwertproblem Sei A eine quadratische Matrix vom Typ m,m. Die Aufgabe, eine Zahl λ und einen dazugehörigen Vektor x zu finden, damit Ax = λx ist, nennt

Mehr

7 Rechnen mit Polynomen

7 Rechnen mit Polynomen 7 Rechnen mit Polynomen Zu Polynomfunktionen Satz. Zwei Polynomfunktionen und f : R R, x a n x n + a n 1 x n 1 + a 1 x + a 0 g : R R, x b n x n + b n 1 x n 1 + b 1 x + b 0 sind genau dann gleich, wenn

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

Mathematische Grundlagen von Optimierungsverfahren

Mathematische Grundlagen von Optimierungsverfahren Mathematische Grundlagen von Optimierungsverfahren K. Schittkowski 1 1. Einführung 1.1 Das nichtlineare Optimierungsproblem Es werden Optimierungsaufgaben betrachtet, die dadurch charakterisiert sind,

Mehr

Mathematischer Vorbereitungskurs für Ökonomen

Mathematischer Vorbereitungskurs für Ökonomen Mathematischer Vorbereitungskurs für Ökonomen Dr. Thomas Zehrt Wirtschaftswissenschaftliches Zentrum Universität Basel Gleichungen Inhalt: 1. Grundlegendes 2. Lineare Gleichungen 3. Gleichungen mit Brüchen

Mehr

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei

Mehr

Teil II Optimierung. Peter Buchholz 2016. Modellgestützte Analyse und Optimierung Kap. 9 Einführung Optimierung

Teil II Optimierung. Peter Buchholz 2016. Modellgestützte Analyse und Optimierung Kap. 9 Einführung Optimierung Teil II Optimierung Gliederung 9 Einführung, Klassifizierung und Grundlagen 10 Lineare Optimierung 11 Ganzzahlige und kombinatorische Optimierung 12 Dynamische Optimierung Literatur: zu 10-12: Neumann,

Mehr

OPERATIONS-RESEARCH (OR)

OPERATIONS-RESEARCH (OR) OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Entwurf robuster Regelungen

Entwurf robuster Regelungen Entwurf robuster Regelungen Kai Müller Hochschule Bremerhaven Institut für Automatisierungs- und Elektrotechnik z P v K Juni 25 76 5 OPTIMALE ZUSTANDSREGELUNG 5 Optimale Zustandsregelung Ein optimaler

Mehr

Multivariate Analysis

Multivariate Analysis Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle

Mehr

Lineare Algebra und analytische Geometrie II (Unterrichtsfach)

Lineare Algebra und analytische Geometrie II (Unterrichtsfach) MATHEMATISCHES INSTITUT DER UNIVERSITÄT MÜNCHEN Prof. Dr. D. Rost SS 0 Blatt.06.0 Übungen zur Vorlesung Lineare Algebra und analytische Geometrie II (Unterrichtsfach) Abgabe: Dienstag, 0. Juli 0, bis 4:00

Mehr

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.

Mehr

Modulabschlussklausur Analysis II

Modulabschlussklausur Analysis II Modulabschlussklausur Analysis II. Juli 015 Bearbeitungszeit: 150 min Aufgabe 1 [5/10 Punkte] Es sei a R und f a : R 3 R mit f a (x, y, z) = x cos(y) + z 3 sin(y) + a 3 + (z + ay a y) cos(x) a) Bestimmen

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Sei K ein Körper, a ij K für 1 i m, 1 j n. Weiters seien b 1,..., b m K. Dann heißt a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2... a m1

Mehr

PROSEMINAR ONLINE ALGORITHMEN

PROSEMINAR ONLINE ALGORITHMEN PROSEMINAR ONLINE ALGORITHMEN im Wintersemester 2000/2001 Prof. Dr. Rolf Klein, Dr. Elmar Langetepe, Dipl. Inform. Thomas Kamphans (Betreuer) Vortrag vom 15.11.2000 von Jan Schmitt Thema : Finden eines

Mehr

( ) als den Punkt mit der gleichen x-koordinate wie A und der

( ) als den Punkt mit der gleichen x-koordinate wie A und der ETH-Aufnahmeprüfung Herbst 05 Mathematik I (Analysis) Aufgabe [6 Punkte] Bestimmen Sie den Schnittwinkel α zwischen den Graphen der Funktionen f(x) x 4x + x + 5 und g(x) x x + 5 im Schnittpunkt mit der

Mehr

Effiziente Ableitungsbestimmung bei hochdimensionaler nichtlinearer Optimierung

Effiziente Ableitungsbestimmung bei hochdimensionaler nichtlinearer Optimierung Effiziente Ableitungsbestimmung bei hochdimensionaler nichtlinearer Optimierung Dissertation zur Erlangung des Doktorgrades Dr. rer. nat. der Fakultät für Mathematik an der Universität Bremen vorgelegt

Mehr

Grundlagen der Monte Carlo Simulation

Grundlagen der Monte Carlo Simulation Grundlagen der Monte Carlo Simulation 10. Dezember 2003 Peter Hofmann Inhaltsverzeichnis 1 Monte Carlo Simulation.................... 2 1.1 Problemstellung.................... 2 1.2 Lösung durch Monte

Mehr

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen 1. Quadratische Gleichungen Quadratische Gleichungen lassen sich immer auf die sog. normierte Form x 2 + px + = 0 bringen, in

Mehr

Optimierung. Florian Jarre Josef Stoer. Springer

Optimierung. Florian Jarre Josef Stoer. Springer 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Florian Jarre Josef Stoer Optimierung Springer Inhaltsverzeichnis

Mehr

1.9 Eigenwerte und Eigenvektoren

1.9 Eigenwerte und Eigenvektoren .9. EIGENWERTE UND EIGENVEKTOREN 0.9 Eigenwerte und Eigenvektoren Alles in diesem Abschnitt bezieht sich auf quadratische reelle oder komplexe n n-matrizen. Statt E n (n n-einheitsmatrix) wird kurz E geschrieben..

Mehr

3. Grundlagen der Linearen Programmierung

3. Grundlagen der Linearen Programmierung 3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

Übungen zur Linearen Optimierung Sommersemester 2011. Übungsblatt 1

Übungen zur Linearen Optimierung Sommersemester 2011. Übungsblatt 1 Universität Heidelberg Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Graduiertenschule HGS MathComp Dr. Stefan Körkel Magdalena Gottfried Übungen zur Linearen Optimierung Sommersemester 2011

Mehr

A Matrix-Algebra. A.1 Definition und elementare Operationen

A Matrix-Algebra. A.1 Definition und elementare Operationen A Matrix-Algebra In diesem Anhang geben wir eine kompakte Einführung in die Matrizenrechnung bzw Matrix-Algebra Eine leicht lesbare Einführung mit sehr vielen Beispielen bietet die Einführung in die Moderne

Mehr

(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren

(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren Aufgabe Gegeben seien die Punkte A(,,, B(,,, C(,,. (a Geben Sie die Hesse-Normalform der Ebene E, welche die drei Punkte A, B und C enthält, an. (b Bestimmen Sie den Abstand des Punktes P (,, 5 zur Ebene

Mehr

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen.

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. 13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. Sie heißt linear, wenn sie die Form y (n) + a n 1 y (n 1)

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra

Mehr

Motivation. Jede Messung ist mit einem sogenannten Fehler behaftet, d.h. einer Messungenauigkeit

Motivation. Jede Messung ist mit einem sogenannten Fehler behaftet, d.h. einer Messungenauigkeit Fehlerrechnung Inhalt: 1. Motivation 2. Was sind Messfehler, statistische und systematische 3. Verteilung statistischer Fehler 4. Fehlerfortpflanzung 5. Graphische Auswertung und lineare Regression 6.

Mehr

1 Konvexe Funktionen. 1.1 Definition. 1.2 Bedingung 1.Ordnung. Konvexität und Operationen, die die Konvexität bewahren Seite 1

1 Konvexe Funktionen. 1.1 Definition. 1.2 Bedingung 1.Ordnung. Konvexität und Operationen, die die Konvexität bewahren Seite 1 Konvexität und Operationen, die die Konvexität bewahren Seite 1 1 Konvexe Funktionen 1.1 Definition Eine Funktion f heißt konvex, wenn domf eine konvexe Menge ist und x,y domf und 0 θ 1: f(θx + (1 θ)y)

Mehr

Differentialrechnung bei Funktionen mehreren Variablen

Differentialrechnung bei Funktionen mehreren Variablen Kap. 6 Differentialrechnung bei Funktionen mehreren Variablen Im folgenden geht es um Funktionen des Typsf :R n R X... Y =f(x,...,x n ) X n Eine Weiterentwicklung der Differentialrechnung für solche Funktionen

Mehr

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Prof. Dr. Volker Schulz Universität Trier / FB IV / Abt. Mathematik 8. November 2010 http://www.mathematik.uni-trier.de/ schulz/elan-ws1011.html

Mehr

Höhere Mathematik III für Wirtschaftsinformatiker

Höhere Mathematik III für Wirtschaftsinformatiker TU Ilmenau Institut für Mathematik Prof. Dr. S. Vogel Höhere Mathematik III für Wirtschaftsinformatiker Funktionen von mehreren Variablen. Grenzwerte und Stetigkeit Betrachtet werden Funktionen f : D f

Mehr

Optimierung und Variationsrechnung

Optimierung und Variationsrechnung Optimierung und Variationsrechnung Hermann Schichl Sommersemester 2011 Inhalt 1 Einleitung 3 1.1 Terminologie............................... 4 2 Anwendungen 7 2.1 Optimierung der Erzeugnisse einer Firma...............

Mehr

10 Extremwerte mit Nebenbedingungen

10 Extremwerte mit Nebenbedingungen 10 Extremwerte mit Nebenbedingungen 49 10 Extremwerte mit Nebenbedingungen Wir betrachten nun Extremwertaufgaben, bei denen nach dem Extremwert einer fx 1,, x n gesucht wird, aber die Menge der zulässigen

Mehr

Gleichungen und Ungleichungen

Gleichungen und Ungleichungen Gleichungen Ungleichungen. Lineare Gleichungen Sei die Gleichung ax = b gegeben, wobei x die Unbekannte ist a, b reelle Zahlen sind. Diese Gleichung hat als Lösung die einzige reelle Zahl x = b, falls

Mehr

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist. Matrizennorm Es seien r,s N Mit M r,s (R bezeichnen wir die Menge der reellen r s- Matrizen (also der linearen Abbildungen R s R r, und setze M s (R := M s,s (R (also die Menge der linearen Abbildungen

Mehr

Optimal Control in Air Traffic Management

Optimal Control in Air Traffic Management Optimal Control in Air Traffic Management DGLR Workshop Bestimmung optimaler Trajektorien im Air Traffic Management 23.04.2013 Deutsche Flugsicherung GmbH, Langen 23.04.2013 1 Inhalt. Hintergrund und Motivation.

Mehr

Höhere Mathematik III WS 05/06 Lösungshinweis Aufgabe G 11 Blatt 2

Höhere Mathematik III WS 05/06 Lösungshinweis Aufgabe G 11 Blatt 2 Höhere Mathematik III WS 5/6 Lösungshinweis Aufgabe G 11 Blatt Die zu optimierende Zielfunktion ist der Abstand zum Ursprung. Ein bekannter Trick (Vereinfachung der Rechnung) besteht darin, das Quadrat

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

Extremwertaufgaben. 3. Beziehung zwischen den Variablen in Form einer Gleichung aufstellen (Nebenbedingung),

Extremwertaufgaben. 3. Beziehung zwischen den Variablen in Form einer Gleichung aufstellen (Nebenbedingung), Extremwertaufgaben x. Ein Landwirt will an einer Mauer einen rechteckigen Hühnerhof mit Maschendraht abgrenzen. 0 Meter Maschendraht stehen zur Verfügung. Wie groß müssen die Rechteckseiten gewählt werden,

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

Numerische Verfahren zur Lösung nichtlinearer Gleichungen

Numerische Verfahren zur Lösung nichtlinearer Gleichungen Kapitel 2 Numerische Verfahren zur Lösung nichtlinearer Gleichungen 21 Aufgabenstellung und Motivation Ist f eine in einem abgeschlossenen Intervall I = [a, b] stetige und reellwertige Funktion, so heißt

Mehr

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte 50. Mathematik-Olympiade. Stufe (Regionalrunde) Klasse 3 Lösungen c 00 Aufgabenausschuss des Mathematik-Olympiaden e.v. www.mathematik-olympiaden.de. Alle Rechte vorbehalten. 503 Lösung 0 Punkte Es seien

Mehr

a n := ( 1) n 3n2 + 5 2n 2. a n := 5n4 + 2n 2 2n 3 + 3 10n + 1. a n := 1 3 + 1 2n 5n 2 n 2 + 7n + 8 b n := ( 1) n

a n := ( 1) n 3n2 + 5 2n 2. a n := 5n4 + 2n 2 2n 3 + 3 10n + 1. a n := 1 3 + 1 2n 5n 2 n 2 + 7n + 8 b n := ( 1) n Folgen und Reihen. Beweisen Sie die Beschränktheit der Folge (a n ) n N mit 2. Berechnen Sie den Grenzwert der Folge (a n ) n N mit a n := ( ) n 3n2 + 5 2n 2. a n := 5n4 + 2n 2 2n 3 + 3 n +. 4 3. Untersuchen

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

4. Dynamische Optimierung

4. Dynamische Optimierung 4. Dynamische Optimierung Allgemeine Form dynamischer Optimierungsprobleme 4. Dynamische Optimierung Die dynamische Optimierung (DO) betrachtet Entscheidungsprobleme als eine Folge voneinander abhängiger

Mehr

8. Quadratische Reste. Reziprozitätsgesetz

8. Quadratische Reste. Reziprozitätsgesetz O Forster: Prizahlen 8 Quadratische Reste Rezirozitätsgesetz 81 Definition Sei eine natürliche Zahl 2 Eine ganze Zahl a heißt uadratischer Rest odulo (Abkürzung QR, falls die Kongruenz x 2 a od eine Lösung

Mehr

Definition. Fibonacci-Zahlen als Beispiel Für f = (f n ) n 0 = (0, 1, 1, 2, 3, 5, 8, 13, 21, 34,...) gilt Rekursion. Matrix-Formulierung. c 2.

Definition. Fibonacci-Zahlen als Beispiel Für f = (f n ) n 0 = (0, 1, 1, 2, 3, 5, 8, 13, 21, 34,...) gilt Rekursion. Matrix-Formulierung. c 2. Fibonacci-Zahlen als Beispiel Für f = (f n ) = (0,,, 2, 3, 5, 8, 3, 2, 34,...) gilt Rekursion erzeugende Funktion f n2 = f n f n (n 0), f 0 = 0, f = f(z) = f n z n = z z z 2 Partialbruchzerlegung mit φ

Mehr

Statische Optimierung unter Gleichungsrestriktionen (Lagrange)

Statische Optimierung unter Gleichungsrestriktionen (Lagrange) Kapitel 2 Statische Optimierung unter Gleichungsrestriktionen (Lagrange) 21 Einleitung/Ziel/Bedeutung/Übersicht Viele ökonomischen Fragestellungen bestehen im Kern zwar aus einem statischen Optimierungsproblem,

Mehr

Das Markowitz Modell zur Bestimmung optimaler Aktienportfolios

Das Markowitz Modell zur Bestimmung optimaler Aktienportfolios Das Markowitz Modell zur Bestimmung optimaler Aktienportfolios Frank Oertel Departement T Mathematik und Physik Zürcher Hochschule Winterthur (ZHW) CH 840 Winterthur 8. Februar 200 Zielsetzung und Modellansätze

Mehr

Robotik-Praktikum: Ballwurf mit dem Roboterarm Lynx6 Modellbeschreibung. Julia Ziegler, Jan Krieger

Robotik-Praktikum: Ballwurf mit dem Roboterarm Lynx6 Modellbeschreibung. Julia Ziegler, Jan Krieger Robotik-Praktikum: Ballwurf mit dem Roboterarm Lynx6 Modellbeschreibung Julia Ziegler, Jan Krieger Modell zur Optimierung Doppelpendel-Modell Zur Optimierung einer Wurfbewegung wurde ein physikalisches

Mehr

Man kann zeigen (durch Einsetzen: s. Aufgabenblatt, Aufgabe 3a): Die Lösungsgesamtheit von (**) ist also in diesem Fall

Man kann zeigen (durch Einsetzen: s. Aufgabenblatt, Aufgabe 3a): Die Lösungsgesamtheit von (**) ist also in diesem Fall 4. Lösung einer Differentialgleichung. Ordnung mit konstanten Koeffizienten a) Homogene Differentialgleichungen y'' + a y' + b y = 0 (**) Ansatz: y = e µx, also y' = µ e µx und y'' = µ e µx eingesetzt

Mehr

Mathematische Optimierung. Volker John

Mathematische Optimierung. Volker John Mathematische Optimierung Volker John Sommersemester 2007 Inhaltsverzeichnis 1 Einführung 3 I Lineare Optimierung 6 1 Grundlagen 7 2 Geometrische Deutung des Linearen Programms 10 3 Basislösungen eines

Mehr

Stackelberg Scheduling Strategien

Stackelberg Scheduling Strategien Stackelberg Scheduling Strategien Von Tim Roughgarden Präsentiert von Matthias Ernst Inhaltsübersicht Einleitung Vorbetrachtungen Stackelberg Strategien Ergebnisse Seminar Algorithmische Spieltheorie:

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Eines der am häufigsten auftretenden Standardprobleme der angewandten Mathematik ist das Lösen linearer Gleichungssysteme, etwa zur Netzwerkberechnung in der Elektrotechnik oder

Mehr

Inhaltsverzeichnis. 4 Lagrange-Funktion und Dualität... 63 4.1 Lagrange-FunktionmitGleichheitsrestriktionen... 63

Inhaltsverzeichnis. 4 Lagrange-Funktion und Dualität... 63 4.1 Lagrange-FunktionmitGleichheitsrestriktionen... 63 1 Einleitung... 1 1.1 Optimierungstypen.............................................. 3 1.2 Motivation und Grundbegriffe der Optimierung........................... 4 1.3 Allgemeine Form des Optimierungsproblems............................

Mehr

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum. Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit

Mehr

Vorlesung Optimierung I WS11/12

Vorlesung Optimierung I WS11/12 Vorlesung Optimierung I WS11/12 Karsten Eppler, TU Dresden, Institut für Numerische Mathematik, Zellescher Weg 12 14, 01062 Dresden Ausgearbeitet: Oktober 2011 - Januar 2012 Inhaltsverzeichnis 1 Einführung

Mehr

Kapitel 15. Lösung linearer Gleichungssysteme

Kapitel 15. Lösung linearer Gleichungssysteme Kapitel 15. Lösung linearer Gleichungssysteme Lineare Gleichungssysteme Wir befassen uns nun mit der Lösung im allgemeinen nichthomogener linearer Gleichungssysteme in zweifacher Hinsicht. Wir studieren

Mehr

Mathematik-Klausur vom 05.10.2011 Finanzmathematik-Klausur vom 26.09.2011

Mathematik-Klausur vom 05.10.2011 Finanzmathematik-Klausur vom 26.09.2011 Mathematik-Klausur vom 05.10.2011 Finanzmathematik-Klausur vom 26.09.2011 Studiengang BWL DPO 2003: Aufgaben 2,3,4 Dauer der Klausur: 60 Min Studiengang B&FI DPO 2003: Aufgaben 2,3,4 Dauer der Klausur:

Mehr

MATHEMATISCHER FITNESSTEST - LÖSUNGEN. (2) Welche Menge stellt die schraerte Fläche dar?

MATHEMATISCHER FITNESSTEST - LÖSUNGEN. (2) Welche Menge stellt die schraerte Fläche dar? MATHEMATISCHER FITNESSTEST - LÖSUNGEN DR. ROGER ROBYR Die Aufgaben sollten alle ohne Unterlagen und ohne programmierbare oder graphikfähige Rechner gelöst werden können. Lösung. ) Gegeben sind die Mengen

Mehr

Grundkurs Mathematische Optimierung (für mathematische Studiengänge) Prof. Dr. Beer

Grundkurs Mathematische Optimierung (für mathematische Studiengänge) Prof. Dr. Beer Grundkurs Mathematische Optimierung (für mathematische Studiengänge) Prof. Dr. Beer Literaturverzeichnis [1] Elster, Reinhardt, Schäuble, Donath: Einführung in die nichtlineare Optimierung, Teubner-Verlag,

Mehr

!(0) + o 1("). Es ist damit möglich, dass mehrere Familien geschlossener Orbits gleichzeitig abzweigen.

!(0) + o 1(). Es ist damit möglich, dass mehrere Familien geschlossener Orbits gleichzeitig abzweigen. Bifurkationen an geschlossenen Orbits 5.4 167 der Schnittabbldung konstruiert. Die Periode T (") der zugehörigen periodischen Lösungen ergibt sich aus =! + o 1 (") beziehungsweise Es ist also t 0 = T (")

Mehr

6.2 Scan-Konvertierung (Scan Conversion)

6.2 Scan-Konvertierung (Scan Conversion) 6.2 Scan-Konvertierung (Scan Conversion) Scan-Konvertierung ist die Rasterung von einfachen Objekten (Geraden, Kreisen, Kurven). Als Ausgabemedium dient meist der Bildschirm, der aus einem Pixelraster

Mehr

Approximationsalgorithmen

Approximationsalgorithmen Makespan-Scheduling Kapitel 4: Approximationsalgorithmen (dritter Teil) (weitere Beispiele und Illustrationen an der Tafel) Hilfreiche Literatur: Vazarani: Approximation Algorithms, Springer Verlag, 2001.

Mehr

Das Optimierungsverfahren mit Lagrange-Multiplikatoren. Robert Koschig (www.massmatics.de), 09/2012

Das Optimierungsverfahren mit Lagrange-Multiplikatoren. Robert Koschig (www.massmatics.de), 09/2012 Das Optimierungsverfahren mit Lagrange-Multiplikatoren Robert Koschig www.massmatics.de, 9/ Inhaltsverzeichnis Motivation. Wo taucht so etwas auf?...................................... Was ist das Problem?......................................

Mehr

Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b

Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b Aufgabe 1: Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. (a) Nehmen Sie lineares Wachstum gemäß z(t) = at + b an, wobei z die Einwohnerzahl ist und

Mehr

Dokumentation zum Projekt Multimediale Lehre Fluidmechanik an der Technischen Universität Graz

Dokumentation zum Projekt Multimediale Lehre Fluidmechanik an der Technischen Universität Graz Dokumentation zum Projekt Multimediale Lehre Fluidmechanik an der Technischen Universität Graz Andreas Aigner email: andreasa@sbox.tu-graz.ac.at. Januar 00 Inhaltsverzeichnis Theorie. Stromfunktion...........................

Mehr

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz Optimale Steuerung Kevin Sieg Fachbereich für Mathematik und Statistik Universität Konstanz 14. Juli 2010 1 / 29 Aufgabenstellung 1 Aufgabenstellung Aufgabenstellung 2 Die zusammengesetzte Trapezregel

Mehr

Outer Approximation für konvexe MINLP-Probleme

Outer Approximation für konvexe MINLP-Probleme Outer Approximation für konvexe MINLP-Probleme im Rahmen des Sears Globale Optimierung unter Leitung von Dr. Johannes Schlöder und Dr. Ekaterina Kostina, Sommersemester 2005, Universität Heidelberg Hans

Mehr

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über Güte von s Grundlegendes zum Konzept der Güte Ableitung der Gütefunktion des Gauss im Einstichprobenproblem Grafische Darstellung der Gütefunktionen des Gauss im Einstichprobenproblem Ableitung der Gütefunktion

Mehr

Weiterbildung für Ingenieure Numerische Methoden für Differentialgleichungen Prinzipien und Praxis Taubert, Heitmann Universität Hamburg WS03/04

Weiterbildung für Ingenieure Numerische Methoden für Differentialgleichungen Prinzipien und Praxis Taubert, Heitmann Universität Hamburg WS03/04 Weiterbildung für Ingenieure Numerische Methoden für Differentialgleichungen Prinzipien und Praxis Taubert, Heitmann Universität Hamburg WS03/04 Linearisierung 1 K. Taubert LINEARISIERUNG und das VERHALTEN

Mehr

OPTIMIERUNG I. Christian Clason. Fakultät für Mathematik Universität Duisburg-Essen

OPTIMIERUNG I. Christian Clason. Fakultät für Mathematik Universität Duisburg-Essen OPTIMIERUNG I Vorlesungsskript, Sommersemester 2014 Christian Clason Stand vom 1. Juli 2014 Fakultät für Mathematik Universität Duisburg-Essen INHALTSVERZEICHNIS I GRUNDLAGEN 1 theorie der linearen ungleichungen

Mehr

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u.

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u. Universität Stuttgart Fachbereich Mathematik Prof. Dr. C. Hesse PD Dr. P. H. Lesky Dipl. Math. D. Zimmermann Msc. J. Köllner FAQ 3 Höhere Mathematik I 4..03 el, kyb, mecha, phys Vektorräume Vektorräume

Mehr

Gegeben ist die Funktion f durch. Ihr Schaubild sei K.

Gegeben ist die Funktion f durch. Ihr Schaubild sei K. Aufgabe I 1 Gegeben ist die Funktion f durch. Ihr Schaubild sei K. a) Geben Sie die maximale Definitionsmenge D f an. Untersuchen Sie K auf gemeinsame Punkte mit der x-achse. Bestimmen Sie die Intervalle,

Mehr

Mathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14. Auswahl vorausgesetzter Vorkenntnisse

Mathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14. Auswahl vorausgesetzter Vorkenntnisse UNIVERSITÄT DES SAARLANDES FACHRICHTUNG 6.1 MATHEMATIK Dipl.-Math. Kevin Everard Mathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14 Auswahl vorausgesetzter Vorkenntnisse

Mehr

Mathematische Optimierung

Mathematische Optimierung Mathematische Optimierung Geschrieben von Jan Pöschko auf Grundlage der Vorlesung von Bettina Klinz TU Graz Sommersemester 2007 Stand: 27. Oktober 2009 Inhaltsverzeichnis I Lineare Optimierung 7 1 Grundlegende

Mehr

UNIVERSITÄT DORTMUND FACHBEREICH INFORMATIK

UNIVERSITÄT DORTMUND FACHBEREICH INFORMATIK UNIVERSITÄT DORTMUND FACHBEREICH INFORMATIK Thomas Fober Experimentelle Analyse Evolutionärer Algorithmen auf dem CEC 2005 Testfunktionensatz Diplomarbeit 01.07.2006 I N T E R N E B E R I C H T E I N T

Mehr

Operations Research für Logistik

Operations Research für Logistik Operations Research für Logistik Lineare Optimierung (170.202) Ao. Univ. - Prof. Norbert SEIFTER Dipl. - Ing. Stefanie VOLLAND Sommersemester 2012 Lehrstuhl Industrielogistik Lineare Optimierung Inhalte:

Mehr

Gleichungen - Aufgabenstellung und Lösungsstrategien

Gleichungen - Aufgabenstellung und Lösungsstrategien Gleichungen - Aufgabenstellung und Lösungsstrategien Franz Pauer Institut für Mathematik, Universität Innsbruck, Technikerstr. 25, A-6020 Innsbruck, Österreich. Franz.Pauer@uibk.ac.at 18. Juli 2006 1 Einleitung

Mehr

Anwendung der Theorie von Gauß Shift Experimenten auf den Kolmogorov Smirnov Test und das einseitige Boundary Crossing Problem

Anwendung der Theorie von Gauß Shift Experimenten auf den Kolmogorov Smirnov Test und das einseitige Boundary Crossing Problem Anwendung der Theorie von Gauß Shift Experimenten auf den Kolmogorov Smirnov Test und das einseitige Boundary Crossing Problem Inauguraldissertation zur Erlangung des Doktorgrades der Mathematisch Naturwissenschaftlichen

Mehr

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr