Technische Universität München. Grundlagen der konvexen Optimierung

Größe: px
Ab Seite anzeigen:

Download "Technische Universität München. Grundlagen der konvexen Optimierung"

Transkript

1 Technische Universität München Fakultät für Mathematik Lehrstuhl für Mathematische Optimierung Grundlagen der konveen Optimierung Michael Ulbrich April 2012

2

3 Gliederung der Vorlesung 1. Einführung Konvee Analysis 2. Grundlagen 3. Konvee Funktionen 4. Metrische Projektion und Trennungssätze 5. Stützfunktional und Normalkegel 6. Minimaldarstellungen konveer Mengen 7. Subdifferential konveer Funktionen Lineare Optimierung 8. Grundlagen der linearen Optimierung 9. Dualität 10. Duales Simpleverfahren 11. Revidiertes Simpleverfahren 12. Kompleitätsbetrachtungen und weitere Verfahren

4

5 M. Ulbrich: Grundlagen der konveen Optimierung 1 1 Problemstellung und Beispiele 1.1 Einführung Konvee Optimierungsprobleme sowie die zugrundeliegenden Begriffe der konveen Analysis bilden den Inhalt dieser Vorlesung. Der Begriff der Konveität von Mengen und Funktionen ist sowohl im Hinblick auf geometrische Aspekte als auch in Bezug auf das Berechnen globaler Lösungen von Minimierungsproblemen von zentraler Bedeutung. Ein Fokus dieser Vorlesung wird auf linearen Optimierungsproblemen liegen, für die eine sehr vollständige und abgerundete Theorie und Numerik eistiert, aus der sich viele grundlegende Einblicke in die konvee Analysis und die konvee Optimierung bieten. Wir wiederholen zunächst den Begriff der Konveität Definition Die Menge X R n heißt konve, wenn gilt: (1 λ) + λy X, y X, λ [0, 1]. 2. Die Funktion f : X R heißt konve auf der konveen Menge X R n, wenn gilt: f((1 λ) + λy) (1 λ)f() + λf(y), y X, λ [0, 1]. 3. Die Funktion f : X R heißt konkav auf der konveen Menge X R n, wenn f auf X konve ist, d.h. wenn gilt: f((1 λ) + λy) (1 λ)f() + λf(y), y X, λ [0, 1]. Im Folgenden heben wir einige wichtige Aspekte der konveen Optimierung, mit denen wir uns beschäftigen werden, kurz hervor: Notwendige und zugleich hinreichende Bedingungen für globale Minima einer konveen Funktion f : X R auf einer abgeschlossenen konveen Menge X R n : f() u.d.n. X. Rn Hierbei spielt eine wichtige Rolle, dass die Richtungsableitung konveer Funktionen stets eistiert und dass der Tangentialkegel einer konveen Menge der Abschluss der Menge aller zulässigen Richtungen ist. Eistenz einer eindeutigen Projektionsabbildung P : R n X, P () 2 y 2 y X, auf die konvee, abgeschlossene, nichtleere Menge X R n.

6 2 Trennung disjunkter konveer Mengen X 1, X 2 durch eine Hyperebene H(a, b) := { R n ; a T = b }, a R n \ {0}, b R, d.h. X 1 H (a, b) und X 2 H + (a.b) mit den Halbräumen H (a, b) := { R n ; a T b }, a R n \ {0}, b R, (1) H + (a, b) := { R n ; a T b }, a R n \ {0}, b R. (2) Hier besteht eine enge Verbindung zur Projektionsabbildung, denn die Normale a einer Hyperebene H(a, b), die die abgeschlossene konvee Menge X und den Punkt / X trennt (also X 1 = X, X 2 = {}), lässt sich durch a := P () bestimmen. Es eistieren reichhaltige Dualitätsbeziehungen. Einige Beispiele: a) f : X R ist konve genau dann, wenn der Epigraph {( ) } epi(f) := ; X, y R, f() y y konve ist. R n+1 b) Eine abgeschlossene Menge X R n ist konve genau dann, wenn sie als Durchschnitt der sie enthaltenden Halbräume H (a, b) X geschrieben werden kann: X = H (a, b). c) Zu Optimierungsproblemen der Form X H (a,b) f() u.d.n. g i () 0 (1 i m), h j () = 0 (1 j p), X 0 mit f, g i, h j : X 0 R und X 0 R n kann stets ein duales Optimierungsproblem angegeben werden, das ein konkaves Maimierungsproblem und somit äquivalent zu einem konveen Minimierungsproblem ist. Dieses ist eng verknüpft mit dem Ausgangsproblem (Primalproblem) und liefert insbesondere Unterschranken für den Optimalwert des Primalproblems. Ist das Primalproblem konve, dann ist unter sehr allgemeinen Voraussetzungen das Dualproblem äquivalent zum Problemproblem in dem Sinne, dass sich Lösungen des Primalproblem aus Lösungen des Dualproblems berechnen lassen. Eine zentrale Rolle spielt das lineare Optimierungsproblem (linear program, LP), dessen allgemeine Form wie folgt aussieht: c T u.d.n. A b, D = e mit c R n, A R m n, b R m, D R p n, e R p. Hierbei ist A b komponentenweise gemeint. Wie wir sehen werden, lässt sich für das LP eine sehr runde und vollständige Theorie und Numerik entwickeln.

7 M. Ulbrich: Grundlagen der konveen Optimierung 3 Die konvee Analysis ermöglicht eine elegante und vollständige Behandlung nichtglatter (d.h. nicht überall differenzierbarer) Funktionen und Optimierungsprobleme. 1.2 Beispiele Standardform konveer Optimierungsprobleme Sehr häufig hat der zulässige Bereich die Form Seien g i : R n R konve, 1 i m, dann ist die Menge X = { R n ; g() 0, h() = 0, X 0 } mit X 0 R n und Funktionen g : X 0 R m und h : X 0 R p. Hierbei ist g() 0 komponentenweise gemeint. Wie man unmittelbar nachprüft ist dann X konve, falls folgendes gilt: X 0 konve. g i : X 0 R konve, 1 i m, h : X 0 R p linear, d.h. h() = D + e, X 0, mit D R p n, e R p Produktionsplanung Wir betrachten die Produktionsplanung einer Fabrik, die zwei Produkte P 1 und P 2 herstellt. Hierzu werden pro hergestellter Einheit produktabhängige Mengen zweier Materialien M 1 und M 2 sowie Herstellungs- und Maschinenbearbeitungszeiten benötigt. Die Produktionsbedingungen ergeben sich aus der folgenden Tabelle. P 1 P 2 verfügbar Herstellungszeit [] Maschinenbearbeitungszeit [] Bedarf Material M Bedarf Material M Reingewinn [Euro] Unter der Annahme, dass keine Absatzschwierigkeiten bestehen, soll berechnet werden, wieviele Einheiten der beiden Produkttypen hergestellt werden müssen, damit der Gewinn optimal wird, natürlich unter Einhaltung obiger Restriktionen. Mathematische Formulierung: Sei 1 die Menge der produzierten Einheiten von P 1, 2 die Menge der produzierten Einheiten von P 2.

8 4 Dann lauten die Produktionsbedingungen: (i) (ii) (iii) (iv) 1 0 (v) 2 0 (vi) Gesucht sind Zahlen ( 1, 2 ), die diesen Ungleichungen genügen und den Gewinn f( 1, 2 ) := maimieren. Es handelt sich hier um ein lineares Optimierungsproblem (die Lösung ist 1 = 80, 2 = 300) L - und L 1 -Approimation Wir betrachten Approimationsprobleme der folgenden Form: mit 1 p, A b p v = ma 1 i m v i, v p = ( m ) 1/p v i p i=1 (1 p < ). Hierbei geht es darum, ein überbestimmtes oder inkompatibles lineares Gleichungssystem A = b, A R m n, Rang A = n, b R m, das üblicherweise keine Lösung besitzt, falls m > n gilt, mit kleinstem L p -Residuum zu lösen. Zunächst stellen wir fest, dass für jede beliebige Norm auf R m die Funktion f() := A b wegen der Dreiecksungleichung konve ist: Für alle, y R n und alle λ [0, 1] gilt A[(1 λ) + λy] b = (1 λ)(a b) + λ(ay b) (1 λ)(a b) + λ(ay b) = (1 λ) A b + λ Ay b. Zudem sind alle Normen bei v = 0 nicht differenzierbar. Denn für beliebiges festes w R m \ {0} ist die Funktion φ(t) := tw = t w, t R,

9 M. Ulbrich: Grundlagen der konveen Optimierung 5 bei t = 0 nicht differenzierbar. Manche Normen, insbesondere 1 und, sind auch an anderen Stellen als v = 0 nicht differenzierbar. In der Numerik bilden lineare Kleinste-Quadrate-Probleme, d.h. der Fall p = 2, A b 2, eine wichtige Problemklasse. Beim Kleinste-Quadrate-Problem kann man durch Quadrieren der zunächst nichtdifferenzierbaren Zielfunktion A b 2 erreichen, dass die Zielfunktion konve und quadratisch (und somit insbesondere C ) wird: A b 2 2 = (A b) T (A b) = b T b 2b T A + T A T A. In manchen Anwendungen ist es aber günstiger, mit den Normen oder 1 zu arbeiten: m v = ma v i, v 1 = v i. 1 i m Wir erhalten im ersten Fall i=1 A b, (3) d.h. gesucht ist hier ein, für das der maimale Defekt aller Gleichungen imal ist. Der im Fall p = 2 verwendete Trick des Quadrierens würde bei den Normen und 1 zwar die Nichtdifferenzierbarkeit bei 0 beseitigen, aber nicht an anderen Stellen. Man muss daher mit der Nichtglattheit leben. Als Alternative kann jedoch die folgende äquivalente Formulierung von (3) vorgenommen werden: u.d.n. at i t b i, a T i t b i (i i m) (4) t R, R n Dies ist ein lineares Programm und kann somit effizient gelöst werden. Der Konstruktion liegt zugrunde, dass das i-te Nebenbedingungspaar offensichtlich äquivalent ist zu a T i b i t. Alle Nebenbedingungen zusammen sind daher äquivalent zu Wir zeigen nun: A b t. 1. Ist eine Lösung von (3) und setzen wir t = A b, so ist ( t, ) eine Lösung von (4). 2. Ist ( t, ) eine Lösung von (4), so ist eine Lösung von (3) und es gilt t = A b.

10 6 Zum Nachweis von 1. stellen wir zunächst fest, dass ( t, ) nach Wahl von t zulässig für (4) ist. Ist nun (t, ) ein beliebiger weiterer zulässiger Punkt, dann gilt t A b A b = t. Damit ist ( t, ) eine optimale Lösung von (4). Zum Nachweis von 2. sei umgekehrt ( t, ) eine optimale Lösung von (4). Ist dann R n beliebig und setzen wir t := A b, dann ist (t, ) ebenfalls zulässig und wir erhalten A b = t t A b. Somit ist Lösung von (3). Für die spezielle Wahl = folgt A b t A b. Mit der Theorie zur linearen Optimierung, die wir später entwickeln werden, lässt sich zeigen, dass das LP (4) eine optimale Ecke ( t, ) besitzt. In dieser sind destens so viele Nebenbedingungen aktiv (d.h. mit = erfüllt), wie das Problem Variablen hat, also destens n + 1. Daraus folgt, dass a T i b i = A b für destens n + 1 Indizes 1 i m gilt. Der Spielraum [ t, t] mit t = A b wird also von destens n + 1 Zeilen von A b voll ausgeschöpft. Man kann auf ähnliche Weise auch das L 1 -Approimationsproblem A b 1 als LP reformulieren (Übung). L 1 -imale Vektoren haben die Tendenz, dünn besetzt zu sein. Dies kann man ebenfalls durch LP-Theorie begründen, denn die gängige Reformulierung hat m + n Variablen und 2m Nebenbedingungen: a T i b i t i, a T i + b i t i, 1 i m. In einer optimalen Ecke sind destens m + n Nebenbedingungen aktiv. Daraus folgt, dass es destens n Indizes i gibt mit a T i b i = t i = 0. Der Residuenvektor A b ist also in destens n Komponenten gleich Null. Man sieht am Beispiel der L 1 - und L -Approimation, dass häufig mehr als eine Formulierung desselben Problems eistiert und dass Nichtglattheiten manchmal durch Nebenbedingungen beseitigt werden können. Umgekehrt kann man häufig Nebenbedingungen in Form von nichtglatten Termen in die Zielfunktion aufnehmen und dadurch beseitigen (eakte Penalisierung) Netzwerkflüsse und kürzeste Wege Bei Routenplanern, Boardcomputern und ähnlichem ist die Aufgabenstellung, kürzeste Wege zu finden, von zentraler Bedeutung. Auch die verkehrs- oder umweltplanerisch möglichst günstige Verkehrssteuerung ist von Bedeutung. Wir betrachten zunächst ein Problem der optimalen Verkehrsplanung:

11 M. Ulbrich: Grundlagen der konveen Optimierung 7 Gegeben seien m 2 Städte s 1,..., s m, die durch gerichtete (d.h. Einbahn-) Straßen w 1,..., w n verbunden sind (aber nicht notwendig jede Stadt mit jeder anderen). Die Straße (im Folgenden: Kante) w j führe von der Stadt a j S := {s 1,..., s m } zur Stadt b j S and habe die Länge l j > 0 (Einheit km). Häufig verwendet man hierfür die suggestive Schreibweise w j = (a j, b j ). Der Verkehrsfluss j auf der Straße w j (gemessen in Personen/Stunde) sei der Unterschranke 0 und der Oberschranke u j > 0 unterworfen, j = 1,..., n. Als Nettoverkehrsfluss N i in die Stadt s i bezeichnen wir die Differenz aus dem gesamten Verkehrzufluss und dem gesamten Verkehrsabfluss: N i = j j., b j =s i, a j =s i Der Schadstoffausstoß pro Stunde auf der Straße w j ist proportional zu ihrer Länge und dem auf ihr herrschenden Verkehr, also gleich γ j l j j, wobeit γ j > 0 eine Konstante ist (diese könnte den Typ der Straße widerspiegeln). Wir wollen einen möglichst umweltfreundlichen Nettoverkehrsfluss f R (Personen/Stunde) von der Stadt s 1 zur Stadt s m bestimmen. Gesucht sind also Verkehrsflüsse j, j = 1,..., n, so dass gilt: N 1 = f, N 2 = = N m 1 = 0, N m = f. Die Kapazitätsgrenzen auf allen Straßen werden eingehalten. Der Gesamtschadstoffausstoß ist imal. Wir erhalten das lineare Optimierungsproblem R n u.d.n. n γ j l j j j=1 b j =s 1 b j =s i j j j b j =s m a j =s 1 j = f, j = 0, i = 2,..., m 1, a j =s i j = f, a j =s m 0 j u j, 1 j n. (5)

Die Lagrange-duale Funktion

Die Lagrange-duale Funktion Die Lagrange-duale Funktion Gregor Leimcke 21. April 2010 1 Die Lagrangefunktion Wir betrachten das allgemeine Optimierungsproblem wobei minimiere f 0 über D sodass f i 0, i = 1,..., m 1.1 D = h i = 0,

Mehr

1 Lineare Optimierung, Simplex-Verfahren

1 Lineare Optimierung, Simplex-Verfahren 1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

Konvexe Mengen und Funktionen

Konvexe Mengen und Funktionen Konvexe Mengen und Funktionen von Corinna Alber Seminararbeit Leiter: Prof. Jarre im Rahmen des Seminars Optimierung III am Lehrstuhl für Mathematische Optimierung an der Heinrich-Heine-Universität Düsseldorf

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg Sätze PLUS Es gilt für A, B R n n : det(ab) = det A det B (Determinantenmultiplikationssatz)

Mehr

KLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen)

KLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen) Mathematisches Institut WS 2012/13 der Heinrich-Heine-Universität 7.02.2013 Düsseldorf Prof. Dr. Achim Schädle KLAUSUR zu Einführung in die Optimierung Bitte folgende Angaben ergänzen und DEUTLICH LESBAR

Mehr

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze

Mehr

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1 Vortrag: Lineare Gleichungen am 11. März 2009 von Maximilian Wahner Technische Universität Dortmund Fakultät für Mathematik Proseminar Lineare

Mehr

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden

Mehr

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge ÜBUNGSBLATT 0 LÖSUNGEN MAT/MAT3 ANALYSIS II FRÜHJAHRSSEMESTER 0 PROF DR CAMILLO DE LELLIS Aufgabe Finden Sie für folgende Funktionen jene Punkte im Bildraum, in welchen sie sich lokal umkehren lassen,

Mehr

11 Optimierung von Funktionen einer Veränderlichen

11 Optimierung von Funktionen einer Veränderlichen 11 Optimierung von Funktionen einer Veränderlichen In diesem Kapitel werden die bis hier behandelten Grundlagen der Analysis genutzt, um Methoden aus der Optimierungstheorie für eindimensionale Entscheidungsmengen

Mehr

Kuhn-Tucker Bedingung

Kuhn-Tucker Bedingung Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,

Mehr

7.1 Matrizen und Vektore

7.1 Matrizen und Vektore 7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit

Mehr

KAPITEL 3. Konvexe Funktionen

KAPITEL 3. Konvexe Funktionen KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn

Mehr

Lineare Optimierung: Simplexverfahren Phase Ⅰ

Lineare Optimierung: Simplexverfahren Phase Ⅰ Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Konvexe Optimierungsprobleme

Konvexe Optimierungsprobleme von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel

Mehr

Wirtschaftsmathematik für International Management (BA)

Wirtschaftsmathematik für International Management (BA) Wirtschaftsmathematik für International Management (BA) Wintersemester 2012/13 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Lineare Algebra 4 Lineare Programme 5 Folgen und Reihen 6

Mehr

1 Der Simplex Algorithmus I

1 Der Simplex Algorithmus I 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier

Mehr

Das Lagrange-duale Problem

Das Lagrange-duale Problem Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h

Mehr

6 Lineare Optimierung

6 Lineare Optimierung 6 Lineare Optimierung Um die Aufgabenstellung deutlich zu machen, beginnen wir mit einem (natürlich sehr vereinfachten) Beispiel: Produtionsplan einer (zugegebenermaßen sehr leinen) Schuhfabri. Hergestellt

Mehr

Optimale Steuerung 1 Prozessoptimierung 1

Optimale Steuerung 1 Prozessoptimierung 1 Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)

Mehr

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden

Mehr

Maximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge)

Maximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge) Beispiel: Produktionsplanung Maximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge) Produktionskapazität Ressourcenmenge bei als fest angenommenem

Mehr

3.2.5 Dualität der linearen Optimierung I

3.2.5 Dualität der linearen Optimierung I 3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem

Mehr

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten

Mehr

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 markus.sinnl@univie.ac.at http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.

Mehr

Über- und unterbestimmte

Über- und unterbestimmte Über- und unterbestimmte Systeme (verallgemeinerte Lösungen) Über- und unterbestimmte Systeme Ax = b ist genau dann für alle b R m eindeutig lösbar, wenn m = n und rk A = n. Falls m n oder rk A < min{m,

Mehr

Optimierung unter Nebenbedingungen

Optimierung unter Nebenbedingungen Optimierung unter Nebenbedingungen Kapitel 7: Optimierung unter Nebenbedingungen Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 1. Juli 2009 1 / 18 7.1 Bemerkung

Mehr

(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung)

(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung) Lineare Optimierung Unterbestimmte LGS und Optimierung Bei lösbaren unterbestimmten linearen Gleichungssystemen haben wir die Qual der Wahl in Abhängigkeit von den freien Parametern (Anzahl = Anzahl Unbekannte

Mehr

Optimierungstheorie Scheinklausur Sommersemester Juli 2007

Optimierungstheorie Scheinklausur Sommersemester Juli 2007 Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur

Mehr

4.4 Quadratische Optimierungsprobleme

4.4 Quadratische Optimierungsprobleme 4.4 Quadratische Optimierungsprobleme 1. Quadratische Programme (QP) 1 2 xt P x + q T x + r s.t. Gx h (4.34) wobei P S n +, G R (m n) und A R (p n) Zielfunktion (ZF) ist (konvex) quadratisch Nebenbedingungen

Mehr

7. Vorlesung. 21. November 2006 Guido Schäfer

7. Vorlesung. 21. November 2006 Guido Schäfer LETZTE ÄNDERUNG: 21. NOVEMBER 2006 Vorlesung: Einführung in die Spieltheorie WS 2006/2007 7. Vorlesung 21. November 2006 Guido Schäfer Wenn die Latenzfunktionen (c e ) e E differenzierbar und schwach monoton

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

12. Trennungssätze für konvexe Mengen 83

12. Trennungssätze für konvexe Mengen 83 12. Trennungssätze für konvexe Mengen 83 C_1 C_2 a Abbildung 12.4. Trennung konvexer Mengen durch eine Hyperebene mit Normalenvektor a Dann ist int(c) nicht leer (warum?) und [als Minkowski-Summe von C

Mehr

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit) 3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände

Mehr

KAPITEL 10 DIE INNERE-PUNKTE-METHODE

KAPITEL 10 DIE INNERE-PUNKTE-METHODE KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach

Mehr

Übungsblatt 6 Lösungsvorschläge

Übungsblatt 6 Lösungsvorschläge Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 6 Lösungsvorschläge Vorlesung Algorithmentechnik im WS 09/10 Problem 1: Größter Kreis in konvexem Polygon [vgl. Kapitel 6

Mehr

Musterlösung der 1. Klausur zur Vorlesung

Musterlösung der 1. Klausur zur Vorlesung Prof. Dr. M. Röger Dipl.-Math. C. Zwilling Fakultät für Mathematik TU Dortmund Musterlösung der. Klausur zur Vorlesung Analysis II 6.7.6) Sommersemester 6 Aufgabe. i) Die Folge f n ) n N konvergiert genau

Mehr

Geometrische Interpretation

Geometrische Interpretation Geometrische Interpretation Stefanie Riedel 10. Mai 2010 1 Starke und schwache Dualität über Wertemengen Wir betrachten eine einfache geometrische Interpretation dualer Funktionen aus der Menge G: G =

Mehr

Konvexe Mengen und konvexe Funktionen

Konvexe Mengen und konvexe Funktionen Technische Universität Dortmund Fakultät für Mathematik Lehrstuhl I: Analysis Ausarbeitung Analysis III Seminar Konvexe Mengen und konvexe Funktionen Name: Jessica Prang Datum: 14.04.2015 Seminarleiter:

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg Beispiel: Graphische Darstellung Zulässigkeitsbereich Ungleichung (1) mit

Mehr

10 Der Satz über implizite Funktionen und Umkehrfunktionen

10 Der Satz über implizite Funktionen und Umkehrfunktionen Vorlesung SS 9 Analsis Prof. Dr. Siegfried Echterhoff SATZ ÜBER IMPLIZITE FKT UND UMKEHRFKT Der Satz über implizite Funktionen und Umkehrfunktionen Motivation: Sei F : U R R eine differenzierbare Funktion

Mehr

Kontinuierliche Optimierung

Kontinuierliche Optimierung Kontinuierliche Optimierung Markus Herrich Wintersemester 2018/19 ii Inhaltsverzeichnis 2 Optimalitäts- und Regularitätsbedingungen 1 2.1 Einleitung und Wiederholung.................... 1 2.2 Optimalitätsbedingungen

Mehr

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005 Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung

Mehr

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen 10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie

Mehr

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 = Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls

Mehr

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung

Mehr

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h. Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle

Mehr

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

Mathematik für Informationsmanagement WiSe 2017/2018 Übungsblatt 9. Zur Bearbeitung in der Übung am 10./

Mathematik für Informationsmanagement WiSe 2017/2018 Übungsblatt 9. Zur Bearbeitung in der Übung am 10./ Mathematik für Informationsmanagement WiSe 2017/2018 Übungsblatt 9 Zur Bearbeitung in der Übung am 10./11.01.2018 Vorlesung: Dr. Mark Steinhauer Übungen: Marco Böhm Mirjam Schön Thomas Senkowski Kevin

Mehr

Übung 5, Analytische Optimierung

Übung 5, Analytische Optimierung Übung 5, 5.7.2011 Analytische Optimierung Aufgabe 5.1 Bei der Herstellung von Konserven werden für Boden und Deckel bzw. für den Konservenmantel verschiedene Materialien verwendet, die g 1 = bzw. g 2 =

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrange.tex,v 1.6 2012/11/06 14:26:21 hk Exp hk $ 2 Extrema unter Nebenbedingungen 2.1 Restringierte Optimierungsaufgaben Nachdem wir jetzt die bereits bekannten Techniken zur Bestimmung der lokalen

Mehr

Grundlagen der Optimierung. Übung 6

Grundlagen der Optimierung. Übung 6 Technische Universität Chemnitz Chemnitz, 2. November 24 Prof. Dr. R. Herzog, J. Blechschmidt, A. Schäfer Abgabe am 28. November 24 Grundlagen der Optimierung Übung 6 Aufgabe 2: Verschiedene Verfahren

Mehr

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x

Mehr

10. Übung zur Linearen Algebra I -

10. Übung zur Linearen Algebra I - . Übung zur Linearen Algebra I - en Kommentare an Hannes.Klarner@FU-Berlin.de FU Berlin. WS 29-. Aufgabe 37 i Für welche α R besitzt das lineare Gleichungssystem 4 αx + αx 2 = 4x + α + 2x 2 = α genau eine,

Mehr

Inhalt der Vorlesung. 1 Einführung 2 Konvexe Mengen 3 Konvexe Funktionen 4 Konvexe Optimierung 5 Lösungsverfahren (6 Anwendungen)

Inhalt der Vorlesung. 1 Einführung 2 Konvexe Mengen 3 Konvexe Funktionen 4 Konvexe Optimierung 5 Lösungsverfahren (6 Anwendungen) Inhalt der Vorlesung 1 Einführung 2 Konvexe Mengen 3 Konvexe Funktionen 4 Konvexe Optimierung 5 Lösungsverfahren (6 Anwendungen) 1 S-M. Grad - Optimierung II / Universität Leipzig, SS2018 Beispiel 1.1

Mehr

Propädeutik Klausur in Analysis für Wirtschaftswissenschaftler

Propädeutik Klausur in Analysis für Wirtschaftswissenschaftler Universität Mannheim SS 998 Dr. Matthias Blonski Propädeutik Klausur in Analysis für Wirtschaftsissenschaftler Man beachte folgende Hineise:. Die Klausur umfaßt 5 Aufgaben (jeeils auf einem Blatt) zuzüglich

Mehr

Klausurrepetitorium ABWL

Klausurrepetitorium ABWL Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches

Mehr

Mathematik 1 für Wirtschaftsinformatik

Mathematik 1 für Wirtschaftsinformatik Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg Berechnung von Eigenwerten und Eigenvektoren Mathematik 1 Bestimmung von Eigenwerten und Eigenvektoren Jedes λ, das det(a

Mehr

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max

Mehr

Klausur zu Analysis II - Lösungen

Klausur zu Analysis II - Lösungen Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Dr. Axel Grünrock WS 1/11 11..11 Klausur zu Analysis II - Lösungen 1. Entscheiden Sie, ob die folgenden Aussagen richtig oder falsch sind.

Mehr

Übung 3, Simplex-Algorithmus

Übung 3, Simplex-Algorithmus Übung 3, 21.6.2011 Simplex-Algorithmus Aufgabe 3.1 Lösen Sie das folgende Optimierungsproblem (von Aufgabe 2.3) graphisch. Substituieren Sie dazu z = 5 y um ein 2-dimensionales Problem zu erhalten. Rechnung

Mehr

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung 8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen

Mehr

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018 (Analysis und lineare Algebra) im Sommersemester 2018 5. April 2018 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

zul. Kurve g 1 C zul dθ (0) y = dϕ dθ (0) =

zul. Kurve g 1 C zul dθ (0) y = dϕ dθ (0) = 2. Grundlagen der nicht-linearen konvexen Optimierung 2.1. Die Karush-Kuhn-Tucker Bedingungen. Unser Basisproblem (NLO) sei geben durch min f(x) NLO g i (x) 0, i I = {1,..., m} x R n f, g i stetig differenzierbar.

Mehr

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis Innere-Punkte-Verfahren 3 1 Theoretische Grundlagen 3 1.1 Die KKT-Bedingungen........................... 3 1.2 Der zentrale Pfad.............................. 4

Mehr

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v.

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v. Teil I Lineare Algebra I Vorlesung Sommersemester 2 Olga Holtz MA 378 Sprechstunde Fr 4-6 und nv holtz@mathtu-berlinde Sadegh Jokar MA 373 Sprechstunde, Do 2-4 und nv jokar@mathtu-berlinde Kapitel 4 Der

Mehr

Serie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015

Serie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015 Analysis D-BAUG Dr. Cornelia Busch FS 05 Serie 4. Finden Sie die lokalen Extrema der Funktionen f : R R auf dem Einheitskreis S = {x, y R : x + y = } und geben Sie an, ob es sich um ein lokales Minimum

Mehr

F u n k t i o n e n Lineare Optimierung

F u n k t i o n e n Lineare Optimierung F u n k t i o n e n Lineare Optimierung Das Simplex-Verfahren läuft die Ecken des Polyeders ab, bis es an einer Optimallösung angekommen ist. 1. Einführung Während des 2. Weltkrieges und in den darauf

Mehr

Vorkurs Mathematik. Christoph Hindermann. Funktionen, Ableitungen und Optimierung

Vorkurs Mathematik. Christoph Hindermann. Funktionen, Ableitungen und Optimierung Kapitel 3 Funktionen, Ableitungen und Optimierung Christoph Hindermann Vorkurs Mathematik 1 Vorkurs Mathematik 2 3.1 Funktionen Motivation Funktionen reeller Veränderlicher gehören zu den wichtigsten Untersuchungs-

Mehr

6. Vorlesung. Rechnen mit Matrizen.

6. Vorlesung. Rechnen mit Matrizen. 6. Vorlesung. Rechnen mit Matrizen. In dieser Vorlesung betrachten wir lineare Gleichungs System. Wir betrachten lineare Gleichungs Systeme wieder von zwei Gesichtspunkten her: dem angewandten Gesichtspunkt

Mehr

Probeklausur Optimierung

Probeklausur Optimierung Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften Dr. Nico Düvelmeyer Hamburg, 4. Juli 2011 Probeklausur Optimierung Bitte selber ausfüllen: Name: (darf anonymisiert werden)

Mehr

Höhere Mathematik für die Fachrichtung Physik

Höhere Mathematik für die Fachrichtung Physik Karlsruher Institut für Technologie Institut für Analysis Dr. Christoph Schmoeger Michael Hott, M. Sc. WS 5/.. Höhere Mathematik für die Fachrichtung Physik Lösungsvorschläge zum 4. Übungsblatt Aufgabe

Mehr

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25. Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

Outline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel

Outline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel Outline 1 Funktionen von mehreren Veränderlichen 2 Grenzwert und Stetigkeit 3 Partielle Ableitungen 4 Die verallgemeinerte Kettenregel 5 Das totale Differential 6 Extremstellen Roman Wienands (Universität

Mehr

1 Analytische Geometrie und Grundlagen

1 Analytische Geometrie und Grundlagen Mathematische Probleme, SS 208 Dienstag 0.4 $Id: vektor.tex,v.30 207/07/7 08:09:23 hk Exp hk $ Analytische Geometrie und Grundlagen In dieser Vorlesung wollen wir uns mit Fragen der sogenannten Elementargeometrie

Mehr

Modelle und Methoden der Linearen Optimierung (Die Thesen zur Vorlesung 4)

Modelle und Methoden der Linearen Optimierung (Die Thesen zur Vorlesung 4) Modelle und Methoden der Linearen Optimierung (Die Thesen zur Vorlesung 4) das Thema der Vorlesung Die Anwendung der Methoden der Mehrkriterienoptimierung bei der Lösung der ökonomischen Entscheidungsprobleme

Mehr

NICHTRESTRINGIERTE OPTIMIERUNG

NICHTRESTRINGIERTE OPTIMIERUNG 3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene

Mehr

Optimierung I. Dr. Ulf Lorenz F2.413

Optimierung I. Dr. Ulf Lorenz F2.413 Optimierung I Dr. Ulf Lorenz F2.413 flulo@upb.de Organisation Dozent: Dr. Ulf Lorenz F2.413 Fürstenallee 11 email: flulo@upb.de WWW: http://www.upb.de/cs/flulo (hier auch aktuelle Infos + Ü-Zettel) Vorlesungen:

Mehr

Optimierung mit Matlab

Optimierung mit Matlab Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof. Dr. L. Cromme Optimierung mit Matlab 1 Optimierungsaufgaben Die allgemeine Aufgabenstellung der Optimierung besteht darin,

Mehr

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { }

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { } Zur Einleitung: Lineare Gleichungssysteme Wir untersuchen zunächst mit Methoden, die Sie vermutlich aus der Schule kennen, explizit einige kleine lineare Gleichungssysteme. Das Gleichungssystem I wird

Mehr

Übungen zur Vorlesung. Einführung in Dynamische Systeme. Musterlösungen zu Aufgabenblatt 1

Übungen zur Vorlesung. Einführung in Dynamische Systeme. Musterlösungen zu Aufgabenblatt 1 Prof. Roland Gunesch Sommersemester 00 Übungen zur Vorlesung Einführung in Dnamische Ssteme Musterlösungen zu Aufgabenblatt Aufgabe : Sei A 0 4. a Bestimmen Sie für jeden Anfangswert 0 R das Verhalten

Mehr

1 Einführung Gleichungen und 2 Unbekannte Gleichungen und 3 Unbekannte... 4

1 Einführung Gleichungen und 2 Unbekannte Gleichungen und 3 Unbekannte... 4 Wirtschaftswissenschaftliches Zentrum 3 Universität Basel Mathematik 2 Dr Thomas Zehrt Lineare Gleichungssysteme Inhaltsverzeichnis Einführung 2 2 Gleichungen und 2 Unbekannte 2 2 3 Gleichungen und 3 Unbekannte

Mehr

Seminar Optimierung - Approximation and fitting. Christian Bretzke

Seminar Optimierung - Approximation and fitting. Christian Bretzke Seminar Optimierung - Approximation and fitting Christian Bretzke 1 Inhaltsverzeichnis 1 Norm Approximation 3 1.1 Verschiedene Interpretation.................................. 3 1.2 Gewichtete NAP........................................

Mehr

Vorkurs: Mathematik für Informatiker

Vorkurs: Mathematik für Informatiker Vorkurs: Mathematik für Informatiker Teil 4 Wintersemester 2017/18 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2017 Steven Köhler Wintersemester 2017/18 Inhaltsverzeichnis Teil 1 Teil

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare

Mehr

Vorkurs: Mathematik für Informatiker

Vorkurs: Mathematik für Informatiker Vorkurs: Mathematik für Informatiker Teil 4 Wintersemester 2018/19 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2018 Steven Köhler Wintersemester 2018/19 Inhaltsverzeichnis Teil 1 Teil

Mehr

D-ITET Analysis II FS 13 Prof. Horst Knörrer. Musterlösung 1. 3xy 2 = 2 x 2. y y. 3 y y. 3 x v x + v = 2 3 v v.

D-ITET Analysis II FS 13 Prof. Horst Knörrer. Musterlösung 1. 3xy 2 = 2 x 2. y y. 3 y y. 3 x v x + v = 2 3 v v. D-ITET Analysis II FS 3 Prof. Horst Knörrer Musterlösung. a) Es gilt: dy d 3 + y 3 3y 3 y + y 3. Dies ist eine homogene Differentialgleichung, das heisst y hängt nur von y ab. Setze v : y y() v() y v +

Mehr

Musterlösung - Aufgabenblatt 7. Aufgabe 1

Musterlösung - Aufgabenblatt 7. Aufgabe 1 Musterlösung - Aufgabenblatt 7 Aufgabe Sei C R n eine nicht-leere abgeschlossene und konvexe Menge. Wir wollen zeigen, dass C als der Durchschnitt ihrer stützenden Halbräume dargestellt werden kann, d.h.

Mehr

Die Lagrange - duale Optimierungsaufgabe und ihre geometrische Interpretation

Die Lagrange - duale Optimierungsaufgabe und ihre geometrische Interpretation und ihre geometrische Interpretation Vortrag von Elisabeth Zschorlich 09.12.2008 Inhaltsverzeichnis 1 Die Lagrange - duale Optimierungsaufgabe 2 1.1 Einführung...................................... 2 1.2

Mehr