Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1)

Größe: px
Ab Seite anzeigen:

Download "Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1)"

Transkript

1 Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Anna Raaz Einführung Die Relaxierung von Lagrange wird in der stochastischen Optimierung meistens für eine reine Technik, die manchmal zur Berechnung von Schranken benutzt wird, gehalten. Diese Methode ist eigentlich sehr allgemein, aber unvermeidbar bei der Berechnung von Optimallösungen, bei der Relaxierung von Nebenbedingungen oder bei der Spaltengenerierung. Im Folgengen wird diese Methode aus zwei verschiedenen Blickwinkeln betrachtet: 1. Theoretisch (Dualisierung des gegebenen Problems) und 2. Algorithmisch (Lösung des dualen Problems). Themen: Stochastische Optimierung, Relaxierung von Lagrange, Dualität, Spaltengenerierung. 1. Die Grundidee Wir betrachten das folgende allgemeine mathematische Optimierungsproblem: sup f(x), x X, c(x) = 0 R m [d.h. c j (x) = 0, j = 1,..., m]. (1) Dies ist das sogenannte primale Problem. Bemerkung 1: An dieser Stelle müssen einige vorbereitende Annahmen getroen werden. (i) Wir schreiben sup anstelle von max, weil die Existenz der Optimallösung von (1) noch nicht gewährleistet ist. Diese Notation werden wir auch weiterhin benutzen, denn uns interessieren mehr die Funktionswerte, als die Werte ihrer Argumente. (ii) Bis jetzt sind keine Angaben für X, f und c gemacht. Insbesondere ist die Menge X komplett abstrakt: Es könnte ein endlichdimensionaler Raum, der Raum R n oder etwas ganz anderes sein. Eines unserer Ziele ist es deshalb, die Flexibilität der Relaxierung von Lagrange mit verschiedenen Formen von X zu zeigen. 1

2 (iii) Unsere einzige Annahme betrit den Euklidischen Raum R m, der auch unendlichdimensional sein kann. Wir stellen jetzt die Lagrangefunktion vor, die von x X der primalen Variablen und u R m der dualen Variablen abhängt: X R m (x, u) L(x, u) := f(x) u T c(x). (2) Mit anderen Worten wird die Nebenbedingung c(x) = 0 hierbei relaxiert oder dualisiert, denn wir nehmen sie aus den Nebenbedingungen in (1) heraus und setzen sie in die Zielfunktion ein. Jetzt wird angestrebt, dass c(x) = 0 ist, dies muss aber nicht unbedingt so sein. Umgekehrt enthält X (der Umgebungsraum) die harten Nebenbedingungen, die in den Gleichungen (1, 2) erhalten bleiben, d. h. x X. Wenn wir L(x, u) über x X für xe u R m maximieren, bekommen wir eine wohldenierte Zahl, die abhängig von besonderem u ist. Wir nennen sie die duale Funktion zu (1, 2): θ(u) := sup L(x, u). (3) x X Denition 2 Die Relaxierung von Lagrange besteht in der Lösung des sogenannten dualen Problems inf θ(u). (4) u Rm Im Vorfeld zum Kapitel 3 erwähnen wir jetzt, dass das duale Problem immer irgendwie einfach ist. Wir werden deshalb die Relaxierung von Lagrange anwenden können, wenn (3) selbst einfach ist. Bemerkung 3 Aus diesem Grund betrachten wir folgende Fälle, die in (3) auftreten können, genauer: (i) Die Lagrangefunktion ist nach oben unbeschränkt; dann setzen wir θ(u) = +, das dazugehörige u hat oensichtlich keine Bedeutung für das duale Problem. (ii) Eine endliche obere Schranke existiert (θ(u) < + ), wird aber nie erreicht. Wir denken dabei an Lagrangefunktion wie L(x, u) = ue x mit u < 0. (iii) Die Lagrangefunktion erreicht ihr Maximum an einer eindeutigen Stelle x u, (iv) oder an mehreren primalen Punkten, so dass das gröÿte x u unklar ist. Beispiele für (i) werden in den folgenden Abschnitten 2.1, 2.2 angegeben, wohingegen der Fall (iv) eigentlich die typische Situation darstellt. Wir werden annehmen, dass das Lagrange Orakel verfügbar ist, um L(, u) zu maximieren. Es produziert θ(u) sowie x u X, wenn mindestens eins existiert (siehe Abb. 1). In Kapiteln 3 und 4 werden wir sehen, dass der beschränkte Wert c(x u ) R m sehr wichtig ist. Im Gegensatz zu θ(u), das immer wohldeniert ist (vielleicht auch + ), ist c(x u ) nur im Fall von (iii) wohldeniert. Abb. 1 Das Lagrange Orakel u sup L(x, u) x X θ(u) (wenn <+ ) und ein x u, wenn es existiert 2

3 Wir motivieren das duale Problem durch einige Annahmen. (j) Symmetrisch zu θ(u) denieren wir folgende Funktion: X x ϕ(x) := inf L(x, u) = u Rm { f(x), falls c(x) = 0,, sonst. Oensichtlich ist das primale Problem (1) nichts Anderes als Maximierung von ϕ(x) über X, denn inf u R m L(x, u) = f(x) für c(x) = 0 und wenn wir f(x) maximieren, erhalten wir: sup x X f(x) wie in (1). Diese intuitive Denition enthüllt eine erste Beziehung zwischen (1) und (4): ( primal dual ) sup x inf u L(x, u) inf u sup x L(x, u) (jj) Eine stärkere Beziehung stellt die Eigenschaft der schwachen Dualität dar. Nach Denition folgt: θ(u) L(x, u) für alle x X, da θ(u) = sup x X L(x, u) war, und wenn c(x) = 0 ist, dann gilt: L(x, u) = f(x). Zusammen mit der ersten Abschätzung folgt daraus: θ(u) f(x). Das bedeutet, dass beliebiges θ(u) eine obere Schranke für die Optimallösung von (1) bildet; das duale Problem besteht deshalb darin, die beste (kleinste) obere Schranke zu nden. (jjj) Schlieÿlich ist es unser wichtigstes Ziel ein u so zu nden, dass das Orakel ein x u produziert, das primal optimal ist. Wenn so ein u gefunden ist, dann gilt c(x u ) = 0 in (1), womit dann L(x u, u) = f(x u ) folgt; andererseits weil L(x u, u) = sup x X L(x, u) = θ(u) nach Denition von x u ist (da x u primal optimal), so ergibt sich sofort f(x u ) = θ(u). Mit der schwachen Dualität folgt dann: Um unser Ziel zu erreichen, - ist es notwendig, dass u θ minimiert; - ist es hinreichend, dass x u zulässig in (1) ist. Wir fassen diese letze Bemerkung zusammen: die aus (3) erhaltenen x u 's, die auch für (1) optimal sind, sind genau die Passenden (erfüllen die Gleichung c(x u ) = 0); und die einzige Chance, eines von denen zu erhalten, ist, das duale Problem zu lösen. Wichtig für (jj) ist folgende Denition. Denition 4 Die Dualitätslücke ist die (nichtnegative) Dierenz zwischen den optimalen Werten von (1) und (4). Also wird die Relaxierung von Lagrange erfolgreich verlaufen, wenn die Dualitätslücke möglichst klein ist, besser sogar gleich null. Bemerkung 5 Es ist wichtig zu verstehen, dass für ein gegebenes primales Problem (1) viele Dualisierungen existieren können, die sich nur durch die Wahl der Lagrangefunktion unterscheiden. Der Abschnitt 2.2 wird dies genauer darstellen. Bei der Auswahl der richtigen Lagrangefunktion müssen zwei folgende Fragen berücksichtigt werden: - Wie einfach kann (3) gelöst werden? - Wie klein ist die Dualitätslücke? 3

4 2. Beispiele Die unten aufgeführten Beispiele werden die in Kapitel 1 gezeigten Tatsachen untermauern; sie werden auch zeigen, wie vielseitig und allgegenwärtig die Relaxierung von Lagrange sein kann. 2.1 Ungleichungen Angenommen, dass die relaxierten Nebenbedingungen in (1) Ungleichungen sind. Dann wollen wir Dualität auf das folgende Problem anwenden: sup f(x), x X, c(x) 0. (5) Die einfachste Methode, wieder Gleichungen zu bekommen, ist die sogenannten Schlupfvariablen einzuführen. Dann kann unser Problem so geschrieben werden: sup f(x), x X, y 0 R m, c(x) + y = 0. (6) Wenn wir jetzt die primale Variale x X in (x, y) X R m + ändern, erhalten wir für die Lagrangefunktion: L(x, u) = f(x) u T (c(x) + y) = f(x) u T c(x) u T y = L(x, u) u T y, wo L immer noch die Funktion aus (2) ist. Für die duale Funktion ergibt sich somit: sup L(x, u) u T y = x X,y 0 { θ(u), falls u 0, +, sonst, wo θ immer noch die Funktion aus (3) ist. Das dazugehörige duale Problem ist (4) mit dem beschränkten u 0, also inf u 0 θ(u). Wir erkennen die Tatsache, dass Ungleichungen die dualen Variablen beschränken. Wir zeigen nun die Bemerkung 3(iv): Sei u 0 gegeben. Dann hat der primale Punkt in Abb.1 zwei Komponenten: - Erstens ist x u X, wenn es existiert, eindeutig oder nicht eindeutig. - Zweitens ist y u R m. Für eine positive Komponente u j ist das dazugehörige y j u klar gleich 0 nach Denition der dualen Funktion; aber wenn u j = 0, dann kann y j u aus dem ganzen Intervall [0, + [ sein. 2.2 Lineare Programmierung Sei (1) ein lineares Programm in Standardform gegeben: sup b T x, x 0 R n, Ax = a R m. Zur Veranschaulichung betrachten wir zwei Dualisierungsmöglichkeiten. Dualisierung der Nebenbedingung Ax = a: Erst nehmen wir X := R n + und c(x) := Ax a = 0 an, so dass die Lagrangefunktion so aussieht: L(x, u) = f(x) u T c(x) = b T x u T (Ax a) = b T x u T Ax+u T a = (b A T u) T x+a T u. 4

5 Die resultierende Dualfunktion ergibt sich daraus wie im letzen Abschnitt: { sup(b A T u) T x + a T a T u, falls b A T u 0, u = x 0 +, sonst. Somit erhalten wir das duale lineare Programm: min a T u, so dass A T u b. Dualisierung von allen Nebenbedingungen: Nun setzen wir X := R n, so dass wir zwei Typen von Nebenbedingungen erhalten: c(x) = Ax a = 0 wie davor (mit Multiplikatoren u R m ), und x 0 (mit Multiplikatoren v R n +). Damit folgt für die Lagrangefunktion: ( ) L(x, u) = b T x ũ T Ax a = b T x u T (Ax a)+v T x = (b A T u+v) T x+a T u, x ( ) u wobei ũ :=, v was über dem ganzen Raum R n maximiert werden muss. Die Dualfunktion ist somit: { sup (b A T u v) T x + a T a T u, falls b A T u + v = 0, u = x R n +, sonst. Es ist oensichtlich, dass die duale Variable v praktisch keine Rolle spielt, denn es gilt: v = A T u b, was nichtnegativ sein muss, also 0 A T u b. Damit haben wir wieder das vorherige duale Problem. Mit Anlehnung an die Bemerkung 5 war dies ein Beispiel, wo zwei Dualisierungen gleich sind. 2.3 Spaltengenerierung Betrachten wir wieder (1), das in Form vom linearen Programm so geschrieben wird: sup b T x, x X, Ax = a; (7) hierbei sei X ein diskreter endlichdimensionaler Raum. Ein besonderes Verfahren, um (7) zu lösen, ist die Spaltengenerierung. Dabei wird aus X erst eine Teilfolge { x k } K herausgenommen um dadurch (7) zu vereinfachen. Das resultierende beschränkte Problem wird durch Konvexizierung leichter, d. h. man nimmt die konvexe Hülle, bestehend aus x k 's. Damit wird (7) durch das eingeschränkte Programm von Dantzig-Wolfe ersetzt. sup b T x, x X K := conv{ x 1,..., x K }, Ax = a. (8) Bemerkung 6 Sei K (vermutlich eine groÿe Variable) die Anzahl aller Punkte in X. Oensichtlich kann das eingeschränkte Programm äquivalent zu (7) so umformuliert werden: sup α k b T x k, K α k A x k = a, α {0, 1}, K α k = 1. K 5

6 Wenn wir die 0 1 Beschränkungen zu α k [0, 1] relaxieren und die Anzahl K der Spalten auf K begrenzen, erhalten wir sup K α k b T x k, K α k A x k = a, α k 0, K α k = 1. Dies ist das eingeschränkte Programm (8), ausgedrückt mit den Termen der konvexen Komponenten von x. Jetzt stellt sich die Frage, was passiert mit dem Algorithmus mit der neuen Spalte x K+1. Dafür sei u K der Vektor der Skalare, der zu Gleichung Ax = a im eingeschränkten Programm (8) gehört. Dann wird x K+1 zur Lösung vom Subproblem oder sogenannten Satelliten genommen: Maximiere b T x u T K Ax über X (dieses Problem hat immer eine Lösung, da X ein endlichdimensionaler Raum ist). Natürlich ist der Satellit äquivalent zur Lösung von sup x X L(x, u K ), wobei der konstante Term a T u K vernachlässigt wird. Diese Methode versucht, ein passendes Polyeder X K zu nden, d. h. eigentlich die passenden x k 's, noch genauer die passenden u k 's. Die Rolle der Optimallösungen- nennen wir sie ˆx- besteht nur darin, die optimalen Lösungen von (7) zu approximieren; sie haben keinen Einuss auf den Verlauf des Algorithmus. Mit der Bemerkung (jjj) stellen wir fest, dass die Spaltengenerierung das Gleiche macht, wie die Relaxierung von Lagrange, sogar mit dem gleichen Mittel: Sie muss die duale Funktion mit Hilfe des Orakels aus Abb.1 minimieren, denn nach Denition der konvexen Hülle suchen wir ja die kleinste konvexe Menge, die X enthält. Tatsächlich werden wir in Kapitel 4.2 sehen, dass Dantzig-Wolfe ein besonderer, aber nicht besonders ezienter Algorithmus zur Minimierung von θ(u) ist. Bemerkung 7 Die Gleichheit zwischen den beiden Methoden ist oft nur schwer zu erkennen, denn: - Bei der Relaxierung von Lagrange wird das Orakel hervorgehoben, das die Nebenbedingung Ax = a relaxiert und die Menge X unverändert lässt; - In der Spaltengenerierung verfährt man normalerweise umgekehrt, indem das eingeschränkte Programm (8), das Ax = a unverändert lässt, hervorgehoben wird, während X durch die Operation X X K relaxiert wird. Daraus folgt, dass sie beide im Prinzip das gleiche Problem lösen, nur gehen sie von verschiedenen Annahmen aus. 2.4 Quadratische Programmierung Sei Q symmetrische n n Matrix. Wir dualisieren nun das quadratische Problem sup b T x 1 Ax=a 2 xt Qx, (wo die Nebenbedingungen wieder Ungleichungen sein können). Die Lagrangefunktion ist die Folgende: L(x, u) = f(x) u T c(x) = b T x 1 2 xt Qx u T (Ax a) = (b A T u) T x 1 2 xt Qx+a T u. 6

7 Einige einfache Beobachtungen werden hier gemacht: - Wenn Q nicht positiv semidenit ist, ist θ(u) + für alle u. Die Relaxierung von Lagrange führt in diesem Fall zu nichts. - Sei nun Q positiv denit. Dann wird L(, u) an einer eindeutigen Stelle x u = Q 1 (b A T u) maximiert, dazu leitet man L(x, u) nach x ab und setzt die Ableitung dann gleich Null. Die duale Funktion ergibt sich durch Einsetzen von x u in die Lagrangefunktion: θ(u) Bem.(jjj) = L(x u, u) = 1 2 (b AT u) T Q 1 (b A T u) +a T u. }{{} =x u Die duale Variable u ist durch θ(u) = AQ 1 (A T u b) + a = 0 charakterisiert. Wenn das dazugehörige x u die Gleichung Ax u = AQ 1 (b A T u) = a erfüllt, dann ist x u aus der Sicht von Kapitel 1 Bem. (jjj) primal optimal. D. h. in dieser Situation: Wenn wir das duale Problem gelöst haben, so erhalten wir automatisch eine Lösung für das primale Problem, denn dieses x u ist eindeutig (man beachte, dass diese Eigenschaft nicht bei der linearen Programmierung gilt, denn da müssen die primalen Optimallösumgen nicht eindeutig sein). - Zwischen diesen beiden Fällen haben wir den Fall, wo Q 0, aber nicht invertierbar. Dieser Fall enthält die lineare Programmierung mit Q = 0 (setze Q = 0 in das quadratische Problem oben ein und vergleiche das Ergebnis mit (7)). Wenn wir nun sagen, dass die Gleichung Qx = b A T u eine Lösung hat (d. h., dass L(, u) ein endliches Maximum hat), dann bedeutet das, dass u die Bedingung b A T u Im Q erfüllt; der Bereich von θ ist ein aner Teilraum. Damit u zulässig für das duale Programm wird, müssen die x u 's einen anen Teilraum bilden, parallel zu Ker Q. Denn sei x Ker Q. Dann gilt: Qx = 0 und somit 0 = b A T u b = A T u. Also ist u zulässig für das duale Problem. Man braucht nicht zu erwähnen, dass die Minimierung von θ und Berechnung der primal optimalen Lösungen das Lösen eines linearen Systems bedeutet, das die Optimalitätsbedingung des quadratischen Problems ist, also: Literatur Qx = b A T u Ax = a [1] C. Lemarechal: The Omnipresence of Lagrange [2] R. Schrader: Skript zur Vorlesung Operations Research, Zentrum für angewandte Informatik Köln, SS

Das Lagrange-duale Problem

Das Lagrange-duale Problem Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

KAPITEL 3. Konvexe Funktionen

KAPITEL 3. Konvexe Funktionen KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn

Mehr

Optimalitätsbedingungen

Optimalitätsbedingungen Optimalitätsbedingungen Nadja Irmscher 28. Mai 2010 1 Nachweis von Suboptimalität und Abbruchkriterien Über das gegebene Programm minimiere f 0 (x) über x D sodass f i (x) 0, i = 1,..., m h i (x) = 0,

Mehr

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)

Mehr

Dualität bei konvexer Optimierung

Dualität bei konvexer Optimierung Dualität bei konvexer Optimierung Seminar zur Numerik I im SS 2016 Laslo Hunhold 10. Mai 2016 Ausarbeitung zum Seminarvortrag vom 2. Mai 2016 Mathematisches Institut Mathematisch-Naturwissenschaftliche

Mehr

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sandro Grunert WS 08/09 Seminar Optimierung Technische Universität Chemnitz 1 Inhaltsverzeichnis 0 Grundlegende Situation

Mehr

1 Der Simplex Algorithmus I

1 Der Simplex Algorithmus I 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier

Mehr

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25. Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme

Mehr

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze

Mehr

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max

Mehr

Eigenschaften von LPs

Eigenschaften von LPs 2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört

Mehr

Konvexe Optimierungsprobleme

Konvexe Optimierungsprobleme von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester

Mehr

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode 6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

Die Lagrange-duale Funktion

Die Lagrange-duale Funktion Die Lagrange-duale Funktion Gregor Leimcke 21. April 2010 1 Die Lagrangefunktion Wir betrachten das allgemeine Optimierungsproblem wobei minimiere f 0 über D sodass f i 0, i = 1,..., m 1.1 D = h i = 0,

Mehr

Geometrische Interpretation

Geometrische Interpretation Geometrische Interpretation Stefanie Riedel 10. Mai 2010 1 Starke und schwache Dualität über Wertemengen Wir betrachten eine einfache geometrische Interpretation dualer Funktionen aus der Menge G: G =

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

3.1. Existenzsatz und Struktur der Lösungsmenge

3.1. Existenzsatz und Struktur der Lösungsmenge 3. EXISTENZ UND DUALITÄT 3.1. Existenzsatz und Struktur der Lösungsmenge Nach dem Satz von Weierstraß besitzt eine lineare Funktion auf einem Polytop stets ein Minimum und ein Maximum. Im allgemeinen Fall

Mehr

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform

Mehr

Extrema von Funktionen mit Nebenbedingung

Extrema von Funktionen mit Nebenbedingung Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen mit Nebenbedingung Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,

Mehr

Innere-Punkt-Methoden

Innere-Punkt-Methoden Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction

Mehr

Ganzzahlige lineare Programme

Ganzzahlige lineare Programme KAPITEL 5 Ganzzahlige lineare Programme Wir betrachten nun Optimierungsprobleme vom Typ (42) min c T x s.d. Ax = b, x 0, x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n, b R m gegeben seien.

Mehr

3.2.5 Dualität der linearen Optimierung I

3.2.5 Dualität der linearen Optimierung I 3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem

Mehr

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung

Mehr

5 Quadriken. K = { R 2 ax 2 + bxy + cy 2 + dx + ey + f = 0} wobei a, b, c, d, e, f reelle Zahlen sind mit (a, b, c) (0, 0, 0).

5 Quadriken. K = { R 2 ax 2 + bxy + cy 2 + dx + ey + f = 0} wobei a, b, c, d, e, f reelle Zahlen sind mit (a, b, c) (0, 0, 0). 5 Quadriken Kegelschnitte Ein Kegelschnitt ist eine Teilmenge K R 2, welche durch eine quadratische Gleichung in zwei Unbestimmten beschrieben werden kann: x K = { R 2 ax 2 + bxy + cy 2 + dx + ey + f =

Mehr

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0. Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales

Mehr

Die duale Simplexmethode

Die duale Simplexmethode Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung

Mehr

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist: Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,

Mehr

Kuhn-Tucker-Bedingung

Kuhn-Tucker-Bedingung Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann

Mehr

Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler

Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler Wintersemester 2007/08 27.2.2008 Dr. Sascha Kurz Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler Bitte lesbar ausfüllen, Zutreffendes ankreuzen Herr Frau Name, Vorname: Anschrift:

Mehr

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 4 Simplex-Verfahren Peter Becker (H-BRS) Operations Research I Sommersemester 24 86 / 298 Inhalt Inhalt 4 Simplex-Verfahren Dualer Simplexalgorithmus Vermeidung von Zyklen Peter Becker (H-BRS)

Mehr

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter

Mehr

Lagrange-Multiplikatoren

Lagrange-Multiplikatoren Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i

Mehr

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung 8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen

Mehr

Die Lagrange - duale Optimierungsaufgabe und ihre geometrische Interpretation

Die Lagrange - duale Optimierungsaufgabe und ihre geometrische Interpretation und ihre geometrische Interpretation Vortrag von Elisabeth Zschorlich 09.12.2008 Inhaltsverzeichnis 1 Die Lagrange - duale Optimierungsaufgabe 2 1.1 Einführung...................................... 2 1.2

Mehr

Optimale Steuerung 1 Prozessoptimierung 1

Optimale Steuerung 1 Prozessoptimierung 1 Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung

Mehr

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind

Mehr

mit Ungleichungen als Restriktionen Quadratische Programmierung Gliederung Geodätische Woche 2009 Lutz Roese-Koerner und Wolf-Dieter Schuh

mit Ungleichungen als Restriktionen Quadratische Programmierung Gliederung Geodätische Woche 2009 Lutz Roese-Koerner und Wolf-Dieter Schuh . Geodätische Woche 29 Quadratische Programmierung mit Ungleichungen als Restriktionen 1 Lutz Roese-Koerner und Wolf-Dieter Schuh Institut für Geodäsie und Geoinformation Professur für Theoretische Geodäsie

Mehr

Sattelpunkt-Interpretation

Sattelpunkt-Interpretation Sattelpunkt-Interpretation Vinzenz Lang 14. Mai 2010 Die Sattelpunkt-Interpretation befasst sich mit der Interpretation der Lagrange- Dualität. Sie wird im weiteren Verlauf des Seminars nicht noch einmal

Mehr

Zahlentheorie I. smo osm. Thomas Huber. Inhaltsverzeichnis. Aktualisiert: 1. August 2016 vers Teilbarkeit 2.

Zahlentheorie I. smo osm. Thomas Huber. Inhaltsverzeichnis. Aktualisiert: 1. August 2016 vers Teilbarkeit 2. Schweizer Mathematik-Olympiade smo osm Zahlentheorie I Thomas Huber Aktualisiert: 1. August 2016 vers. 1.0.0 Inhaltsverzeichnis 1 Teilbarkeit 2 2 ggt und kgv 3 3 Abschätzungen 6 1 Teilbarkeit Im Folgenden

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

mit. Wir definieren (Skalarprodukt = Winkel).

mit. Wir definieren (Skalarprodukt = Winkel). 1 Grundidee des Simplexverfahrens (von George Dantzig): Man bestimmt eine beliebige Ecke (Extremalpunkt) einer Lösungsmenge eines Ungleichungssystems. Nun geht man an den Kanten vom Punkt entlang und kontrolliert

Mehr

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit) 3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände

Mehr

Übungsblatt 6 Lösungsvorschläge

Übungsblatt 6 Lösungsvorschläge Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 6 Lösungsvorschläge Vorlesung Algorithmentechnik im WS 09/10 Problem 1: Größter Kreis in konvexem Polygon [vgl. Kapitel 6

Mehr

Kuhn-Tucker Bedingung

Kuhn-Tucker Bedingung Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,

Mehr

Lineare Optimierung Dantzig 1947

Lineare Optimierung Dantzig 1947 Lineare Optimierung Dantzig 947 Lineare Optimierungs-Aufgaben lassen sich mit Maple direkt lösen: with(simplex): g:= 4*x + x2

Mehr

Extremwerte von Funktionen mehrerer reeller Variabler

Extremwerte von Funktionen mehrerer reeller Variabler Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Klausurrepetitorium ABWL

Klausurrepetitorium ABWL Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches

Mehr

Inhalt der Vorlesung. 1 Einführung 2 Konvexe Mengen 3 Konvexe Funktionen 4 Konvexe Optimierung 5 Lösungsverfahren (6 Anwendungen)

Inhalt der Vorlesung. 1 Einführung 2 Konvexe Mengen 3 Konvexe Funktionen 4 Konvexe Optimierung 5 Lösungsverfahren (6 Anwendungen) Inhalt der Vorlesung 1 Einführung 2 Konvexe Mengen 3 Konvexe Funktionen 4 Konvexe Optimierung 5 Lösungsverfahren (6 Anwendungen) 1 S-M. Grad - Optimierung II / Universität Leipzig, SS2018 Beispiel 1.1

Mehr

9 Vektorräume mit Skalarprodukt

9 Vektorräume mit Skalarprodukt 9 Skalarprodukt Pink: Lineare Algebra 2014/15 Seite 79 9 Vektorräume mit Skalarprodukt 9.1 Normierte Körper Sei K ein Körper. Definition: Eine Norm auf K ist eine Abbildung : K R 0, x x mit den folgenden

Mehr

Projektionen auf abgeschlossene konvexe Mengen

Projektionen auf abgeschlossene konvexe Mengen Projektionen auf abgeschlossene konvexe Mengen Seminarvortrag von Veronika Pick Seminar Optimierung bei Herrn Prof. Dr. F. Jarre Heinrich-Heine-Universität Düsseldorf SS 2006 1 Vorbemerkung Das Seminarthema

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

Konvexe Mengen und Funktionen

Konvexe Mengen und Funktionen Konvexe Mengen und Funktionen von Corinna Alber Seminararbeit Leiter: Prof. Jarre im Rahmen des Seminars Optimierung III am Lehrstuhl für Mathematische Optimierung an der Heinrich-Heine-Universität Düsseldorf

Mehr

Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1

Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1 1 Funktionen Definition 1 (Funktion). Übungsblatt 1 Eine Funktion f(x) einer reellen Variable x mit Definitionsbereich D ist eine Regel, die jeder Zahl x in D eine reelle Zahl f(x) eindeutig zuordnet.

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung

Mehr

Seminar Optimierung - Approximation and fitting. Christian Bretzke

Seminar Optimierung - Approximation and fitting. Christian Bretzke Seminar Optimierung - Approximation and fitting Christian Bretzke 1 Inhaltsverzeichnis 1 Norm Approximation 3 1.1 Verschiedene Interpretation.................................. 3 1.2 Gewichtete NAP........................................

Mehr

Graphentheorie. Kürzeste Wege. Kürzeste Wege. Kürzeste Wege. Rainer Schrader. 25. Oktober 2007

Graphentheorie. Kürzeste Wege. Kürzeste Wege. Kürzeste Wege. Rainer Schrader. 25. Oktober 2007 Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 25. Oktober 2007 1 / 20 2 / 20 Wir werden Optimierungsprobleme vom folgenden Typ betrachten: gegeben eine Menge X und eine Funktion

Mehr

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006 Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden

Mehr

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1

Mehr

Analysis II 14. Übungsblatt

Analysis II 14. Übungsblatt Jun.-Prof. PD Dr. D. Mugnolo Wintersemester 01/13 F. Stoffers 04. Februar 013 Analysis II 14. Übungsblatt 1. Aufgabe (8 Punkte Man beweise: Die Gleichung z 3 + z + xy = 1 besitzt für jedes (x, y R genau

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Vektorräume und Lineare Abbildungen

Vektorräume und Lineare Abbildungen Vektorräume und Lineare Abbildungen Patricia Doll, Selmar Binder, Lukas Bischoff, Claude Denier ETHZ D-MATL SS 07 11.04.2007 1 Vektorräume 1.1 Definition des Vektorraumes (VR) 1.1.1 Grundoperationen Um

Mehr

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1 Vortrag: Lineare Gleichungen am 11. März 2009 von Maximilian Wahner Technische Universität Dortmund Fakultät für Mathematik Proseminar Lineare

Mehr

Lineare Optimierungsaufgaben - eine Einführung

Lineare Optimierungsaufgaben - eine Einführung Lineare Optimierungsaufgaben - eine Einführung Aufgabenstellung, Beispiele, graphisches Lösen und Trafo auf Normalform Vortragsskript von Lorenz Fischer Operations Research bedeutet die Suche nach einer

Mehr

6. Softwarewerkzeuge für die Lineare Programmierung

6. Softwarewerkzeuge für die Lineare Programmierung 6. Softwarewerkzeuge für die Lineare Programmierung Inhalt 6. Softwarewerkzeuge für die Lineare Programmierung GNU Linear Programming Kit Operations Research I Hochschule Bonn-Rhein-Sieg, SS 2013 314 GNU

Mehr

d) Produkte orthogonaler Matrizen sind wieder orthogonal.

d) Produkte orthogonaler Matrizen sind wieder orthogonal. Die orthogonale Matrizen Definition: Eine Matrix Q R n n heißt orthogonal, falls QQ T = Q T Q = I gilt. Die Eigenschaften orthogonaler Matrizen: a) det(q) = ±1; b) Qx 2 = x 2 für alle x R n, also Q 2 =

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur

Mehr

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Kapitel 11 Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Wir betrachten folgendes Optimierungsproblem z = c T x min! Ax = b (11.1) (11.2) x j ganz für j = 1,..., n 1 n, (11.3)

Mehr

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden

Mehr

4.4 Quadratische Optimierungsprobleme

4.4 Quadratische Optimierungsprobleme 4.4 Quadratische Optimierungsprobleme 1. Quadratische Programme (QP) 1 2 xt P x + q T x + r s.t. Gx h (4.34) wobei P S n +, G R (m n) und A R (p n) Zielfunktion (ZF) ist (konvex) quadratisch Nebenbedingungen

Mehr

Schulmathematik: Lineare Algebra & Analytische Geometrie. Kapitel 3: Lineare Analytische Geometrie. MAC.05043UB/MAC.05041PH, VU im SS 2017

Schulmathematik: Lineare Algebra & Analytische Geometrie. Kapitel 3: Lineare Analytische Geometrie. MAC.05043UB/MAC.05041PH, VU im SS 2017 Schulmathematik: Lineare Algebra & Analytische Geometrie Kapitel 3: Lineare Analytische Geometrie MAC.05043UB/MAC.0504PH, VU im SS 207 http://imsc.uni-graz.at/pfeiffer/207s/linalg.html Christoph GRUBER,

Mehr

12. Trennungssätze für konvexe Mengen 83

12. Trennungssätze für konvexe Mengen 83 12. Trennungssätze für konvexe Mengen 83 C_1 C_2 a Abbildung 12.4. Trennung konvexer Mengen durch eine Hyperebene mit Normalenvektor a Dann ist int(c) nicht leer (warum?) und [als Minkowski-Summe von C

Mehr

Weitere Interessante Funktionen

Weitere Interessante Funktionen Weitere Interessante Funktionen Pascal Wagner Ausarbeitung zum Vortrag im PS Überraschungen und Gegenbeispiele in der Analysis (Sommersemester 009, Leitung PD Dr. Gudrun Thäter) Zusammenfassung: In dieser

Mehr

Abbildung 1: Graphische Lösung der ersten Übungsaufgabe

Abbildung 1: Graphische Lösung der ersten Übungsaufgabe Lösungen zu den Übungsaufgaben im Kapitel 1 des Lehrbuches Operations Research Deterministische Modelle und Methoden von Stephan Dempe und Heiner Schreier 1. Lösen Sie die folgende lineare Optimierungsaufgabe

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen 11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen Ziel: Wir wollen lokale Extrema von Funktionen f : M R untersuchen, wobei M R n eine k-dimensionale Untermannigfaltigkeit des

Mehr

7.1 Matrizen und Vektore

7.1 Matrizen und Vektore 7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit

Mehr

Lineare (Un-)Gleichungen und lineare Optimierung

Lineare (Un-)Gleichungen und lineare Optimierung Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-6020 Innsbruck, Österreich franz.pauer@uibk.ac.at 1 Einleitung In der linearen

Mehr

Lösung allgemeiner linearer Programme

Lösung allgemeiner linearer Programme Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt

Mehr

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 } A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder

Mehr

Die reellen Zahlen als Äquivalenzklassen rationaler Cauchy-Folgen. Steven Klein

Die reellen Zahlen als Äquivalenzklassen rationaler Cauchy-Folgen. Steven Klein Die reellen Zahlen als Äquivalenzklassen rationaler Cauchy-Folgen Steven Klein 04.01.017 1 In dieser Ausarbeitung konstruieren wir die reellen Zahlen aus den rationalen Zahlen. Hierzu denieren wir zunächst

Mehr

Inhaltsübersicht für heute:

Inhaltsübersicht für heute: Inhaltsübersicht für heute: Dualität Anwendung: Spieltheorie Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann? Inhaltsübersicht für heute: Dualität

Mehr

55 Lokale Extrema unter Nebenbedingungen

55 Lokale Extrema unter Nebenbedingungen 55 Lokale Extrema unter Nebenbedingungen Sei f : O R mit O R n differenzierbar. Notwendige Bescheinigung für ein lokales Extremum in p 0 ist dann die Bedingung f = 0 (siehe 52.4 und 49.14). Ist nun F :

Mehr

Kap. 4: Lineare Programmierung

Kap. 4: Lineare Programmierung Kap. 4: Lineare Programmierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 13./14. VO A&D WS 08/09 27.11./2.12.2008 Petra Mutzel Alg. & Dat.

Mehr

Vorlesung Lineare Optimierung (Sommersemester 2010)

Vorlesung Lineare Optimierung (Sommersemester 2010) 1 Vorlesung Lineare Optimierung (Sommersemester 2010) Kapitel 6: Die Geometrie der Linearen Optimierung Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 15. Juni 2010) Gliederung 2 Das

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare

Mehr

Daniel Borchmann. Sommerakademie Görlitz September 2007

Daniel Borchmann. Sommerakademie Görlitz September 2007 Einführung in Semidenite Programmierung Daniel Borchmann Sommerakademie Görlitz 2007 12. September 2007 1 Einleitung Lineare Optimierung Semidenite Optimierung 2 MAX-CUT MAX-BISECTION MAX-2SAT Einleitung

Mehr