Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1)
|
|
- Katarina Bieber
- vor 6 Jahren
- Abrufe
Transkript
1 Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Anna Raaz Einführung Die Relaxierung von Lagrange wird in der stochastischen Optimierung meistens für eine reine Technik, die manchmal zur Berechnung von Schranken benutzt wird, gehalten. Diese Methode ist eigentlich sehr allgemein, aber unvermeidbar bei der Berechnung von Optimallösungen, bei der Relaxierung von Nebenbedingungen oder bei der Spaltengenerierung. Im Folgengen wird diese Methode aus zwei verschiedenen Blickwinkeln betrachtet: 1. Theoretisch (Dualisierung des gegebenen Problems) und 2. Algorithmisch (Lösung des dualen Problems). Themen: Stochastische Optimierung, Relaxierung von Lagrange, Dualität, Spaltengenerierung. 1. Die Grundidee Wir betrachten das folgende allgemeine mathematische Optimierungsproblem: sup f(x), x X, c(x) = 0 R m [d.h. c j (x) = 0, j = 1,..., m]. (1) Dies ist das sogenannte primale Problem. Bemerkung 1: An dieser Stelle müssen einige vorbereitende Annahmen getroen werden. (i) Wir schreiben sup anstelle von max, weil die Existenz der Optimallösung von (1) noch nicht gewährleistet ist. Diese Notation werden wir auch weiterhin benutzen, denn uns interessieren mehr die Funktionswerte, als die Werte ihrer Argumente. (ii) Bis jetzt sind keine Angaben für X, f und c gemacht. Insbesondere ist die Menge X komplett abstrakt: Es könnte ein endlichdimensionaler Raum, der Raum R n oder etwas ganz anderes sein. Eines unserer Ziele ist es deshalb, die Flexibilität der Relaxierung von Lagrange mit verschiedenen Formen von X zu zeigen. 1
2 (iii) Unsere einzige Annahme betrit den Euklidischen Raum R m, der auch unendlichdimensional sein kann. Wir stellen jetzt die Lagrangefunktion vor, die von x X der primalen Variablen und u R m der dualen Variablen abhängt: X R m (x, u) L(x, u) := f(x) u T c(x). (2) Mit anderen Worten wird die Nebenbedingung c(x) = 0 hierbei relaxiert oder dualisiert, denn wir nehmen sie aus den Nebenbedingungen in (1) heraus und setzen sie in die Zielfunktion ein. Jetzt wird angestrebt, dass c(x) = 0 ist, dies muss aber nicht unbedingt so sein. Umgekehrt enthält X (der Umgebungsraum) die harten Nebenbedingungen, die in den Gleichungen (1, 2) erhalten bleiben, d. h. x X. Wenn wir L(x, u) über x X für xe u R m maximieren, bekommen wir eine wohldenierte Zahl, die abhängig von besonderem u ist. Wir nennen sie die duale Funktion zu (1, 2): θ(u) := sup L(x, u). (3) x X Denition 2 Die Relaxierung von Lagrange besteht in der Lösung des sogenannten dualen Problems inf θ(u). (4) u Rm Im Vorfeld zum Kapitel 3 erwähnen wir jetzt, dass das duale Problem immer irgendwie einfach ist. Wir werden deshalb die Relaxierung von Lagrange anwenden können, wenn (3) selbst einfach ist. Bemerkung 3 Aus diesem Grund betrachten wir folgende Fälle, die in (3) auftreten können, genauer: (i) Die Lagrangefunktion ist nach oben unbeschränkt; dann setzen wir θ(u) = +, das dazugehörige u hat oensichtlich keine Bedeutung für das duale Problem. (ii) Eine endliche obere Schranke existiert (θ(u) < + ), wird aber nie erreicht. Wir denken dabei an Lagrangefunktion wie L(x, u) = ue x mit u < 0. (iii) Die Lagrangefunktion erreicht ihr Maximum an einer eindeutigen Stelle x u, (iv) oder an mehreren primalen Punkten, so dass das gröÿte x u unklar ist. Beispiele für (i) werden in den folgenden Abschnitten 2.1, 2.2 angegeben, wohingegen der Fall (iv) eigentlich die typische Situation darstellt. Wir werden annehmen, dass das Lagrange Orakel verfügbar ist, um L(, u) zu maximieren. Es produziert θ(u) sowie x u X, wenn mindestens eins existiert (siehe Abb. 1). In Kapiteln 3 und 4 werden wir sehen, dass der beschränkte Wert c(x u ) R m sehr wichtig ist. Im Gegensatz zu θ(u), das immer wohldeniert ist (vielleicht auch + ), ist c(x u ) nur im Fall von (iii) wohldeniert. Abb. 1 Das Lagrange Orakel u sup L(x, u) x X θ(u) (wenn <+ ) und ein x u, wenn es existiert 2
3 Wir motivieren das duale Problem durch einige Annahmen. (j) Symmetrisch zu θ(u) denieren wir folgende Funktion: X x ϕ(x) := inf L(x, u) = u Rm { f(x), falls c(x) = 0,, sonst. Oensichtlich ist das primale Problem (1) nichts Anderes als Maximierung von ϕ(x) über X, denn inf u R m L(x, u) = f(x) für c(x) = 0 und wenn wir f(x) maximieren, erhalten wir: sup x X f(x) wie in (1). Diese intuitive Denition enthüllt eine erste Beziehung zwischen (1) und (4): ( primal dual ) sup x inf u L(x, u) inf u sup x L(x, u) (jj) Eine stärkere Beziehung stellt die Eigenschaft der schwachen Dualität dar. Nach Denition folgt: θ(u) L(x, u) für alle x X, da θ(u) = sup x X L(x, u) war, und wenn c(x) = 0 ist, dann gilt: L(x, u) = f(x). Zusammen mit der ersten Abschätzung folgt daraus: θ(u) f(x). Das bedeutet, dass beliebiges θ(u) eine obere Schranke für die Optimallösung von (1) bildet; das duale Problem besteht deshalb darin, die beste (kleinste) obere Schranke zu nden. (jjj) Schlieÿlich ist es unser wichtigstes Ziel ein u so zu nden, dass das Orakel ein x u produziert, das primal optimal ist. Wenn so ein u gefunden ist, dann gilt c(x u ) = 0 in (1), womit dann L(x u, u) = f(x u ) folgt; andererseits weil L(x u, u) = sup x X L(x, u) = θ(u) nach Denition von x u ist (da x u primal optimal), so ergibt sich sofort f(x u ) = θ(u). Mit der schwachen Dualität folgt dann: Um unser Ziel zu erreichen, - ist es notwendig, dass u θ minimiert; - ist es hinreichend, dass x u zulässig in (1) ist. Wir fassen diese letze Bemerkung zusammen: die aus (3) erhaltenen x u 's, die auch für (1) optimal sind, sind genau die Passenden (erfüllen die Gleichung c(x u ) = 0); und die einzige Chance, eines von denen zu erhalten, ist, das duale Problem zu lösen. Wichtig für (jj) ist folgende Denition. Denition 4 Die Dualitätslücke ist die (nichtnegative) Dierenz zwischen den optimalen Werten von (1) und (4). Also wird die Relaxierung von Lagrange erfolgreich verlaufen, wenn die Dualitätslücke möglichst klein ist, besser sogar gleich null. Bemerkung 5 Es ist wichtig zu verstehen, dass für ein gegebenes primales Problem (1) viele Dualisierungen existieren können, die sich nur durch die Wahl der Lagrangefunktion unterscheiden. Der Abschnitt 2.2 wird dies genauer darstellen. Bei der Auswahl der richtigen Lagrangefunktion müssen zwei folgende Fragen berücksichtigt werden: - Wie einfach kann (3) gelöst werden? - Wie klein ist die Dualitätslücke? 3
4 2. Beispiele Die unten aufgeführten Beispiele werden die in Kapitel 1 gezeigten Tatsachen untermauern; sie werden auch zeigen, wie vielseitig und allgegenwärtig die Relaxierung von Lagrange sein kann. 2.1 Ungleichungen Angenommen, dass die relaxierten Nebenbedingungen in (1) Ungleichungen sind. Dann wollen wir Dualität auf das folgende Problem anwenden: sup f(x), x X, c(x) 0. (5) Die einfachste Methode, wieder Gleichungen zu bekommen, ist die sogenannten Schlupfvariablen einzuführen. Dann kann unser Problem so geschrieben werden: sup f(x), x X, y 0 R m, c(x) + y = 0. (6) Wenn wir jetzt die primale Variale x X in (x, y) X R m + ändern, erhalten wir für die Lagrangefunktion: L(x, u) = f(x) u T (c(x) + y) = f(x) u T c(x) u T y = L(x, u) u T y, wo L immer noch die Funktion aus (2) ist. Für die duale Funktion ergibt sich somit: sup L(x, u) u T y = x X,y 0 { θ(u), falls u 0, +, sonst, wo θ immer noch die Funktion aus (3) ist. Das dazugehörige duale Problem ist (4) mit dem beschränkten u 0, also inf u 0 θ(u). Wir erkennen die Tatsache, dass Ungleichungen die dualen Variablen beschränken. Wir zeigen nun die Bemerkung 3(iv): Sei u 0 gegeben. Dann hat der primale Punkt in Abb.1 zwei Komponenten: - Erstens ist x u X, wenn es existiert, eindeutig oder nicht eindeutig. - Zweitens ist y u R m. Für eine positive Komponente u j ist das dazugehörige y j u klar gleich 0 nach Denition der dualen Funktion; aber wenn u j = 0, dann kann y j u aus dem ganzen Intervall [0, + [ sein. 2.2 Lineare Programmierung Sei (1) ein lineares Programm in Standardform gegeben: sup b T x, x 0 R n, Ax = a R m. Zur Veranschaulichung betrachten wir zwei Dualisierungsmöglichkeiten. Dualisierung der Nebenbedingung Ax = a: Erst nehmen wir X := R n + und c(x) := Ax a = 0 an, so dass die Lagrangefunktion so aussieht: L(x, u) = f(x) u T c(x) = b T x u T (Ax a) = b T x u T Ax+u T a = (b A T u) T x+a T u. 4
5 Die resultierende Dualfunktion ergibt sich daraus wie im letzen Abschnitt: { sup(b A T u) T x + a T a T u, falls b A T u 0, u = x 0 +, sonst. Somit erhalten wir das duale lineare Programm: min a T u, so dass A T u b. Dualisierung von allen Nebenbedingungen: Nun setzen wir X := R n, so dass wir zwei Typen von Nebenbedingungen erhalten: c(x) = Ax a = 0 wie davor (mit Multiplikatoren u R m ), und x 0 (mit Multiplikatoren v R n +). Damit folgt für die Lagrangefunktion: ( ) L(x, u) = b T x ũ T Ax a = b T x u T (Ax a)+v T x = (b A T u+v) T x+a T u, x ( ) u wobei ũ :=, v was über dem ganzen Raum R n maximiert werden muss. Die Dualfunktion ist somit: { sup (b A T u v) T x + a T a T u, falls b A T u + v = 0, u = x R n +, sonst. Es ist oensichtlich, dass die duale Variable v praktisch keine Rolle spielt, denn es gilt: v = A T u b, was nichtnegativ sein muss, also 0 A T u b. Damit haben wir wieder das vorherige duale Problem. Mit Anlehnung an die Bemerkung 5 war dies ein Beispiel, wo zwei Dualisierungen gleich sind. 2.3 Spaltengenerierung Betrachten wir wieder (1), das in Form vom linearen Programm so geschrieben wird: sup b T x, x X, Ax = a; (7) hierbei sei X ein diskreter endlichdimensionaler Raum. Ein besonderes Verfahren, um (7) zu lösen, ist die Spaltengenerierung. Dabei wird aus X erst eine Teilfolge { x k } K herausgenommen um dadurch (7) zu vereinfachen. Das resultierende beschränkte Problem wird durch Konvexizierung leichter, d. h. man nimmt die konvexe Hülle, bestehend aus x k 's. Damit wird (7) durch das eingeschränkte Programm von Dantzig-Wolfe ersetzt. sup b T x, x X K := conv{ x 1,..., x K }, Ax = a. (8) Bemerkung 6 Sei K (vermutlich eine groÿe Variable) die Anzahl aller Punkte in X. Oensichtlich kann das eingeschränkte Programm äquivalent zu (7) so umformuliert werden: sup α k b T x k, K α k A x k = a, α {0, 1}, K α k = 1. K 5
6 Wenn wir die 0 1 Beschränkungen zu α k [0, 1] relaxieren und die Anzahl K der Spalten auf K begrenzen, erhalten wir sup K α k b T x k, K α k A x k = a, α k 0, K α k = 1. Dies ist das eingeschränkte Programm (8), ausgedrückt mit den Termen der konvexen Komponenten von x. Jetzt stellt sich die Frage, was passiert mit dem Algorithmus mit der neuen Spalte x K+1. Dafür sei u K der Vektor der Skalare, der zu Gleichung Ax = a im eingeschränkten Programm (8) gehört. Dann wird x K+1 zur Lösung vom Subproblem oder sogenannten Satelliten genommen: Maximiere b T x u T K Ax über X (dieses Problem hat immer eine Lösung, da X ein endlichdimensionaler Raum ist). Natürlich ist der Satellit äquivalent zur Lösung von sup x X L(x, u K ), wobei der konstante Term a T u K vernachlässigt wird. Diese Methode versucht, ein passendes Polyeder X K zu nden, d. h. eigentlich die passenden x k 's, noch genauer die passenden u k 's. Die Rolle der Optimallösungen- nennen wir sie ˆx- besteht nur darin, die optimalen Lösungen von (7) zu approximieren; sie haben keinen Einuss auf den Verlauf des Algorithmus. Mit der Bemerkung (jjj) stellen wir fest, dass die Spaltengenerierung das Gleiche macht, wie die Relaxierung von Lagrange, sogar mit dem gleichen Mittel: Sie muss die duale Funktion mit Hilfe des Orakels aus Abb.1 minimieren, denn nach Denition der konvexen Hülle suchen wir ja die kleinste konvexe Menge, die X enthält. Tatsächlich werden wir in Kapitel 4.2 sehen, dass Dantzig-Wolfe ein besonderer, aber nicht besonders ezienter Algorithmus zur Minimierung von θ(u) ist. Bemerkung 7 Die Gleichheit zwischen den beiden Methoden ist oft nur schwer zu erkennen, denn: - Bei der Relaxierung von Lagrange wird das Orakel hervorgehoben, das die Nebenbedingung Ax = a relaxiert und die Menge X unverändert lässt; - In der Spaltengenerierung verfährt man normalerweise umgekehrt, indem das eingeschränkte Programm (8), das Ax = a unverändert lässt, hervorgehoben wird, während X durch die Operation X X K relaxiert wird. Daraus folgt, dass sie beide im Prinzip das gleiche Problem lösen, nur gehen sie von verschiedenen Annahmen aus. 2.4 Quadratische Programmierung Sei Q symmetrische n n Matrix. Wir dualisieren nun das quadratische Problem sup b T x 1 Ax=a 2 xt Qx, (wo die Nebenbedingungen wieder Ungleichungen sein können). Die Lagrangefunktion ist die Folgende: L(x, u) = f(x) u T c(x) = b T x 1 2 xt Qx u T (Ax a) = (b A T u) T x 1 2 xt Qx+a T u. 6
7 Einige einfache Beobachtungen werden hier gemacht: - Wenn Q nicht positiv semidenit ist, ist θ(u) + für alle u. Die Relaxierung von Lagrange führt in diesem Fall zu nichts. - Sei nun Q positiv denit. Dann wird L(, u) an einer eindeutigen Stelle x u = Q 1 (b A T u) maximiert, dazu leitet man L(x, u) nach x ab und setzt die Ableitung dann gleich Null. Die duale Funktion ergibt sich durch Einsetzen von x u in die Lagrangefunktion: θ(u) Bem.(jjj) = L(x u, u) = 1 2 (b AT u) T Q 1 (b A T u) +a T u. }{{} =x u Die duale Variable u ist durch θ(u) = AQ 1 (A T u b) + a = 0 charakterisiert. Wenn das dazugehörige x u die Gleichung Ax u = AQ 1 (b A T u) = a erfüllt, dann ist x u aus der Sicht von Kapitel 1 Bem. (jjj) primal optimal. D. h. in dieser Situation: Wenn wir das duale Problem gelöst haben, so erhalten wir automatisch eine Lösung für das primale Problem, denn dieses x u ist eindeutig (man beachte, dass diese Eigenschaft nicht bei der linearen Programmierung gilt, denn da müssen die primalen Optimallösumgen nicht eindeutig sein). - Zwischen diesen beiden Fällen haben wir den Fall, wo Q 0, aber nicht invertierbar. Dieser Fall enthält die lineare Programmierung mit Q = 0 (setze Q = 0 in das quadratische Problem oben ein und vergleiche das Ergebnis mit (7)). Wenn wir nun sagen, dass die Gleichung Qx = b A T u eine Lösung hat (d. h., dass L(, u) ein endliches Maximum hat), dann bedeutet das, dass u die Bedingung b A T u Im Q erfüllt; der Bereich von θ ist ein aner Teilraum. Damit u zulässig für das duale Programm wird, müssen die x u 's einen anen Teilraum bilden, parallel zu Ker Q. Denn sei x Ker Q. Dann gilt: Qx = 0 und somit 0 = b A T u b = A T u. Also ist u zulässig für das duale Problem. Man braucht nicht zu erwähnen, dass die Minimierung von θ und Berechnung der primal optimalen Lösungen das Lösen eines linearen Systems bedeutet, das die Optimalitätsbedingung des quadratischen Problems ist, also: Literatur Qx = b A T u Ax = a [1] C. Lemarechal: The Omnipresence of Lagrange [2] R. Schrader: Skript zur Vorlesung Operations Research, Zentrum für angewandte Informatik Köln, SS
Das Lagrange-duale Problem
Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h
MehrDualitätssätze der linearen Optimierung
Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =
MehrKAPITEL 3. Konvexe Funktionen
KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn
MehrOptimalitätsbedingungen
Optimalitätsbedingungen Nadja Irmscher 28. Mai 2010 1 Nachweis von Suboptimalität und Abbruchkriterien Über das gegebene Programm minimiere f 0 (x) über x D sodass f i (x) 0, i = 1,..., m h i (x) = 0,
MehrOperations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung
Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)
MehrDualität bei konvexer Optimierung
Dualität bei konvexer Optimierung Seminar zur Numerik I im SS 2016 Laslo Hunhold 10. Mai 2016 Ausarbeitung zum Seminarvortrag vom 2. Mai 2016 Mathematisches Institut Mathematisch-Naturwissenschaftliche
MehrSattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen
Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sandro Grunert WS 08/09 Seminar Optimierung Technische Universität Chemnitz 1 Inhaltsverzeichnis 0 Grundlegende Situation
Mehr1 Der Simplex Algorithmus I
1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier
MehrOperations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.
Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme
MehrOptimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung
Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze
MehrVORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max
MehrEigenschaften von LPs
2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört
MehrKonvexe Optimierungsprobleme
von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel
MehrKombinatorische Optimierung
Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
MehrKapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester
Mehr6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode
6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,
MehrOptimierung für Wirtschaftsinformatiker: Lineare Programme
Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen
MehrDie Lagrange-duale Funktion
Die Lagrange-duale Funktion Gregor Leimcke 21. April 2010 1 Die Lagrangefunktion Wir betrachten das allgemeine Optimierungsproblem wobei minimiere f 0 über D sodass f i 0, i = 1,..., m 1.1 D = h i = 0,
MehrGeometrische Interpretation
Geometrische Interpretation Stefanie Riedel 10. Mai 2010 1 Starke und schwache Dualität über Wertemengen Wir betrachten eine einfache geometrische Interpretation dualer Funktionen aus der Menge G: G =
MehrTeil I. Lineare Optimierung
Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,
Mehr3.1. Existenzsatz und Struktur der Lösungsmenge
3. EXISTENZ UND DUALITÄT 3.1. Existenzsatz und Struktur der Lösungsmenge Nach dem Satz von Weierstraß besitzt eine lineare Funktion auf einem Polytop stets ein Minimum und ein Maximum. Im allgemeinen Fall
MehrKapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:
Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten
MehrStudientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform
MehrExtrema von Funktionen mit Nebenbedingung
Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen mit Nebenbedingung Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,
MehrInnere-Punkt-Methoden
Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction
MehrGanzzahlige lineare Programme
KAPITEL 5 Ganzzahlige lineare Programme Wir betrachten nun Optimierungsprobleme vom Typ (42) min c T x s.d. Ax = b, x 0, x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n, b R m gegeben seien.
Mehr3.2.5 Dualität der linearen Optimierung I
3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem
MehrWiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b
Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung
Mehr5 Quadriken. K = { R 2 ax 2 + bxy + cy 2 + dx + ey + f = 0} wobei a, b, c, d, e, f reelle Zahlen sind mit (a, b, c) (0, 0, 0).
5 Quadriken Kegelschnitte Ein Kegelschnitt ist eine Teilmenge K R 2, welche durch eine quadratische Gleichung in zwei Unbestimmten beschrieben werden kann: x K = { R 2 ax 2 + bxy + cy 2 + dx + ey + f =
Mehrf f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.
Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales
MehrDie duale Simplexmethode
Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrVORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung
MehrMusterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:
Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,
MehrKuhn-Tucker-Bedingung
Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann
MehrKlausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler
Wintersemester 2007/08 27.2.2008 Dr. Sascha Kurz Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler Bitte lesbar ausfüllen, Zutreffendes ankreuzen Herr Frau Name, Vorname: Anschrift:
MehrSimplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 4 Simplex-Verfahren Peter Becker (H-BRS) Operations Research I Sommersemester 24 86 / 298 Inhalt Inhalt 4 Simplex-Verfahren Dualer Simplexalgorithmus Vermeidung von Zyklen Peter Becker (H-BRS)
MehrComputer Science Department - High Performance and Web Computing Group. Optimierungsprobleme
Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter
MehrLagrange-Multiplikatoren
Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i
MehrInhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung
8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen
MehrDie Lagrange - duale Optimierungsaufgabe und ihre geometrische Interpretation
und ihre geometrische Interpretation Vortrag von Elisabeth Zschorlich 09.12.2008 Inhaltsverzeichnis 1 Die Lagrange - duale Optimierungsaufgabe 2 1.1 Einführung...................................... 2 1.2
MehrOptimale Steuerung 1 Prozessoptimierung 1
Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung
MehrVORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind
Mehrmit Ungleichungen als Restriktionen Quadratische Programmierung Gliederung Geodätische Woche 2009 Lutz Roese-Koerner und Wolf-Dieter Schuh
. Geodätische Woche 29 Quadratische Programmierung mit Ungleichungen als Restriktionen 1 Lutz Roese-Koerner und Wolf-Dieter Schuh Institut für Geodäsie und Geoinformation Professur für Theoretische Geodäsie
MehrSattelpunkt-Interpretation
Sattelpunkt-Interpretation Vinzenz Lang 14. Mai 2010 Die Sattelpunkt-Interpretation befasst sich mit der Interpretation der Lagrange- Dualität. Sie wird im weiteren Verlauf des Seminars nicht noch einmal
MehrZahlentheorie I. smo osm. Thomas Huber. Inhaltsverzeichnis. Aktualisiert: 1. August 2016 vers Teilbarkeit 2.
Schweizer Mathematik-Olympiade smo osm Zahlentheorie I Thomas Huber Aktualisiert: 1. August 2016 vers. 1.0.0 Inhaltsverzeichnis 1 Teilbarkeit 2 2 ggt und kgv 3 3 Abschätzungen 6 1 Teilbarkeit Im Folgenden
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
Mehrmit. Wir definieren (Skalarprodukt = Winkel).
1 Grundidee des Simplexverfahrens (von George Dantzig): Man bestimmt eine beliebige Ecke (Extremalpunkt) einer Lösungsmenge eines Ungleichungssystems. Nun geht man an den Kanten vom Punkt entlang und kontrolliert
Mehr3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)
3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände
MehrÜbungsblatt 6 Lösungsvorschläge
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 6 Lösungsvorschläge Vorlesung Algorithmentechnik im WS 09/10 Problem 1: Größter Kreis in konvexem Polygon [vgl. Kapitel 6
MehrKuhn-Tucker Bedingung
Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,
MehrLineare Optimierung Dantzig 1947
Lineare Optimierung Dantzig 947 Lineare Optimierungs-Aufgaben lassen sich mit Maple direkt lösen: with(simplex): g:= 4*x + x2
MehrExtremwerte von Funktionen mehrerer reeller Variabler
Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
MehrKlausurrepetitorium ABWL
Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches
MehrInhalt der Vorlesung. 1 Einführung 2 Konvexe Mengen 3 Konvexe Funktionen 4 Konvexe Optimierung 5 Lösungsverfahren (6 Anwendungen)
Inhalt der Vorlesung 1 Einführung 2 Konvexe Mengen 3 Konvexe Funktionen 4 Konvexe Optimierung 5 Lösungsverfahren (6 Anwendungen) 1 S-M. Grad - Optimierung II / Universität Leipzig, SS2018 Beispiel 1.1
Mehr9 Vektorräume mit Skalarprodukt
9 Skalarprodukt Pink: Lineare Algebra 2014/15 Seite 79 9 Vektorräume mit Skalarprodukt 9.1 Normierte Körper Sei K ein Körper. Definition: Eine Norm auf K ist eine Abbildung : K R 0, x x mit den folgenden
MehrProjektionen auf abgeschlossene konvexe Mengen
Projektionen auf abgeschlossene konvexe Mengen Seminarvortrag von Veronika Pick Seminar Optimierung bei Herrn Prof. Dr. F. Jarre Heinrich-Heine-Universität Düsseldorf SS 2006 1 Vorbemerkung Das Seminarthema
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
MehrKonvexe Mengen und Funktionen
Konvexe Mengen und Funktionen von Corinna Alber Seminararbeit Leiter: Prof. Jarre im Rahmen des Seminars Optimierung III am Lehrstuhl für Mathematische Optimierung an der Heinrich-Heine-Universität Düsseldorf
MehrMikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1
1 Funktionen Definition 1 (Funktion). Übungsblatt 1 Eine Funktion f(x) einer reellen Variable x mit Definitionsbereich D ist eine Regel, die jeder Zahl x in D eine reelle Zahl f(x) eindeutig zuordnet.
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung
MehrSeminar Optimierung - Approximation and fitting. Christian Bretzke
Seminar Optimierung - Approximation and fitting Christian Bretzke 1 Inhaltsverzeichnis 1 Norm Approximation 3 1.1 Verschiedene Interpretation.................................. 3 1.2 Gewichtete NAP........................................
MehrGraphentheorie. Kürzeste Wege. Kürzeste Wege. Kürzeste Wege. Rainer Schrader. 25. Oktober 2007
Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 25. Oktober 2007 1 / 20 2 / 20 Wir werden Optimierungsprobleme vom folgenden Typ betrachten: gegeben eine Menge X und eine Funktion
MehrTeil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006
Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden
MehrMonotonie, Konkavität und Extrema
Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1
MehrAnalysis II 14. Übungsblatt
Jun.-Prof. PD Dr. D. Mugnolo Wintersemester 01/13 F. Stoffers 04. Februar 013 Analysis II 14. Übungsblatt 1. Aufgabe (8 Punkte Man beweise: Die Gleichung z 3 + z + xy = 1 besitzt für jedes (x, y R genau
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
Mehr37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
MehrVektorräume und Lineare Abbildungen
Vektorräume und Lineare Abbildungen Patricia Doll, Selmar Binder, Lukas Bischoff, Claude Denier ETHZ D-MATL SS 07 11.04.2007 1 Vektorräume 1.1 Definition des Vektorraumes (VR) 1.1.1 Grundoperationen Um
MehrProseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner
Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1 Vortrag: Lineare Gleichungen am 11. März 2009 von Maximilian Wahner Technische Universität Dortmund Fakultät für Mathematik Proseminar Lineare
MehrLineare Optimierungsaufgaben - eine Einführung
Lineare Optimierungsaufgaben - eine Einführung Aufgabenstellung, Beispiele, graphisches Lösen und Trafo auf Normalform Vortragsskript von Lorenz Fischer Operations Research bedeutet die Suche nach einer
Mehr6. Softwarewerkzeuge für die Lineare Programmierung
6. Softwarewerkzeuge für die Lineare Programmierung Inhalt 6. Softwarewerkzeuge für die Lineare Programmierung GNU Linear Programming Kit Operations Research I Hochschule Bonn-Rhein-Sieg, SS 2013 314 GNU
Mehrd) Produkte orthogonaler Matrizen sind wieder orthogonal.
Die orthogonale Matrizen Definition: Eine Matrix Q R n n heißt orthogonal, falls QQ T = Q T Q = I gilt. Die Eigenschaften orthogonaler Matrizen: a) det(q) = ±1; b) Qx 2 = x 2 für alle x R n, also Q 2 =
MehrInhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015
Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler
MehrKap. 4.3: Das Dualitätstheorem der linearen Optimierung
Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur
MehrDie duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme
Kapitel 11 Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Wir betrachten folgendes Optimierungsproblem z = c T x min! Ax = b (11.1) (11.2) x j ganz für j = 1,..., n 1 n, (11.3)
MehrAufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen
Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden
Mehr4.4 Quadratische Optimierungsprobleme
4.4 Quadratische Optimierungsprobleme 1. Quadratische Programme (QP) 1 2 xt P x + q T x + r s.t. Gx h (4.34) wobei P S n +, G R (m n) und A R (p n) Zielfunktion (ZF) ist (konvex) quadratisch Nebenbedingungen
MehrSchulmathematik: Lineare Algebra & Analytische Geometrie. Kapitel 3: Lineare Analytische Geometrie. MAC.05043UB/MAC.05041PH, VU im SS 2017
Schulmathematik: Lineare Algebra & Analytische Geometrie Kapitel 3: Lineare Analytische Geometrie MAC.05043UB/MAC.0504PH, VU im SS 207 http://imsc.uni-graz.at/pfeiffer/207s/linalg.html Christoph GRUBER,
Mehr12. Trennungssätze für konvexe Mengen 83
12. Trennungssätze für konvexe Mengen 83 C_1 C_2 a Abbildung 12.4. Trennung konvexer Mengen durch eine Hyperebene mit Normalenvektor a Dann ist int(c) nicht leer (warum?) und [als Minkowski-Summe von C
MehrWeitere Interessante Funktionen
Weitere Interessante Funktionen Pascal Wagner Ausarbeitung zum Vortrag im PS Überraschungen und Gegenbeispiele in der Analysis (Sommersemester 009, Leitung PD Dr. Gudrun Thäter) Zusammenfassung: In dieser
MehrAbbildung 1: Graphische Lösung der ersten Übungsaufgabe
Lösungen zu den Übungsaufgaben im Kapitel 1 des Lehrbuches Operations Research Deterministische Modelle und Methoden von Stephan Dempe und Heiner Schreier 1. Lösen Sie die folgende lineare Optimierungsaufgabe
MehrWiederholung von Linearer Algebra und Differentialrechnung im R n
Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:
Mehr11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen
11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen Ziel: Wir wollen lokale Extrema von Funktionen f : M R untersuchen, wobei M R n eine k-dimensionale Untermannigfaltigkeit des
Mehr7.1 Matrizen und Vektore
7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit
MehrLineare (Un-)Gleichungen und lineare Optimierung
Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-6020 Innsbruck, Österreich franz.pauer@uibk.ac.at 1 Einleitung In der linearen
MehrLösung allgemeiner linearer Programme
Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt
MehrWenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }
A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder
MehrDie reellen Zahlen als Äquivalenzklassen rationaler Cauchy-Folgen. Steven Klein
Die reellen Zahlen als Äquivalenzklassen rationaler Cauchy-Folgen Steven Klein 04.01.017 1 In dieser Ausarbeitung konstruieren wir die reellen Zahlen aus den rationalen Zahlen. Hierzu denieren wir zunächst
MehrInhaltsübersicht für heute:
Inhaltsübersicht für heute: Dualität Anwendung: Spieltheorie Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann? Inhaltsübersicht für heute: Dualität
Mehr55 Lokale Extrema unter Nebenbedingungen
55 Lokale Extrema unter Nebenbedingungen Sei f : O R mit O R n differenzierbar. Notwendige Bescheinigung für ein lokales Extremum in p 0 ist dann die Bedingung f = 0 (siehe 52.4 und 49.14). Ist nun F :
MehrKap. 4: Lineare Programmierung
Kap. 4: Lineare Programmierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 13./14. VO A&D WS 08/09 27.11./2.12.2008 Petra Mutzel Alg. & Dat.
MehrVorlesung Lineare Optimierung (Sommersemester 2010)
1 Vorlesung Lineare Optimierung (Sommersemester 2010) Kapitel 6: Die Geometrie der Linearen Optimierung Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 15. Juni 2010) Gliederung 2 Das
MehrLineare Gleichungssysteme
Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare
MehrDaniel Borchmann. Sommerakademie Görlitz September 2007
Einführung in Semidenite Programmierung Daniel Borchmann Sommerakademie Görlitz 2007 12. September 2007 1 Einleitung Lineare Optimierung Semidenite Optimierung 2 MAX-CUT MAX-BISECTION MAX-2SAT Einleitung
Mehr