3.1. Existenzsatz und Struktur der Lösungsmenge
|
|
- Kirsten Pohl
- vor 6 Jahren
- Abrufe
Transkript
1 3. EXISTENZ UND DUALITÄT 3.1. Existenzsatz und Struktur der Lösungsmenge Nach dem Satz von Weierstraß besitzt eine lineare Funktion auf einem Polytop stets ein Minimum und ein Maximum. Im allgemeinen Fall eines Polyeders kann man durch eine zusätzliche Bedingung an die Zielfunktion diese Existenz sichern. Satz 3.1. Sei P = {x R n Ax b} undm := inf{c T x x P} >. Dann existiert min{c T c x P}. Beweis: Nach dem Satz von Motzkin giltp = Q+C mit einem PolytopQund einem konvexen polyedrischen KegelC. MitQ = conv{u 1,...,u k } undc = cone{v 1,...,v l } ergibt sich x P x = k l λ i u i + µ j v j mitλ i 0, λ i = 1,µ j 0. i=1 j=1 Insbesondere istu i P für allei. Nach Voraussetzung ist c T x = k l k λ i c T u i + µ j c T v j m λ i,µ j : λ i 0, λ i = 1,µ j 0, i=1 j=1 i=1 also c T v j 0 für alle j. Mit min{c T u i i = 1,...,k} = c T u i 0 für ein i 0 {1,...,k} folgt hieraus k c T x λ i c T u i c T u i 0 x P, also die Behauptung. i=1 Satz 3.2. Sei P R n ein nichtleeres Polyeder. (i) Ist F := argmin{c T x x P}, dann istf eine Seite von P. (ii) Ist P spitz, dann ist wenigstens eine Ecke vonp optimal. Beweis: Mitmin{c T x x P} = c T x =: m für ein x P ist F = {x P c T x = m} und die Hyperebene H := {x R n c T x = m} eine Stützhyperebene von P. Damit ist F eine Seite vonp. FallsP spitz ist, dann folgt aus Satz 2.16, dass auch F spitz ist. Definition. Sei f : R n R. Dann heißt Niveaumenge der Funktionf zum Niveauα. N f (α) := {x R n f(x) α} Die Niveaumengen einer linearen Funktionf(x) = c T x sind also Halbräume. Für die MinimalstellenmengeF von f aufp gilt dannf = P N f (m). 1
2 3.2. Dualität Wir betrachten jetzt Paare linearer Optimierungsaufgaben, bei denen man aus der Lösung der einen Aufgabe auf die Lösung der anderen Aufgabe schließen kann. Definition. Ein Paar linearer Aufgaben (P) : min{c T x x B} (D) : max{b T y y B D } heißt dual, falls gilt: (i) c T x b T y für allex B, für alley B D (ii) c T x = b T y für ein x B, für ein y B D (schwache Dualität) (starke Dualität). mit (i) Anwendungsmöglichkeiten: Schranken für Optimallösungen Existenzaussagen Optimalitätsbedingungen Lösungsalgorithmen Entsprechend der Grundtypen linearer Ungleichungssysteme betrachten wir nun folgende Grundtypen linearer Programme: Typ I: (P I ) min{c T x Ax b} Typ II: (P II ) min{c T x Ax b,x 0} Typ III: (P III ) min{c T x Ax = b,x 0} Es genügt, die Dualtät für Programme vom Typ III zu betrachten. Satz 3.3. [Dualitätssatz, Existenzsatz] IstB := {x R n Ax = b,x 0} und B D := {y R n A T y c}, dann gilt: min { c T x Ax = b,x 0 } = max { b T y R n A T y c }. Beweis: Existenz und schwache Dualität: Es gilt offensichtlich b T y = x T A T y c T x x B, y B D. (*) Sei x B,ẙ B D. Dann ist b T y c T x für alle y B D und b T ẙ c T x für alle x B. Aus Satz 3.1 folgt hieraus die Existenz von Lösungen für beide Aufgaben, also mit (*) max(d I ) min(p III ). Starke Dualität: Zulässigkeit und schwache Dualität (*) entsprechen der Implikation Ax = b x 0 = ct x+b T y 0. A T y c 2
3 Eine Umformung und die Anwendung des Homogenisierungslemmas (Lemma 2.7) ergibt Ax b t 0 Ax +b t 0 x 0 A T y c t 0 t 0 = c T x+b T y +0 t 0. Nach dem Farkas-Lemma ist diese Implikation äquivalent zur Lösbarkeit des Systems A T (u u ) v Aw = c = b b T (u u ) c T w s = 0 u,u 0,v 0,w 0,s 0. Mitu := u u und der Interpretation vonv undsals Schlupfvariable ist äquivalent dazu das folgende System lösbar: A T u c Aw = b w 0 b T u c T w 0. Sei etwa(ů,ẘ) eine Lösung. Dann istů B,ẘ B D. Zusammen mit der schwachen Dualität (*) ergibt sich b T ů = c T ẘ, also starke Dualität. Folgerung. Zweimaliges Dualisieren führt auf das Ausgangsproblem zurück. Bezeichnung: inf{c T x x B} := +, falls B = sup{b T y y B D } :=, fallsb D = Satz 3.4. [Dualitätssatz, Existenzsatz; allgemeiner Fall] IstB := {x R n Ax = b,x 0} oderb D := {y R n A T y c}, dann gilt: inf { c T x Ax = b,x 0 } = sup { b T y R n A T y c }. Existiert die Lösung einer Aufgabe, dann existiert auch die Lösung der anderen Aufgabe. Der gemeinsame Optimalwert istx T Ay für entsprechende Lösungenx,y. Beweis: Fall a: B,B D : Die Behauptung folgt aus Satz 3.3. Fall b: B = : Nach dem Farkas-Lemma existiert ein ȳ mit A T ȳ 0,b T ȳ < 0. Nach Voraussetzung istb D, es existiert also ein ỹ mita T ỹ c. Folglich gilt A T (ỹ t ȳ) c t 0 und b T (ỹ t ȳ) + fürt +. Damit istinf{c T x x B} = + = sup{b T y y B D }. Fall c: B D = : Analog zu b) erhält maninf{c T x x B} = = sup{b T y y B D }. Ist nun x eine Lösung von min{c T x x B}, dann muss nach c) B D gelten. Der Dualitätssatz 3.3 liefert dannc T x = y b = y Ax. Für eine Lösungy vonmax{b T y y B D } erhält man mit b) dasselbe Resultat. Folgerung. Besitzt das Dualproblem max{b T y A T y c} die Maximalstelle y mit m := b T y, dann existieren nichtnegative Zahlen x i, mit Hilfe derer sich die Ungleichung bt y m als Linearkombination der Ungleichungen ausa T y c darstellen lässt. 3
4 3.3. Komplementarität und Schattenpreise Seien x,s R n +. Dann heißt die Beziehung xt s = 0 zwischen x,s 0 Komplementarität. In der Optimierung ist die Komplementarität zwischen den Variablen der primalen Aufgabe und den Schlupfvariablen der dualen Aufgabe charakteristisch für optimale Lösungen beider Aufgaben. Satz 3.4. [Komplementaritätssatz] Die Optima in den Aufgaben (P III ) und (D I ) seien endlich. Für x zulässig in (P III ) undẙ zulässig in (D I ) sind dann folgende zwei Aussagen äquivalent: (i) x undẙ sind jeweils optimal. (ii) Es gilt x T (c A T ẙ) = 0 (Komplementarität). Außerdem gilt für jede Zeilea it y c i ausa T y c alternativ (iii) Es existiert eine Optimallösungx in (P III ) mitx i > 0. (iv) Es existiert eine Optimallösungy in (D I ) mita it y < c i. Beweis: (i) (ii): x undẙ sind jeweils optimal Dualität c T x = b T ẙ x T (c A T ẙ) = 0. (iii) (iv): Für jeweilige Optimallösungen schließen sich nach (ii) die Bedingungen (iii) und (iv) aus. Wir zeigen nun, dass entweder (ii) oder (iv) gilt. Sei m := c T x = min{c T x x P III } = max{b T y y P D I } = bt y. Bedingung (iv) gelte nicht für die Zeileiaus A T y c, d.h. für jede Optimallösung von (D I ) gilt: A T y c, b T y m = a it y c i, wobei a i die i-te Spalte von A bezeichnet. Diese Implikation ist nach Lemma 2.7 (Homogenisierung) äquivalent zu A T c ( ) T ( ) b T m a i y 0 = 0. 0 T c 1 i t Nach dem Farkas-Lemma ist also das folgende System imr n+2 lösbar: ( ) ( ) x A b 0 x c T m r a i =, r 0, 1 c s i s etwa mitx R n +,r,s R +. Fürx := x +e i mit demi-ten Einheitsvektore i R n gilt dann Ax = br, x 0, r 0 (*) c T x m r. (**) 1. Fall: r = 0. Dann ist Ax = 0 und c T x 0. Sei x + eine Optimallösung von (P III ), also c T x + = m. Damit ist x := x + +x wegen (*) eine zulässige und wegen (**) auch eine optimale Lösung von (P III ) mitx i > Fall: r > 0. Dann ist x := 1 x wegen (*) eine zulässige und wegen (**) auch eine r optimale Lösung von (P III ) mitx i = 1 (x r i +1) > 0. 4
5 Komplementarität: allgemeiner Fall Wir betrachten das folgende Paar allgemeiner dualer Programme: (P) : Ax+ By a Dx+ Fy = b x 0 c T x+d T y min! (D) : A T u+d T v c B T u+f T v = d u 0 a T u+ b T v max! Dann erhält man für Optimallösungenx in (P) bzw. y in (D) mit den Schlupfvariablen z := Ax +By a undw := c A T u D T v aus den Ungleichungsrestriktionen die folgenden Komplementaritätsbedingungen: w T x = 0, z T u = 0. ökonomische Interpretation der dualen Variablen: Definition. Die Optimallösungen des dualen Problems heißen Schattenpreise. Schattenpreise liefern Indikatoren für Produktionsentscheidungen beschreiben die Auswirkung kleiner Änderungen in den Ressourcenschranken auf die optimalen Kosten. Liegt in der Optimallösung Entartung vor, dann sind die Schattenpreise nicht eindeutig. 5
Dualitätssätze der linearen Optimierung
Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =
Mehr1 Der Simplex Algorithmus I
1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier
MehrGEOMETRIE DER POLYEDER
GEOMETRIE DER POLYEDER Das Polyeder P sei gegeben durch P = x R n Ax b. Definition. (i) Die Hyperebene H = x R n c T x = d,c, heißt Stützhyperebene von P, falls die Ungleichungc T x d redundant ist bzgl.
MehrOptimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung
Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze
MehrStudientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform
MehrEffiziente Algorithmen Lineares Programmieren 216. Schwache Dualität
Effiziente Algorithmen Lineares Programmieren 216 Schwache Dualität Sei wieder z = max{ c T x Ax b, x 0 } (P ) und w = min{ b T u A T u c, u 0 }. (D) x ist primal zulässig, wenn x { x Ax b, x 0 }. u ist
MehrKap. 4.3: Das Dualitätstheorem der linearen Optimierung
Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur
MehrOperations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung
Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden
MehrGeometrische Interpretation
Geometrische Interpretation Stefanie Riedel 10. Mai 2010 1 Starke und schwache Dualität über Wertemengen Wir betrachten eine einfache geometrische Interpretation dualer Funktionen aus der Menge G: G =
MehrTeil I. Lineare Optimierung
Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,
MehrWiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b
Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung
MehrVorlesung Lineare Optimierung (Sommersemester 2010)
1 Vorlesung Lineare Optimierung (Sommersemester 2010) Kapitel 6: Die Geometrie der Linearen Optimierung Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 15. Juni 2010) Gliederung 2 Das
MehrKonvexe Mengen und Funktionen
Konvexe Mengen und Funktionen von Corinna Alber Seminararbeit Leiter: Prof. Jarre im Rahmen des Seminars Optimierung III am Lehrstuhl für Mathematische Optimierung an der Heinrich-Heine-Universität Düsseldorf
Mehr3.2.5 Dualität der linearen Optimierung I
3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem
MehrVORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max
MehrInnere-Punkt-Methoden
Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction
MehrInhaltsübersicht für heute:
Inhaltsübersicht für heute: Dualität Anwendung: Spieltheorie Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann? Inhaltsübersicht für heute: Dualität
MehrKap. 4: Lineare Programmierung
Kap. 4: Lineare Programmierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 13./14. VO A&D WS 08/09 27.11./2.12.2008 Petra Mutzel Alg. & Dat.
MehrDer Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.
Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x
MehrSeminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1)
Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Anna Raaz 21.12.2007 Einführung Die Relaxierung von Lagrange wird in der stochastischen Optimierung meistens
MehrDas Lagrange-duale Problem
Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h
MehrLineare Ungleichungen und die Struktur von Polyedern
KAPITEL 2 Lineare Ungleichungen und die Struktur von Polyedern Wir betrachten in diesem Kapitel endliche lineare Ungleichungssysteme und deren Lösungsmengen (d.h. Polyeder). Wir erinnern daran, dass lineare
Mehrmit. Wir definieren (Skalarprodukt = Winkel).
1 Grundidee des Simplexverfahrens (von George Dantzig): Man bestimmt eine beliebige Ecke (Extremalpunkt) einer Lösungsmenge eines Ungleichungssystems. Nun geht man an den Kanten vom Punkt entlang und kontrolliert
MehrOperations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung
Operations Research Rainer Schrader Die Simplexmethode Zentrum für Angewandte Informatik Köln 18 Juni 00 1 / 1 / 1 Gliederung LP-Dualität ein lineares Produktionsmodell der Simplexalgorithmus Phase I Endlichkeit
MehrOptimalitätsbedingungen
Optimalitätsbedingungen Nadja Irmscher 28. Mai 2010 1 Nachweis von Suboptimalität und Abbruchkriterien Über das gegebene Programm minimiere f 0 (x) über x D sodass f i (x) 0, i = 1,..., m h i (x) = 0,
MehrOptimierung für Wirtschaftsinformatiker: Lineare Programme
Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen
Mehr6 Korrektheit des Simplexalgorithmus
6 Korrektheit des Simplexalgorithmus Folgerung: Es sei L: Ax = b, c T x max LP und A B nicht-degenerierte PZB von L und es gebe c r := c r c B A B A r > 0 a) Falls a r := A B a r 0, dann L unbeschränkt
MehrDr. Anita Kripfganz SS 2014
Dr. Anita Kripfganz SS 2014 6. Spieltheorie 6.1 Gegenstand und Ziele Zielstellung: qualitative und quantitative Analyse von Konflikten in strategischen Entscheidungssituationen = Theorie des rationalen
Mehrλ i x i λ i 0, x i X, nur endlich viele λ i 0}.
jobname LinOpt Sommer Aufgabe a) Sei X R n. Dann ist b) Cone X = { x i X λ i x i λ i, x i X, nur endlich viele λ i }. x Cone S = Lin S x Lin S = Cone S. Also gibt es nicht-negative Koeffizienten µ i von
MehrLineare Optimierung Dantzig 1947
Lineare Optimierung Dantzig 947 Lineare Optimierungs-Aufgaben lassen sich mit Maple direkt lösen: with(simplex): g:= 4*x + x2
Mehr3 Polytope. 3.1 Polyeder
28 3 Polytope 3.1 Polyeder Polytope in der Ebene und im Raum standen neben Kreis und Kugel schon während der griechischen Antike im Mittelpunkt des mathematischen (und philosophischen) Interesses. Durch
MehrVorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung
Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen Kapitel IV: Grundlagen der Linearen Optimierung Inhaltsverzeichnis Abschnitt 3-5 3 Der Simplexalgorithmus 58 3.1 Grundlagen..............................
MehrAnalysis I. Guofang Wang Universität Freiburg
Universität Freiburg 30.11.2016 5. Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,..., x n ) : x i R} = } R. {{.. R }. n mal Für x R ist x der Abstand zum
MehrDas Lebesgue-Maß im R p
Das Lebesgue-Maß im R p Wir werden nun im R p ein metrisches äußeres Maß definieren, welches schließlich zum Lebesgue-Maß führen wird. Als erstes definieren wir das Volumen von Intervallen des R p. Seien
MehrVORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind
MehrOptimalitätskriterien
Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)
MehrStandard-/kanonische Form Simplex Dualität Kompl./Sensitivität Spaltengen. Schnittebenen Welchen? Inhalt
Inhalt Lineare Optimierung Standardform und kanonische Form Der Simplex-Algorithmus Dualität Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann? 54:
MehrInsbesondere sind nach dieser Definition also auch die leere Menge und einpunktige Teilmengen konvex.
Konvexe Mengen 2 Wie am Ende des vorigen Kapitels bereits erwähnt, ist die notwendige Gradientenbedingung aus Satz 1.4.6 für konvexe Zielfunktionen auch hinreichend. Diese Tatsache mag als erste Motivation
MehrKapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester
Mehr1 Lineare Optimierung, Simplex-Verfahren
1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und
Mehr4. Dualität Dualität 4.1 Dualität von LPs und der Dualitätssatz. Die duale Form eines LP in allgemeiner Form. Herleitung der dualen Form
2... 22 4.2 Die Bedingungen vom komplementären Schlupf... 23 4.3 Das Kürzeste-Wege-Problem und zugehörige duale Problem... 24 4.4 Das Farkas Lemma... 25 4.5 Duale Information im Tableau... 26 4.6 Der duale
MehrKuhn-Tucker-Bedingung
Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann
MehrZusammenfassung Analysis 2
Zusammenfassung Analysis 2 1.2 Metrische Räume Die Grundlage metrischer Räume bildet der Begriff des Abstandes (Metrik). Definition 1.1 Ein metrischer Raum ist ein Paar (X, d), bestehend aus einer Menge
MehrKonvexe Mengen. Def. Eine Teilmenge A R n heißt konvex, wenn sie mit je zwei Punkten x,y auch stets deren Verbindungsstrecke
Konvexe Mengen Def. Eine Teilmenge A R n heißt konvex, wenn sie mit je zwei Punkten x,y auch stets deren Verbindungsstrecke xy = {x + t xy 0 t 1} = {(1 t)x + ty 0 t 1} enthält. konvex nicht konvex Lemma
MehrKombinatorische Optimierung
Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung
MehrDiskrete Optimierung
Alexander Martin, Sven O. Krumke Diskrete Optimierung SPIN Springer s internal project number, if known 14. April 2009 Springer Berlin Heidelberg NewYork Hong Kong London Milan Paris Tokyo Wir widmen
Mehr4.3.3 Simplexiteration
7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige
Mehr3.5 Duale Vektorräume und Abbildungen
3.5. DUALE VEKTORRÄUME UND ABBILDUNGEN 103 3.5 Duale Vektorräume und Abbildungen Wir wollen im Folgenden auch geometrische Zusammenhänge mathematisch beschreiben und beginnen deshalb jetzt mit der Einführung
MehrOptimierung I. Einführung in die Optimierung. Skript zur Vorlesung von Prof. Dr. Mirjam Dür Prof. Dr. Alexander Martin Prof. Dr.
Optimierung I Einführung in die Optimierung Skript zur Vorlesung von Prof. Dr. Mirjam Dür Prof. Dr. Alexander Martin Prof. Dr. Stefan Ulbrich Wintersemester 2008/2009 TU Darmstadt Überarbeitete Version
MehrLösungsvorschläge für das 5. Übungsblatt
Lösungsvorschläge für das 5. Übungsblatt Aufgabe 6 a) Sei = [0, ], f(x) := [e x ] für x. Hierbei ist [y] := maxk Z k y} für y. Behauptung: f ist messbar und es ist f(x) dx = 2 log 2. falls x [0, log 2),
Mehr5 Die Allgemeine Lineare Gruppe
5 Die Allgemeine Lineare Gruppe Gegeben sei eine nicht leere Menge G und eine Abbildung (Verknüpfung) : G G G, (a, b) a b( a mal b ) Das Bild a b von (a, b) heißt Produkt von a und b. Andere gebräuchliche
MehrGrundlagen der Optimierung. Übung 6
Technische Universität Chemnitz Chemnitz, 2. November 24 Prof. Dr. R. Herzog, J. Blechschmidt, A. Schäfer Abgabe am 28. November 24 Grundlagen der Optimierung Übung 6 Aufgabe 2: Verschiedene Verfahren
MehrVollständigkeit. 1 Konstruktion der reellen Zahlen
Vortrag im Rahmen des Proseminars zur Analysis, 17.03.2006 Albert Zeyer Ziel des Vortrags ist es, die Vollständigkeit auf Basis der Konstruktion von R über die CAUCHY-Folgen zu beweisen und äquivalente
Mehr37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
MehrLineare (Un-)Gleichungen und lineare Optimierung
Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik Universität Innsbruck Lehrer/innen/fortbildungstag Wien 2010 9. April 2010 Eine Maximumsaufgabe Eine Firma stellt aus
MehrLösbarkeit linearer Gleichungssysteme
Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,
Mehr4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9
Chr.Nelius: Zahlentheorie (SS 2007) 9 4. ggt und kgv (4.1) DEF: Eine ganze Zahl g heißt größter gemeinsamer Teiler (ggt) zweier ganzer Zahlen a und b, wenn gilt: GGT 0 ) g 0 GGT 1 ) g a und g b GGT 2 )
MehrKLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen)
Mathematisches Institut WS 2012/13 der Heinrich-Heine-Universität 7.02.2013 Düsseldorf Prof. Dr. Achim Schädle KLAUSUR zu Einführung in die Optimierung Bitte folgende Angaben ergänzen und DEUTLICH LESBAR
MehrKapitel 3. Lineare Optimierung. 3.1 Aufgabenstellung. Wir betrachten den
Kapitel 3 Lineare Optimierung The tremendous power of the simplex method is a constant surprise to me G.B. Dantzig Wir betrachten den einfachsten Fall eines Optimierungsproblems mit Nebenbedingungen: Lineare
MehrÜbungen zum Vorkurs Mathematik
Übungen zum Vorkurs Mathematik Blatt 1 W.S.2009/2010 - Ernst Bönecke Aufgaben zur Aussagenlogik 1.) Seien A, B, C Aussagen. Beweisen Sie mit Hilfe von Wahrheitstafeln, dass folgende Aussagen stets wahr
Mehr18 Höhere Ableitungen und Taylorformel
8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a
Mehrβ 1 x :=., und b :=. K n β m
44 Lineare Gleichungssysteme, Notations Betrachte das lineare Gleichungssystem ( ) Sei A = (α ij ) i=,,m j=,n α x + α x + + α n x n = β α x + α x + + α n x n = β α m x + α m x + + α mn x n = β m die Koeffizientenmatrix
MehrLineare Optimierung. bei Prof. Walter Alt. Semester: SS 2006 und WS 2009
Lineare Optimierung bei Prof. Walter Alt Semester: SS 2006 und WS 2009 Vorwort Dieses Dokument wurde als Skript für die auf der Titelseite genannte Vorlesung erstellt und wird jetzt im Rahmen des Projekts
MehrVorlesung: Nicht-kooperative Spieltheorie. Teil 4: 2-Personen-Nullsummenspiele
Vorlesung: Nicht-kooperative Spieltheorie Teil 4: 2-Personen-Nullsummenspiele Dr. Thomas Krieger Wintertrimester 2009 Dr. Thomas Krieger Vorlesung: Nicht-kooperative Spieltheorie 1 Definition 2-Personen-Nullsummenspiele
Mehr4 Lineare Optimierung
4 Lineare Optimierung In diesem Kapitel werden wir uns mit effizienten Verfahren im Bereich der linearen Optimierung beschäftigen. 4.1 Einführung Als Einführung betrachten wir das Beispiel einer Erdölraffinerie.
MehrUniversität Karlsruhe (TH) Mathematisches Institut II. Prof. Dr. A. Kirsch. Optimierungstheorie. Skript zur Vorlesung im Sommersemester 2002
Universität Karlsruhe (TH) Mathematisches Institut II Prof. Dr. A. Kirsch Optimierungstheorie Skript zur Vorlesung im Sommersemester 2002 Version vom 8. September 2004 Inhaltsverzeichnis 1 Einführung 1
Mehr4.4 Quadratische Optimierungsprobleme
4.4 Quadratische Optimierungsprobleme 1. Quadratische Programme (QP) 1 2 xt P x + q T x + r s.t. Gx h (4.34) wobei P S n +, G R (m n) und A R (p n) Zielfunktion (ZF) ist (konvex) quadratisch Nebenbedingungen
MehrDiskrete Optimierung
Diskrete Optimierung (Algorithmische Diskrete Mathematik II, kurz ADM II) Skriptum zur Vorlesung im SS 2013 Prof. Dr. Martin Grötschel Institut für Mathematik Technische Universität Berlin Version vom
Mehrb liegt zwischen a und c.
2 DIE ANORDNUNGSAXIOME 5 (2.4) a, b, c R : (a < b 0 < c) ac < bc Monotoniegesetz der Multiplikation Bezeichnungen a > b : b < a (> wird gelesen: größer als ) a b : a < b oder a = b a b : a > b oder a =
MehrOptimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 7 Lineare Programmierung II 1 Lineare Programme Lineares Programm: Lineare Zielfunktion Lineare Nebenbedingungen (Gleichungen oder Ungleichungen) Spezialfall der konvexen Optimierung
MehrOPTIMIERUNG I. Christian Clason. Fakultät für Mathematik Universität Duisburg-Essen
OPTIMIERUNG I Vorlesungsskript, Sommersemester 2014 Christian Clason Stand vom 1. Juli 2014 Fakultät für Mathematik Universität Duisburg-Essen INHALTSVERZEICHNIS I GRUNDLAGEN 1 theorie der linearen ungleichungen
MehrElemente der Algebra und Zahlentheorie Musterlösung, Serie 3, Wintersemester vom 15. Januar 2006
Prof. E.-W. Zink Institut für Mathematik Humboldt-Universität zu Berlin Elemente der Algebra und Zahlentheorie Musterlösung, Serie 3, Wintersemester 2005-06 vom 15. Januar 2006 2te, korrigierte und erweiterte
Mehrist reelles lineares Funktional. x(t) ϕ(t) dt ist reelles lineares Funktional für alle ϕ L 2 (0, 1).
Kapitel 4 Stetige lineare Funktionale 4.1 Der Satz von Hahn - Banach Definition 4.1. Sei X ein linearer normierter Raum über dem Körper K (R oder C). Ein linearer Operator f : X K heißt (reelles oder komplexes)
MehrAufgaben zu Kapitel 23
Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Verständnisfragen Aufgabe 23 Bestimmen Sie grafisch die optimale Lösung x der Zielfunktion z = c T x unter den Nebenbedingungen mit dem Zielfunktionsvektor
MehrAffine Geometrie (Einfachere, konstruktive Version)
Affine Geometrie (Einfachere, konstruktive Version) Def. Affiner Raum der Dimension n über Körper K ist nach Definition K n. Bemerkung. Man könnte Theorie von affinen Raumen auch axiomatisch aufbauen mit
MehrMatrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K).
Matrizen - I Definition. Sei K ein Körper. Ein rechteckiges Schema A = a 11 a 12...... a 1n a 21 a 22...... a 2n............ a m1 a m2...... a mn wobei j K heißt Matrix bzw. eine m n Matrix (mit Elementen
MehrEinführung in die Mathematik des Operations Research
Universität zu Köln Mathematisches Institut Prof. Dr. F. Vallentin Einführung in die Mathematik des Operations Research Sommersemester 3 en zur Klausur (7. Oktober 3) Aufgabe ( + 3 + 5 = Punkte). Es sei
MehrSysteme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.
Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x
MehrDualität bei konvexer Optimierung
Dualität bei konvexer Optimierung Seminar zur Numerik I im SS 2016 Laslo Hunhold 10. Mai 2016 Ausarbeitung zum Seminarvortrag vom 2. Mai 2016 Mathematisches Institut Mathematisch-Naturwissenschaftliche
Mehr4 Messbare Funktionen
4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und
MehrMinimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m)
Minimumproblem Definition 4.7 Ein LP der Form nx Minimiere Z = c j x j j=1 unter den Nebenbedingungen nx d ij x j b i (i =1,...,m) j=1 und den Vorzeichenbedingungen x j 0(j =1,...,n) heißt Minimumproblem.
MehrEigenschaften von LPs
2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört
Mehr1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme. Duales Problem. a i u i + i=1. j=1
1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme Duales Problem Lemma 1.4. Das zum Transportproblem duale Problem lautet: max unter den Nebenbedingungen m a i u i + i=1
MehrOperations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung.
Operations Research Rainer Schrader Flüsse in Netzwerken Zentrum für Angewandte Informatik Köln 2. Juli 2007 1 / 53 2 / 53 Flüsse in Netzwerken Unimodularität Gliederung Netzwerke und Flüsse bipartite
MehrZu zwei Matrizen A R m n und B R p q existiert das Matrizenprodukt A B n = p und es gilt dann. A B = (a ij ) (b jk ) = (c ik ) = C R m q mit c ik =
H 6. Die Matrizen A, B, C und D seien gegeben durch 5 A =, B =, C = 4 5 4, D =. 5 7 5 4 4 Berechnen Sie (sofern möglich) alle Matrizenprodukte X Y mit X, Y {A, B, C, D}. Zu zwei Matrizen A R m n und B
Mehr1 Häufungswerte von Folgen
KARLSRUHER INSTITUT FÜR TECHNOLOGIE INSTITUT FÜR ANALYSIS Dr. Christoph Schmoeger Heio Hoffmann WS 0/..0 Höhere Mathemati I für die Fachrichtung Informati. Saalübung (..0) Häufungswerte von Folgen Oft
Mehr6 Lineare Gleichungssysteme
6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α
MehrRückblick auf die letzte Vorlesung. Bemerkung
Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D
MehrGrundlagen der Mathematik 1
Fachbereich Mathematik Sommersemester 2010, Blatt 14 Thomas Markwig Stefan Steidel Grundlagen der Mathematik 1 Die Lösungen müssen nicht eingereicht werden und werden auch nicht korrigiert. Die Aufgaben
Mehr4 Der Gauß Algorithmus
4 Der Gauß Algorithmus Rechenverfahren zur Lösung homogener linearer Gleichungssysteme Wir betrachten ein GLS (1) a 11 x 1 + a 1 x + + a 1n x n = a 1 x 1 + a x + + a n x n = a m1 x 1 + a m x + + a mn x
MehrA = α α 0 2α α
Aufgabe 8. Berechnen Sie abhängig von α R die Dimension dim(f(r 4 )) und die Dimension dim(kern(f)) sowie je eine Basis von f(r 4 ) und Kern(f) der linearen Abbildung f : R 4 R 4, x Ax mit der Matrix A
Mehr2.3 Basis und Dimension
Lineare Algebra I WS 205/6 c Rudolf Scharlau 65 2.3 Basis und Dimension In diesem zentralen Abschnitt werden einige für die gesamte Lineare Algebra fundamentale Grundbegriffe eingeführt: Lineare Abhängigkeit
Mehr8. Konvexe Polytope. Tobias Boelter. Mittwoch, 5. März TopMath Frühlingsschule
1 / 31 8. Konvexe Tobias Boelter TopMath Frühlingsschule Mittwoch, 5. März 2014 2 / 31 Es können auch nicht konvexe untersucht werden, wir beschränken uns hier aber auf konvexe. Mit einem Polytop ist hier
MehrLineares Programmieren Algorithmentechnik WS 09/10 Dorothea Wagner 7. Januar 2010
Lineares Programmieren Algorithmentechnik WS 09/10 Dorothea Wagner 7. Januar 2010 FAKULTÄT FÜR I NFORMATIK, I NSTITUT FÜR T HEORETISCHE I NFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
MehrÜbungsblatt 6 Lösungsvorschläge
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 6 Lösungsvorschläge Vorlesung Algorithmentechnik im WS 09/10 Problem 1: Größter Kreis in konvexem Polygon [vgl. Kapitel 6
Mehrx, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω
5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,
Mehr