3.1. Existenzsatz und Struktur der Lösungsmenge

Größe: px
Ab Seite anzeigen:

Download "3.1. Existenzsatz und Struktur der Lösungsmenge"

Transkript

1 3. EXISTENZ UND DUALITÄT 3.1. Existenzsatz und Struktur der Lösungsmenge Nach dem Satz von Weierstraß besitzt eine lineare Funktion auf einem Polytop stets ein Minimum und ein Maximum. Im allgemeinen Fall eines Polyeders kann man durch eine zusätzliche Bedingung an die Zielfunktion diese Existenz sichern. Satz 3.1. Sei P = {x R n Ax b} undm := inf{c T x x P} >. Dann existiert min{c T c x P}. Beweis: Nach dem Satz von Motzkin giltp = Q+C mit einem PolytopQund einem konvexen polyedrischen KegelC. MitQ = conv{u 1,...,u k } undc = cone{v 1,...,v l } ergibt sich x P x = k l λ i u i + µ j v j mitλ i 0, λ i = 1,µ j 0. i=1 j=1 Insbesondere istu i P für allei. Nach Voraussetzung ist c T x = k l k λ i c T u i + µ j c T v j m λ i,µ j : λ i 0, λ i = 1,µ j 0, i=1 j=1 i=1 also c T v j 0 für alle j. Mit min{c T u i i = 1,...,k} = c T u i 0 für ein i 0 {1,...,k} folgt hieraus k c T x λ i c T u i c T u i 0 x P, also die Behauptung. i=1 Satz 3.2. Sei P R n ein nichtleeres Polyeder. (i) Ist F := argmin{c T x x P}, dann istf eine Seite von P. (ii) Ist P spitz, dann ist wenigstens eine Ecke vonp optimal. Beweis: Mitmin{c T x x P} = c T x =: m für ein x P ist F = {x P c T x = m} und die Hyperebene H := {x R n c T x = m} eine Stützhyperebene von P. Damit ist F eine Seite vonp. FallsP spitz ist, dann folgt aus Satz 2.16, dass auch F spitz ist. Definition. Sei f : R n R. Dann heißt Niveaumenge der Funktionf zum Niveauα. N f (α) := {x R n f(x) α} Die Niveaumengen einer linearen Funktionf(x) = c T x sind also Halbräume. Für die MinimalstellenmengeF von f aufp gilt dannf = P N f (m). 1

2 3.2. Dualität Wir betrachten jetzt Paare linearer Optimierungsaufgaben, bei denen man aus der Lösung der einen Aufgabe auf die Lösung der anderen Aufgabe schließen kann. Definition. Ein Paar linearer Aufgaben (P) : min{c T x x B} (D) : max{b T y y B D } heißt dual, falls gilt: (i) c T x b T y für allex B, für alley B D (ii) c T x = b T y für ein x B, für ein y B D (schwache Dualität) (starke Dualität). mit (i) Anwendungsmöglichkeiten: Schranken für Optimallösungen Existenzaussagen Optimalitätsbedingungen Lösungsalgorithmen Entsprechend der Grundtypen linearer Ungleichungssysteme betrachten wir nun folgende Grundtypen linearer Programme: Typ I: (P I ) min{c T x Ax b} Typ II: (P II ) min{c T x Ax b,x 0} Typ III: (P III ) min{c T x Ax = b,x 0} Es genügt, die Dualtät für Programme vom Typ III zu betrachten. Satz 3.3. [Dualitätssatz, Existenzsatz] IstB := {x R n Ax = b,x 0} und B D := {y R n A T y c}, dann gilt: min { c T x Ax = b,x 0 } = max { b T y R n A T y c }. Beweis: Existenz und schwache Dualität: Es gilt offensichtlich b T y = x T A T y c T x x B, y B D. (*) Sei x B,ẙ B D. Dann ist b T y c T x für alle y B D und b T ẙ c T x für alle x B. Aus Satz 3.1 folgt hieraus die Existenz von Lösungen für beide Aufgaben, also mit (*) max(d I ) min(p III ). Starke Dualität: Zulässigkeit und schwache Dualität (*) entsprechen der Implikation Ax = b x 0 = ct x+b T y 0. A T y c 2

3 Eine Umformung und die Anwendung des Homogenisierungslemmas (Lemma 2.7) ergibt Ax b t 0 Ax +b t 0 x 0 A T y c t 0 t 0 = c T x+b T y +0 t 0. Nach dem Farkas-Lemma ist diese Implikation äquivalent zur Lösbarkeit des Systems A T (u u ) v Aw = c = b b T (u u ) c T w s = 0 u,u 0,v 0,w 0,s 0. Mitu := u u und der Interpretation vonv undsals Schlupfvariable ist äquivalent dazu das folgende System lösbar: A T u c Aw = b w 0 b T u c T w 0. Sei etwa(ů,ẘ) eine Lösung. Dann istů B,ẘ B D. Zusammen mit der schwachen Dualität (*) ergibt sich b T ů = c T ẘ, also starke Dualität. Folgerung. Zweimaliges Dualisieren führt auf das Ausgangsproblem zurück. Bezeichnung: inf{c T x x B} := +, falls B = sup{b T y y B D } :=, fallsb D = Satz 3.4. [Dualitätssatz, Existenzsatz; allgemeiner Fall] IstB := {x R n Ax = b,x 0} oderb D := {y R n A T y c}, dann gilt: inf { c T x Ax = b,x 0 } = sup { b T y R n A T y c }. Existiert die Lösung einer Aufgabe, dann existiert auch die Lösung der anderen Aufgabe. Der gemeinsame Optimalwert istx T Ay für entsprechende Lösungenx,y. Beweis: Fall a: B,B D : Die Behauptung folgt aus Satz 3.3. Fall b: B = : Nach dem Farkas-Lemma existiert ein ȳ mit A T ȳ 0,b T ȳ < 0. Nach Voraussetzung istb D, es existiert also ein ỹ mita T ỹ c. Folglich gilt A T (ỹ t ȳ) c t 0 und b T (ỹ t ȳ) + fürt +. Damit istinf{c T x x B} = + = sup{b T y y B D }. Fall c: B D = : Analog zu b) erhält maninf{c T x x B} = = sup{b T y y B D }. Ist nun x eine Lösung von min{c T x x B}, dann muss nach c) B D gelten. Der Dualitätssatz 3.3 liefert dannc T x = y b = y Ax. Für eine Lösungy vonmax{b T y y B D } erhält man mit b) dasselbe Resultat. Folgerung. Besitzt das Dualproblem max{b T y A T y c} die Maximalstelle y mit m := b T y, dann existieren nichtnegative Zahlen x i, mit Hilfe derer sich die Ungleichung bt y m als Linearkombination der Ungleichungen ausa T y c darstellen lässt. 3

4 3.3. Komplementarität und Schattenpreise Seien x,s R n +. Dann heißt die Beziehung xt s = 0 zwischen x,s 0 Komplementarität. In der Optimierung ist die Komplementarität zwischen den Variablen der primalen Aufgabe und den Schlupfvariablen der dualen Aufgabe charakteristisch für optimale Lösungen beider Aufgaben. Satz 3.4. [Komplementaritätssatz] Die Optima in den Aufgaben (P III ) und (D I ) seien endlich. Für x zulässig in (P III ) undẙ zulässig in (D I ) sind dann folgende zwei Aussagen äquivalent: (i) x undẙ sind jeweils optimal. (ii) Es gilt x T (c A T ẙ) = 0 (Komplementarität). Außerdem gilt für jede Zeilea it y c i ausa T y c alternativ (iii) Es existiert eine Optimallösungx in (P III ) mitx i > 0. (iv) Es existiert eine Optimallösungy in (D I ) mita it y < c i. Beweis: (i) (ii): x undẙ sind jeweils optimal Dualität c T x = b T ẙ x T (c A T ẙ) = 0. (iii) (iv): Für jeweilige Optimallösungen schließen sich nach (ii) die Bedingungen (iii) und (iv) aus. Wir zeigen nun, dass entweder (ii) oder (iv) gilt. Sei m := c T x = min{c T x x P III } = max{b T y y P D I } = bt y. Bedingung (iv) gelte nicht für die Zeileiaus A T y c, d.h. für jede Optimallösung von (D I ) gilt: A T y c, b T y m = a it y c i, wobei a i die i-te Spalte von A bezeichnet. Diese Implikation ist nach Lemma 2.7 (Homogenisierung) äquivalent zu A T c ( ) T ( ) b T m a i y 0 = 0. 0 T c 1 i t Nach dem Farkas-Lemma ist also das folgende System imr n+2 lösbar: ( ) ( ) x A b 0 x c T m r a i =, r 0, 1 c s i s etwa mitx R n +,r,s R +. Fürx := x +e i mit demi-ten Einheitsvektore i R n gilt dann Ax = br, x 0, r 0 (*) c T x m r. (**) 1. Fall: r = 0. Dann ist Ax = 0 und c T x 0. Sei x + eine Optimallösung von (P III ), also c T x + = m. Damit ist x := x + +x wegen (*) eine zulässige und wegen (**) auch eine optimale Lösung von (P III ) mitx i > Fall: r > 0. Dann ist x := 1 x wegen (*) eine zulässige und wegen (**) auch eine r optimale Lösung von (P III ) mitx i = 1 (x r i +1) > 0. 4

5 Komplementarität: allgemeiner Fall Wir betrachten das folgende Paar allgemeiner dualer Programme: (P) : Ax+ By a Dx+ Fy = b x 0 c T x+d T y min! (D) : A T u+d T v c B T u+f T v = d u 0 a T u+ b T v max! Dann erhält man für Optimallösungenx in (P) bzw. y in (D) mit den Schlupfvariablen z := Ax +By a undw := c A T u D T v aus den Ungleichungsrestriktionen die folgenden Komplementaritätsbedingungen: w T x = 0, z T u = 0. ökonomische Interpretation der dualen Variablen: Definition. Die Optimallösungen des dualen Problems heißen Schattenpreise. Schattenpreise liefern Indikatoren für Produktionsentscheidungen beschreiben die Auswirkung kleiner Änderungen in den Ressourcenschranken auf die optimalen Kosten. Liegt in der Optimallösung Entartung vor, dann sind die Schattenpreise nicht eindeutig. 5

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

1 Der Simplex Algorithmus I

1 Der Simplex Algorithmus I 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier

Mehr

GEOMETRIE DER POLYEDER

GEOMETRIE DER POLYEDER GEOMETRIE DER POLYEDER Das Polyeder P sei gegeben durch P = x R n Ax b. Definition. (i) Die Hyperebene H = x R n c T x = d,c, heißt Stützhyperebene von P, falls die Ungleichungc T x d redundant ist bzgl.

Mehr

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform

Mehr

Effiziente Algorithmen Lineares Programmieren 216. Schwache Dualität

Effiziente Algorithmen Lineares Programmieren 216. Schwache Dualität Effiziente Algorithmen Lineares Programmieren 216 Schwache Dualität Sei wieder z = max{ c T x Ax b, x 0 } (P ) und w = min{ b T u A T u c, u 0 }. (D) x ist primal zulässig, wenn x { x Ax b, x 0 }. u ist

Mehr

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur

Mehr

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden

Mehr

Geometrische Interpretation

Geometrische Interpretation Geometrische Interpretation Stefanie Riedel 10. Mai 2010 1 Starke und schwache Dualität über Wertemengen Wir betrachten eine einfache geometrische Interpretation dualer Funktionen aus der Menge G: G =

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung

Mehr

Vorlesung Lineare Optimierung (Sommersemester 2010)

Vorlesung Lineare Optimierung (Sommersemester 2010) 1 Vorlesung Lineare Optimierung (Sommersemester 2010) Kapitel 6: Die Geometrie der Linearen Optimierung Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 15. Juni 2010) Gliederung 2 Das

Mehr

Konvexe Mengen und Funktionen

Konvexe Mengen und Funktionen Konvexe Mengen und Funktionen von Corinna Alber Seminararbeit Leiter: Prof. Jarre im Rahmen des Seminars Optimierung III am Lehrstuhl für Mathematische Optimierung an der Heinrich-Heine-Universität Düsseldorf

Mehr

3.2.5 Dualität der linearen Optimierung I

3.2.5 Dualität der linearen Optimierung I 3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem

Mehr

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max

Mehr

Innere-Punkt-Methoden

Innere-Punkt-Methoden Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction

Mehr

Inhaltsübersicht für heute:

Inhaltsübersicht für heute: Inhaltsübersicht für heute: Dualität Anwendung: Spieltheorie Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann? Inhaltsübersicht für heute: Dualität

Mehr

Kap. 4: Lineare Programmierung

Kap. 4: Lineare Programmierung Kap. 4: Lineare Programmierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 13./14. VO A&D WS 08/09 27.11./2.12.2008 Petra Mutzel Alg. & Dat.

Mehr

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x

Mehr

Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1)

Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Anna Raaz 21.12.2007 Einführung Die Relaxierung von Lagrange wird in der stochastischen Optimierung meistens

Mehr

Das Lagrange-duale Problem

Das Lagrange-duale Problem Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h

Mehr

Lineare Ungleichungen und die Struktur von Polyedern

Lineare Ungleichungen und die Struktur von Polyedern KAPITEL 2 Lineare Ungleichungen und die Struktur von Polyedern Wir betrachten in diesem Kapitel endliche lineare Ungleichungssysteme und deren Lösungsmengen (d.h. Polyeder). Wir erinnern daran, dass lineare

Mehr

mit. Wir definieren (Skalarprodukt = Winkel).

mit. Wir definieren (Skalarprodukt = Winkel). 1 Grundidee des Simplexverfahrens (von George Dantzig): Man bestimmt eine beliebige Ecke (Extremalpunkt) einer Lösungsmenge eines Ungleichungssystems. Nun geht man an den Kanten vom Punkt entlang und kontrolliert

Mehr

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung Operations Research Rainer Schrader Die Simplexmethode Zentrum für Angewandte Informatik Köln 18 Juni 00 1 / 1 / 1 Gliederung LP-Dualität ein lineares Produktionsmodell der Simplexalgorithmus Phase I Endlichkeit

Mehr

Optimalitätsbedingungen

Optimalitätsbedingungen Optimalitätsbedingungen Nadja Irmscher 28. Mai 2010 1 Nachweis von Suboptimalität und Abbruchkriterien Über das gegebene Programm minimiere f 0 (x) über x D sodass f i (x) 0, i = 1,..., m h i (x) = 0,

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

6 Korrektheit des Simplexalgorithmus

6 Korrektheit des Simplexalgorithmus 6 Korrektheit des Simplexalgorithmus Folgerung: Es sei L: Ax = b, c T x max LP und A B nicht-degenerierte PZB von L und es gebe c r := c r c B A B A r > 0 a) Falls a r := A B a r 0, dann L unbeschränkt

Mehr

Dr. Anita Kripfganz SS 2014

Dr. Anita Kripfganz SS 2014 Dr. Anita Kripfganz SS 2014 6. Spieltheorie 6.1 Gegenstand und Ziele Zielstellung: qualitative und quantitative Analyse von Konflikten in strategischen Entscheidungssituationen = Theorie des rationalen

Mehr

λ i x i λ i 0, x i X, nur endlich viele λ i 0}.

λ i x i λ i 0, x i X, nur endlich viele λ i 0}. jobname LinOpt Sommer Aufgabe a) Sei X R n. Dann ist b) Cone X = { x i X λ i x i λ i, x i X, nur endlich viele λ i }. x Cone S = Lin S x Lin S = Cone S. Also gibt es nicht-negative Koeffizienten µ i von

Mehr

Lineare Optimierung Dantzig 1947

Lineare Optimierung Dantzig 1947 Lineare Optimierung Dantzig 947 Lineare Optimierungs-Aufgaben lassen sich mit Maple direkt lösen: with(simplex): g:= 4*x + x2

Mehr

3 Polytope. 3.1 Polyeder

3 Polytope. 3.1 Polyeder 28 3 Polytope 3.1 Polyeder Polytope in der Ebene und im Raum standen neben Kreis und Kugel schon während der griechischen Antike im Mittelpunkt des mathematischen (und philosophischen) Interesses. Durch

Mehr

Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung

Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen Kapitel IV: Grundlagen der Linearen Optimierung Inhaltsverzeichnis Abschnitt 3-5 3 Der Simplexalgorithmus 58 3.1 Grundlagen..............................

Mehr

Analysis I. Guofang Wang Universität Freiburg

Analysis I. Guofang Wang Universität Freiburg Universität Freiburg 30.11.2016 5. Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,..., x n ) : x i R} = } R. {{.. R }. n mal Für x R ist x der Abstand zum

Mehr

Das Lebesgue-Maß im R p

Das Lebesgue-Maß im R p Das Lebesgue-Maß im R p Wir werden nun im R p ein metrisches äußeres Maß definieren, welches schließlich zum Lebesgue-Maß führen wird. Als erstes definieren wir das Volumen von Intervallen des R p. Seien

Mehr

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind

Mehr

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)

Mehr

Standard-/kanonische Form Simplex Dualität Kompl./Sensitivität Spaltengen. Schnittebenen Welchen? Inhalt

Standard-/kanonische Form Simplex Dualität Kompl./Sensitivität Spaltengen. Schnittebenen Welchen? Inhalt Inhalt Lineare Optimierung Standardform und kanonische Form Der Simplex-Algorithmus Dualität Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann? 54:

Mehr

Insbesondere sind nach dieser Definition also auch die leere Menge und einpunktige Teilmengen konvex.

Insbesondere sind nach dieser Definition also auch die leere Menge und einpunktige Teilmengen konvex. Konvexe Mengen 2 Wie am Ende des vorigen Kapitels bereits erwähnt, ist die notwendige Gradientenbedingung aus Satz 1.4.6 für konvexe Zielfunktionen auch hinreichend. Diese Tatsache mag als erste Motivation

Mehr

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester

Mehr

1 Lineare Optimierung, Simplex-Verfahren

1 Lineare Optimierung, Simplex-Verfahren 1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und

Mehr

4. Dualität Dualität 4.1 Dualität von LPs und der Dualitätssatz. Die duale Form eines LP in allgemeiner Form. Herleitung der dualen Form

4. Dualität Dualität 4.1 Dualität von LPs und der Dualitätssatz. Die duale Form eines LP in allgemeiner Form. Herleitung der dualen Form 2... 22 4.2 Die Bedingungen vom komplementären Schlupf... 23 4.3 Das Kürzeste-Wege-Problem und zugehörige duale Problem... 24 4.4 Das Farkas Lemma... 25 4.5 Duale Information im Tableau... 26 4.6 Der duale

Mehr

Kuhn-Tucker-Bedingung

Kuhn-Tucker-Bedingung Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann

Mehr

Zusammenfassung Analysis 2

Zusammenfassung Analysis 2 Zusammenfassung Analysis 2 1.2 Metrische Räume Die Grundlage metrischer Räume bildet der Begriff des Abstandes (Metrik). Definition 1.1 Ein metrischer Raum ist ein Paar (X, d), bestehend aus einer Menge

Mehr

Konvexe Mengen. Def. Eine Teilmenge A R n heißt konvex, wenn sie mit je zwei Punkten x,y auch stets deren Verbindungsstrecke

Konvexe Mengen. Def. Eine Teilmenge A R n heißt konvex, wenn sie mit je zwei Punkten x,y auch stets deren Verbindungsstrecke Konvexe Mengen Def. Eine Teilmenge A R n heißt konvex, wenn sie mit je zwei Punkten x,y auch stets deren Verbindungsstrecke xy = {x + t xy 0 t 1} = {(1 t)x + ty 0 t 1} enthält. konvex nicht konvex Lemma

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung

Mehr

Diskrete Optimierung

Diskrete Optimierung Alexander Martin, Sven O. Krumke Diskrete Optimierung SPIN Springer s internal project number, if known 14. April 2009 Springer Berlin Heidelberg NewYork Hong Kong London Milan Paris Tokyo Wir widmen

Mehr

4.3.3 Simplexiteration

4.3.3 Simplexiteration 7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige

Mehr

3.5 Duale Vektorräume und Abbildungen

3.5 Duale Vektorräume und Abbildungen 3.5. DUALE VEKTORRÄUME UND ABBILDUNGEN 103 3.5 Duale Vektorräume und Abbildungen Wir wollen im Folgenden auch geometrische Zusammenhänge mathematisch beschreiben und beginnen deshalb jetzt mit der Einführung

Mehr

Optimierung I. Einführung in die Optimierung. Skript zur Vorlesung von Prof. Dr. Mirjam Dür Prof. Dr. Alexander Martin Prof. Dr.

Optimierung I. Einführung in die Optimierung. Skript zur Vorlesung von Prof. Dr. Mirjam Dür Prof. Dr. Alexander Martin Prof. Dr. Optimierung I Einführung in die Optimierung Skript zur Vorlesung von Prof. Dr. Mirjam Dür Prof. Dr. Alexander Martin Prof. Dr. Stefan Ulbrich Wintersemester 2008/2009 TU Darmstadt Überarbeitete Version

Mehr

Lösungsvorschläge für das 5. Übungsblatt

Lösungsvorschläge für das 5. Übungsblatt Lösungsvorschläge für das 5. Übungsblatt Aufgabe 6 a) Sei = [0, ], f(x) := [e x ] für x. Hierbei ist [y] := maxk Z k y} für y. Behauptung: f ist messbar und es ist f(x) dx = 2 log 2. falls x [0, log 2),

Mehr

5 Die Allgemeine Lineare Gruppe

5 Die Allgemeine Lineare Gruppe 5 Die Allgemeine Lineare Gruppe Gegeben sei eine nicht leere Menge G und eine Abbildung (Verknüpfung) : G G G, (a, b) a b( a mal b ) Das Bild a b von (a, b) heißt Produkt von a und b. Andere gebräuchliche

Mehr

Grundlagen der Optimierung. Übung 6

Grundlagen der Optimierung. Übung 6 Technische Universität Chemnitz Chemnitz, 2. November 24 Prof. Dr. R. Herzog, J. Blechschmidt, A. Schäfer Abgabe am 28. November 24 Grundlagen der Optimierung Übung 6 Aufgabe 2: Verschiedene Verfahren

Mehr

Vollständigkeit. 1 Konstruktion der reellen Zahlen

Vollständigkeit. 1 Konstruktion der reellen Zahlen Vortrag im Rahmen des Proseminars zur Analysis, 17.03.2006 Albert Zeyer Ziel des Vortrags ist es, die Vollständigkeit auf Basis der Konstruktion von R über die CAUCHY-Folgen zu beweisen und äquivalente

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Lineare (Un-)Gleichungen und lineare Optimierung

Lineare (Un-)Gleichungen und lineare Optimierung Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik Universität Innsbruck Lehrer/innen/fortbildungstag Wien 2010 9. April 2010 Eine Maximumsaufgabe Eine Firma stellt aus

Mehr

Lösbarkeit linearer Gleichungssysteme

Lösbarkeit linearer Gleichungssysteme Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,

Mehr

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9 Chr.Nelius: Zahlentheorie (SS 2007) 9 4. ggt und kgv (4.1) DEF: Eine ganze Zahl g heißt größter gemeinsamer Teiler (ggt) zweier ganzer Zahlen a und b, wenn gilt: GGT 0 ) g 0 GGT 1 ) g a und g b GGT 2 )

Mehr

KLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen)

KLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen) Mathematisches Institut WS 2012/13 der Heinrich-Heine-Universität 7.02.2013 Düsseldorf Prof. Dr. Achim Schädle KLAUSUR zu Einführung in die Optimierung Bitte folgende Angaben ergänzen und DEUTLICH LESBAR

Mehr

Kapitel 3. Lineare Optimierung. 3.1 Aufgabenstellung. Wir betrachten den

Kapitel 3. Lineare Optimierung. 3.1 Aufgabenstellung. Wir betrachten den Kapitel 3 Lineare Optimierung The tremendous power of the simplex method is a constant surprise to me G.B. Dantzig Wir betrachten den einfachsten Fall eines Optimierungsproblems mit Nebenbedingungen: Lineare

Mehr

Übungen zum Vorkurs Mathematik

Übungen zum Vorkurs Mathematik Übungen zum Vorkurs Mathematik Blatt 1 W.S.2009/2010 - Ernst Bönecke Aufgaben zur Aussagenlogik 1.) Seien A, B, C Aussagen. Beweisen Sie mit Hilfe von Wahrheitstafeln, dass folgende Aussagen stets wahr

Mehr

18 Höhere Ableitungen und Taylorformel

18 Höhere Ableitungen und Taylorformel 8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a

Mehr

β 1 x :=., und b :=. K n β m

β 1 x :=., und b :=. K n β m 44 Lineare Gleichungssysteme, Notations Betrachte das lineare Gleichungssystem ( ) Sei A = (α ij ) i=,,m j=,n α x + α x + + α n x n = β α x + α x + + α n x n = β α m x + α m x + + α mn x n = β m die Koeffizientenmatrix

Mehr

Lineare Optimierung. bei Prof. Walter Alt. Semester: SS 2006 und WS 2009

Lineare Optimierung. bei Prof. Walter Alt. Semester: SS 2006 und WS 2009 Lineare Optimierung bei Prof. Walter Alt Semester: SS 2006 und WS 2009 Vorwort Dieses Dokument wurde als Skript für die auf der Titelseite genannte Vorlesung erstellt und wird jetzt im Rahmen des Projekts

Mehr

Vorlesung: Nicht-kooperative Spieltheorie. Teil 4: 2-Personen-Nullsummenspiele

Vorlesung: Nicht-kooperative Spieltheorie. Teil 4: 2-Personen-Nullsummenspiele Vorlesung: Nicht-kooperative Spieltheorie Teil 4: 2-Personen-Nullsummenspiele Dr. Thomas Krieger Wintertrimester 2009 Dr. Thomas Krieger Vorlesung: Nicht-kooperative Spieltheorie 1 Definition 2-Personen-Nullsummenspiele

Mehr

4 Lineare Optimierung

4 Lineare Optimierung 4 Lineare Optimierung In diesem Kapitel werden wir uns mit effizienten Verfahren im Bereich der linearen Optimierung beschäftigen. 4.1 Einführung Als Einführung betrachten wir das Beispiel einer Erdölraffinerie.

Mehr

Universität Karlsruhe (TH) Mathematisches Institut II. Prof. Dr. A. Kirsch. Optimierungstheorie. Skript zur Vorlesung im Sommersemester 2002

Universität Karlsruhe (TH) Mathematisches Institut II. Prof. Dr. A. Kirsch. Optimierungstheorie. Skript zur Vorlesung im Sommersemester 2002 Universität Karlsruhe (TH) Mathematisches Institut II Prof. Dr. A. Kirsch Optimierungstheorie Skript zur Vorlesung im Sommersemester 2002 Version vom 8. September 2004 Inhaltsverzeichnis 1 Einführung 1

Mehr

4.4 Quadratische Optimierungsprobleme

4.4 Quadratische Optimierungsprobleme 4.4 Quadratische Optimierungsprobleme 1. Quadratische Programme (QP) 1 2 xt P x + q T x + r s.t. Gx h (4.34) wobei P S n +, G R (m n) und A R (p n) Zielfunktion (ZF) ist (konvex) quadratisch Nebenbedingungen

Mehr

Diskrete Optimierung

Diskrete Optimierung Diskrete Optimierung (Algorithmische Diskrete Mathematik II, kurz ADM II) Skriptum zur Vorlesung im SS 2013 Prof. Dr. Martin Grötschel Institut für Mathematik Technische Universität Berlin Version vom

Mehr

b liegt zwischen a und c.

b liegt zwischen a und c. 2 DIE ANORDNUNGSAXIOME 5 (2.4) a, b, c R : (a < b 0 < c) ac < bc Monotoniegesetz der Multiplikation Bezeichnungen a > b : b < a (> wird gelesen: größer als ) a b : a < b oder a = b a b : a > b oder a =

Mehr

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 7 Lineare Programmierung II 1 Lineare Programme Lineares Programm: Lineare Zielfunktion Lineare Nebenbedingungen (Gleichungen oder Ungleichungen) Spezialfall der konvexen Optimierung

Mehr

OPTIMIERUNG I. Christian Clason. Fakultät für Mathematik Universität Duisburg-Essen

OPTIMIERUNG I. Christian Clason. Fakultät für Mathematik Universität Duisburg-Essen OPTIMIERUNG I Vorlesungsskript, Sommersemester 2014 Christian Clason Stand vom 1. Juli 2014 Fakultät für Mathematik Universität Duisburg-Essen INHALTSVERZEICHNIS I GRUNDLAGEN 1 theorie der linearen ungleichungen

Mehr

Elemente der Algebra und Zahlentheorie Musterlösung, Serie 3, Wintersemester vom 15. Januar 2006

Elemente der Algebra und Zahlentheorie Musterlösung, Serie 3, Wintersemester vom 15. Januar 2006 Prof. E.-W. Zink Institut für Mathematik Humboldt-Universität zu Berlin Elemente der Algebra und Zahlentheorie Musterlösung, Serie 3, Wintersemester 2005-06 vom 15. Januar 2006 2te, korrigierte und erweiterte

Mehr

ist reelles lineares Funktional. x(t) ϕ(t) dt ist reelles lineares Funktional für alle ϕ L 2 (0, 1).

ist reelles lineares Funktional. x(t) ϕ(t) dt ist reelles lineares Funktional für alle ϕ L 2 (0, 1). Kapitel 4 Stetige lineare Funktionale 4.1 Der Satz von Hahn - Banach Definition 4.1. Sei X ein linearer normierter Raum über dem Körper K (R oder C). Ein linearer Operator f : X K heißt (reelles oder komplexes)

Mehr

Aufgaben zu Kapitel 23

Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Verständnisfragen Aufgabe 23 Bestimmen Sie grafisch die optimale Lösung x der Zielfunktion z = c T x unter den Nebenbedingungen mit dem Zielfunktionsvektor

Mehr

Affine Geometrie (Einfachere, konstruktive Version)

Affine Geometrie (Einfachere, konstruktive Version) Affine Geometrie (Einfachere, konstruktive Version) Def. Affiner Raum der Dimension n über Körper K ist nach Definition K n. Bemerkung. Man könnte Theorie von affinen Raumen auch axiomatisch aufbauen mit

Mehr

Matrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K).

Matrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K). Matrizen - I Definition. Sei K ein Körper. Ein rechteckiges Schema A = a 11 a 12...... a 1n a 21 a 22...... a 2n............ a m1 a m2...... a mn wobei j K heißt Matrix bzw. eine m n Matrix (mit Elementen

Mehr

Einführung in die Mathematik des Operations Research

Einführung in die Mathematik des Operations Research Universität zu Köln Mathematisches Institut Prof. Dr. F. Vallentin Einführung in die Mathematik des Operations Research Sommersemester 3 en zur Klausur (7. Oktober 3) Aufgabe ( + 3 + 5 = Punkte). Es sei

Mehr

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1. Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x

Mehr

Dualität bei konvexer Optimierung

Dualität bei konvexer Optimierung Dualität bei konvexer Optimierung Seminar zur Numerik I im SS 2016 Laslo Hunhold 10. Mai 2016 Ausarbeitung zum Seminarvortrag vom 2. Mai 2016 Mathematisches Institut Mathematisch-Naturwissenschaftliche

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m)

Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m) Minimumproblem Definition 4.7 Ein LP der Form nx Minimiere Z = c j x j j=1 unter den Nebenbedingungen nx d ij x j b i (i =1,...,m) j=1 und den Vorzeichenbedingungen x j 0(j =1,...,n) heißt Minimumproblem.

Mehr

Eigenschaften von LPs

Eigenschaften von LPs 2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört

Mehr

1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme. Duales Problem. a i u i + i=1. j=1

1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme. Duales Problem. a i u i + i=1. j=1 1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme Duales Problem Lemma 1.4. Das zum Transportproblem duale Problem lautet: max unter den Nebenbedingungen m a i u i + i=1

Mehr

Operations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung.

Operations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung. Operations Research Rainer Schrader Flüsse in Netzwerken Zentrum für Angewandte Informatik Köln 2. Juli 2007 1 / 53 2 / 53 Flüsse in Netzwerken Unimodularität Gliederung Netzwerke und Flüsse bipartite

Mehr

Zu zwei Matrizen A R m n und B R p q existiert das Matrizenprodukt A B n = p und es gilt dann. A B = (a ij ) (b jk ) = (c ik ) = C R m q mit c ik =

Zu zwei Matrizen A R m n und B R p q existiert das Matrizenprodukt A B n = p und es gilt dann. A B = (a ij ) (b jk ) = (c ik ) = C R m q mit c ik = H 6. Die Matrizen A, B, C und D seien gegeben durch 5 A =, B =, C = 4 5 4, D =. 5 7 5 4 4 Berechnen Sie (sofern möglich) alle Matrizenprodukte X Y mit X, Y {A, B, C, D}. Zu zwei Matrizen A R m n und B

Mehr

1 Häufungswerte von Folgen

1 Häufungswerte von Folgen KARLSRUHER INSTITUT FÜR TECHNOLOGIE INSTITUT FÜR ANALYSIS Dr. Christoph Schmoeger Heio Hoffmann WS 0/..0 Höhere Mathemati I für die Fachrichtung Informati. Saalübung (..0) Häufungswerte von Folgen Oft

Mehr

6 Lineare Gleichungssysteme

6 Lineare Gleichungssysteme 6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

Grundlagen der Mathematik 1

Grundlagen der Mathematik 1 Fachbereich Mathematik Sommersemester 2010, Blatt 14 Thomas Markwig Stefan Steidel Grundlagen der Mathematik 1 Die Lösungen müssen nicht eingereicht werden und werden auch nicht korrigiert. Die Aufgaben

Mehr

4 Der Gauß Algorithmus

4 Der Gauß Algorithmus 4 Der Gauß Algorithmus Rechenverfahren zur Lösung homogener linearer Gleichungssysteme Wir betrachten ein GLS (1) a 11 x 1 + a 1 x + + a 1n x n = a 1 x 1 + a x + + a n x n = a m1 x 1 + a m x + + a mn x

Mehr

A = α α 0 2α α

A = α α 0 2α α Aufgabe 8. Berechnen Sie abhängig von α R die Dimension dim(f(r 4 )) und die Dimension dim(kern(f)) sowie je eine Basis von f(r 4 ) und Kern(f) der linearen Abbildung f : R 4 R 4, x Ax mit der Matrix A

Mehr

2.3 Basis und Dimension

2.3 Basis und Dimension Lineare Algebra I WS 205/6 c Rudolf Scharlau 65 2.3 Basis und Dimension In diesem zentralen Abschnitt werden einige für die gesamte Lineare Algebra fundamentale Grundbegriffe eingeführt: Lineare Abhängigkeit

Mehr

8. Konvexe Polytope. Tobias Boelter. Mittwoch, 5. März TopMath Frühlingsschule

8. Konvexe Polytope. Tobias Boelter. Mittwoch, 5. März TopMath Frühlingsschule 1 / 31 8. Konvexe Tobias Boelter TopMath Frühlingsschule Mittwoch, 5. März 2014 2 / 31 Es können auch nicht konvexe untersucht werden, wir beschränken uns hier aber auf konvexe. Mit einem Polytop ist hier

Mehr

Lineares Programmieren Algorithmentechnik WS 09/10 Dorothea Wagner 7. Januar 2010

Lineares Programmieren Algorithmentechnik WS 09/10 Dorothea Wagner 7. Januar 2010 Lineares Programmieren Algorithmentechnik WS 09/10 Dorothea Wagner 7. Januar 2010 FAKULTÄT FÜR I NFORMATIK, I NSTITUT FÜR T HEORETISCHE I NFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

Übungsblatt 6 Lösungsvorschläge

Übungsblatt 6 Lösungsvorschläge Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 6 Lösungsvorschläge Vorlesung Algorithmentechnik im WS 09/10 Problem 1: Größter Kreis in konvexem Polygon [vgl. Kapitel 6

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr