Teil 5: Lineare Programmierung. (Blum, Kapitel 8)

Größe: px
Ab Seite anzeigen:

Download "Teil 5: Lineare Programmierung. (Blum, Kapitel 8)"

Transkript

1 Teil 5: Lineare Programmierung (Blum, Kapitel 8)

2 Was sind Optimierungsprobleme? Eingabe: Menge F von zulässigen Lösungen. Zielfunktion z:f R. Aufgabe: Finde x F, so dass x F : z(x) z(x ). (für Minimierungsprobleme) Beispiel: Finde x [0,1], so dass x 3 3x+1 minimal. 616

3 Lineare Optimierungsprobleme Die Menge der zulässigen Lösungen x=(x 1,,x n ) R n wird durch lineare Nebenbedingungen beschrieben: a 11 x a 1n x n b 1 a m1 x a mn x n b m (oder kompakt: Ax b) 617

4 Lin. Optimierungsprobleme (Forts.) Zielfunktion ist linear, d.h. von der Form c 1 x 1 + +c n x n min (max) (oder kompakt c T x min (max)) Historische Namensgebung: Lineare Optimierungsprobleme heißen lineare Programme (LPs) Lösungsverfahren für LPs heißen lineare Programmierung 618

5 Beispiel Gärtner hat 100 m 2 Garten u. 720 Kapital Anbau von Blumen kostet 9 / m 2 Anbau von Gemüse kostet 6 / m 2 Gewinn bei Blumen: 20 / m 2 Gewinn bei Gemüse: 10 / m 2 Nur 60 m 2 des Gartens für Blumen geeignet Aufgabe: Bestimme Aufteilung des Gartens, so dass der Gewinn maximal ist. 619

6 Formulierung als LP Bedeutung der Variablen: x 1 : Fläche für Blumen in m 2 x 2 : Fläche für Gemüse in m 2 Zielfunktion: 20x x 2 max Nebenbedingungen: x 1 + x x 1 + 6x x 1 60 x 1 0, x

7 Graphische Ad-hoc-Lösung x x 1 0 x x 1 60 x 1 +x Lösung: x 1 =60 x 2 =30 9x 1 +6x x 1 +10x x 1 621

8 Sonderfall Saatgut nur quadratmeterweise erhältlich Zusätzliche Nebenbedingung: x 1,x 2 ganzzahlig. Bezeichnung: Lineare Programme mit derartigen Nebenbedingungen heißen ganzzahlige (lineare) Programme bzw. integer (linear) programs (ILPs). 622

9 Überblick über Teil 5 Modellierung von bekannten Problemen durch LPs und ILPs Zusätzliches Ergebnis: Ganzzahlige lineare Programmierung ist NP-schwer. Vereinheitlichung von LPs Geometrische Grundlagen Simplexmethode zum Lösen von LPs Anwendung: Randomisiertes Runden 623

10 Erinnerung: Vertex Cover (VC eval ) Eingabe: Unger. Graph G=(V,E). Frage: Finde die kleinste Zahl k, so dass es V V mit V =k gibt und jede Kante mindestens einen Knoten aus V enthält. Bsp. V überdeckt E. 624

11 VC Ganzzahliges lin. Programm Sei V={1,,n}. Benutze Variablen x i mit der Bedeutung x i =0 Knoten i ist nicht in V enthalten x i =1 Knoten i ist in V enthalten Zielfunktion: i x i min Nebenbedingungen: {i,j} E: x i +x j 1 i {1,,n} : x i 0 und x i 1 i {1,,n} : x i ganzzahlig überflüssig 625

12 Korrektheit Beobachtungen: Für Lösungen x des LPs gilt: Alle x i nehmen nur Werte aus {0,1} an. Die Knoten i mit x i =1 bilden ein VC V. Die Größe des VC V ist minimal. Zielfunktion: i x i min Nebenbedingungen: {i,j} E: x i +x j 1 i {1,,n} : x i 0 i {1,,n} : x i ganzzahlig 626

13 0-1-Programmierung Falls in einem LP alle Variablen nur die Werte 0 und 1 annehmen dürfen, spricht man von einem 0-1-Programm. 627

14 Folgerung Satz: Ganzzahlige lineare Programmierung und 0-1-Programmierung sind NP-schwer. Beweis: Die letzten Folien zeigten die Reduktionen VC eval T Ganzzahlige lin. Programmierung und VC eval T 0-1-Programmierung 628

15 Flussmaximierung Gegeben: Gerichteter Graph G=(V,E) mit Kapazitätsfunktion c : E N und Quelle q, Senke s Fluss: Kantenbewertung f : E R 0+, so dass: In jeden Knoten außer q und s fließt gleich viel Fluss hinein und heraus. Für jede Kante e überschreitet der Fluss f(e) die Kapazität c(e) nicht. Wert des Flusses f: Summe der Flüsse, die aus q herausfließen. 629

16 Flussmaximierung LP Variablen: x i,j für alle Kanten (i,j) E. Bedeutung von x i,j : Wert des Flusses auf der Kante (i,j). Zielfunktion: (q,i) E x q,i max Nebenbedingungen: (i,j) E: x i,j 0 und x i,j c(i,j). i V \ {q,s}: (i,j) E x i,j (l,i) E x l,i = 0. Fluss, der Knoten i verlässt Fluss in Knoten i hinein 630

17 Maximales Matching Gegeben: Graph G=(V,E) Aufgabe: Finde Menge M E mit maximaler Größe M, so dass Kanten aus M keinen Knoten gemeinsam haben. Bsp: 631

18 Formulierung als ganzz. lin. Progr. Variablen: x i,j (i<j) für alle Kanten {i,j} E. Bedeutung: x i,j =1, falls {i,j} M, x i,j =0, falls {i,j} M. Zielfunktion: (i,j) E x i,j max Nebenbedingungen: {i,j} E: x i,j 0 und ganzzahlig. i V: (i,j) E x i,j

19 Anmerkungen Für die Berechnung maximaler Matchings sind Polynomialzeitalgorithmen bekannt. Ganzzahlige Programmierung ist NPschwer. Hier wurde ein falscher Umweg gemacht. Die Umformungen von Problemen in (ganzzahlige) lineare Programme sind Turing-Reduktionen. 633

20 MAX-k-SAT Eingabe: Variablen x 1,,x n, Klauseln C 1,,C m mit je k Literalen. Aufgabe: Finde eine Belegung der Variablen, die die Anzahl erfüllter Klauseln maximiert. Bekannt: MAX-3-SAT ist NP-schwer (vgl. Folie 161f.). 634

21 Formulierung als 0-1-Programm z 1,,z m : Indikatorvariablen, die angeben, ob die zug. Klauseln erfüllt sind. Zielfunktion: z 1 + +z m max Nebenbedingungen: y 1,,y n,z 1,,z m {0,1} Für j=1,,m: Dann: max. Wert der Zielfunktion = max. Anzahl erfüllter Klauseln 635

22 Standardisierung von LPs Ziel: Einheitliche Form von LPs, um Algorithmen zu vereinfachen. Variablen mit negativen Werten beseitigen in umformen Gleichungen beseitigen Schlupfvariablen einführen Maximierungsprobleme in Minimierungsprobleme umformen 636

23 Beseitung v. Var. mit neg. Werten Für jede Variable x gibt es in der Regel die Nebenbedingung x 0. Falls nicht: Erzeuge neue Variablen y,z mit den Nebenbedingungen y,z 0. Ersetze x durch y z. Bsp: 5x 1 +3x 2 7, x 2 0, x 1 R 5y 1 5z 1 +3x 2 7, y 1,z 1,x

24 Umdrehen v. Ungleichheitszeichen Aus wird durch Multiplizieren der Nebenbedingung mit 1. Bsp: 5x 1 +3x 2 7 5x 1 3x

25 Beseitigung von Gleichungen Variante 1: Ersetze Nebenbedingungen der Form i a i x i =b durch i a i x i b und i a i x i b. Variante 2: Sei o.b.d.a a 1 0. Löse die Nebenbedingung nach x 1 auf. Resultat: x 1 = (b i 1 a i x i ) / a 1. Setze dies in die anderen Nebenbedingungen und die Zielfunktion ein. 639

26 Umformung von Ungleichungen Ziel: Ersetze jede Ungleichung durch eine Gleichung und eine sog. Schlupfvariable: i a i x i b i a i x i + z = b z 0 Schlupfvariablen haben im Simplexalgo eine besondere Bedeutung. Jede Nebenbedingung hat eine eigene Schlupfvariable, die sonst nirgendwo mehr vorkommt. 640

27 Minimierung vs. Maximierung Maximierungsprobleme werden durch Multiplikation der Zielfunktion mit 1 zu Minimierungsproblemen. 641

28 Resultat: Standardform von LPs Zielfunktion: c T x min Nebenbedingungen: Ax=b, x 0 Dabei: A ist m n-matrix, c ist n-dimensionaler Vektor, b ist m-dimensionaler Vektor, x = (x 1,,x n ), jede Gleichung enthält eine Schlupfvariable. 642

29 Grundlagen aus der lin. Algebra Vektorraum R n : Menge aller n-dimensionalen reellwertigen Vektoren mit den Operationen Vektoraddition (koordinatenweise Addition) Multiplikation mit Skalaren (= reellen Zahlen) (U.A.) gilt: Vektoraddition ist kommutativ und assoziativ, hat als neutrales Element den Nullvektor, das Distributivgesetz. 643

30 Untervektorräume von R n S R n heißt Unter(vektor)raum (UR) von R n, wenn S gegen Vektoraddition und Multiplikation mit Skalaren abgeschlossen ist. Bekannt: URs sind genau die Lösungsräume von homogenen lin. Gleichungssystemen Ax=0. Die Lösungsräume von inhomogenen lin. Gleichungssystemen sind affine Unterräume a+s, wobei a Vektor und S UR. 644

31 Konvexe (Linear-)Kombinationen Seien x,y R n. Konvexkombinationen von x und y sind alle Punkte z mit z=λx+(1 λ)y, λ [0,1]. Geometrische Interpretation: Dies sind alle Punkte auf der Strecke [x,y]. Strikte Konvexkombinationen von x und y sind alle Punkte z mit z=λx+(1 λ)y, λ (0,1). 645

32 Konvexe (Linear-)Kombinationen Seien x 1,,x t R n. Konvexkombinationen von x 1,,x t sind alle Punkte z mit z= i {1,,t} λ i x i, wobei i {1,,t} λ i =1. Geometrische Interpretation: Dies sind alle Punkte in der konvexen Hülle von x 1,,x t. 646

33 Konvexe Mengen C R n heißt konvex, wenn für alle x,y C auch alle Konvexkombinationen von x und y in C liegen. 647

34 Extrempunkt Sei C eine konvexe Menge. Ein Extrempunkt von C ist ein Punkt, der sich nicht als strikte Konvexkombination von zwei verschiedenen Punkten von C darstellen lässt. 648

35 Halbebenen und Halbräume Seien b R, a R n,a 0. Halbebene (oder Hyperebene): H = {x a T x = b} (Geometrisch: (n 1)-dimensionaler affiner Unterraum, der R n in zwei Teile teilt) (Abgeschlossener) Halbraum: H = {x a T x b} (Geometrisch: Halbebene zzgl. eines der beiden Teile des R n ) 649

36 Beobachtungen Jede lineare Nebenbedingung der Form a 1 x a n x n b beschreibt einen Halbraum des R n. Halbräume sind konvexe Mengen. Der Durchschnitt von konvexen Mengen ist wieder eine konvexe Menge. Folgerung: Die Menge der Punkte, die alle Nebenbedingungen eines LP erfüllen, ist ein konvexes Polyeder. 650

37 Begriffe Polyeder im R n : Menge von Punkten, die von Halbebenen begrenzt wird. Polytop im R n : Beschränktes Polyeder Simplex im R n : Polytop mit n+1 Extrempunkten Spezialfälle eines Simplex: n=2: Dreieck n=3: Tetraeder 651

38 Stützende Hyperebene Sei C konvexe Menge. H heißt stützende Hyperebene von C, falls H C. C H, wobei H einer der durch H erzeugten Halbräume ist. 652

39 Stützende Hyperebenen Sei P konvexes Polyeder und H stützende Hyperebene. Falls dim(p H)=0, heißt P H Ecke von P. Falls dim(p H)=1, heißt P H Kante von P. Falls dim(p H)=n 1, heißt P H Seitenfläche von P. Beobachtung: Die Ecken von P sind die Extrempunkte von P. 653

40 Die nächsten Ziele Für ein LP Ax=b, x 0, c T x min gibt es die folgenden Möglichkeiten: Es gibt keine Lösung. Die Zielfunktion kann beliebig kleine Werte annehmen. Es gibt Lösungen mit endlichem Wert der Zielfunktion. Dann ex. auch eine Lösung, die auf einem Eckpunkt des Polyeders der Nebenbedingungen liegt. Simplexalgorithmus arbeitet nur auf den Eckpunkten des Polyeders. 654

41 Eigenschaften der Eckpunkte Satz: Sei P={x Ax=b, x 0 } und z P. Dann: z Eckpunkt von P Die zu positiven Koordinaten von z korrespondierenden Spalten von A sind linear unabhängig. Beweis: O.B.d.A. seien die ersten p Koordinaten von z positiv. z : ersten p Koordinaten von z A : ersten p Spalten von A Dann: A z = Az = b. 655

42 Beweis (Fortsetzung) (z Eckpunkt Spalten v. A lin. unabh.) Annahme: Spalten von A nicht lin. unabh. w 0: A w=0. ε>0: A (z +εw)=a (z εw) =A z =b. Wähle ε so klein, dass z +εw 0 und z εw 0. Fülle z +εw mit n p Nullen auf y Fülle z εw mit n p Nullen auf y Dann: y, y P und z=(y +y )/2 z kein Eckpunkt. 656

43 Beweis (Fortsetzung) (Spalten v. A lin. unabh. z Eckpunkt) Annahme: z kein Eckpunkt von P. y y P, λ (0,1) mit z=λy +(1 λ)y. A(z y ) = Az Ay = b b = 0 Wegen y, y P sind die letzten n p Koordinaten jeweils nicht negativ. Wegen λ 0,1 sind die letzten n p Koordinaten von y (wie auch von z) gleich 0. Die Spalten von A sind nicht lin. unabh. 657

44 Darstellung der Eckpunkte Sei A eine m n-matrix (mit Rang(A)=m). Sei B eine m m-matrix aus m linear unabh. Spalten von A (also eine Basis). Die Variablen, die den Spalten von B entsprechen, heißen Basisvariablen bez. B. Die übrigen Variablen heißen Nichtbasisvariablen bez. B. Die Variablenbelegung, bei der Nichtbasisvariablen auf 0 gesetzt sind und die Basisvariablen x B die Gleichung Bx B =b erfüllen, heißt Basislösung. 658

45 Darstellung der Eckpunkte Falls für eine Basislösung zusätzlich x B 0 gilt, heißt sie zulässige Basislösung. Die Variablenbelegung, bei der Nichtbasisvariablen auf 0 gesetzt sind und die Basisvariablen x B die Gleichung Bx B =b erfüllen, heißt Basislösung. 659

46 Eckpunkte vs. Basislösungen Folgerung: z P ist Eckpunkt von P z zulässige Basislösung bez. einer Basis B von A. Satz: Sei P = { x Ax=b, x 0 } und sei z P. Dann: z Eckpunkt von P Die zu positiven Koordinaten von z korrespond. Spalten von A sind linear unabhängig. 660

47 Folgerung Folgerung: Ein Polyeder P hat nur eine endliche Anzahl von Ecken. Beweis: Es gibt maximal Möglichkeiten, m Spalten aus A zu wählen. Also: Die Inspektion aller Eckpunkte ist (prinzipiell) in endlicher Zeit möglich. Aber: i.a. exponentiell. 661

48 Richtung eines Polyeders Definition: Ein Vektor d R n \{0} heißt Richtung des Polyeders P, falls für jedes x 0 P auch alle Punkte des Strahls {x 0 +λd λ 0} in P liegen. Beobachtung: Ein Polyeder P ist genau dann unbeschränkt, wenn P eine Richtung hat. 662

49 Wann hat P eine Richtung? Lemma: d 0 ist genau dann Richtung des Polyeders P = {x Ax=b, x 0}, wenn Ad=0 und d 0 ist. Beweis: : Sei Ad=0 und d 0. x 0 P λ>0: A(x 0 +λd) = Ax 0 + Aλd = b d ist Richtung von P. 663

50 : Sei d=(d 1,,d n ) Richtung von P. 1. Annahme: i: d i <0 Für alle x 0 P u. hinr. großes λ: (x 0 +λd) i <0 d keine Richtung. 2. Annahme: Ad 0. Für alle λ>0: Aλd 0. Für alle x 0 P: A(x 0 +λd) = Ax 0 + Aλd = b+aλd b d keine Richtung. Lemma: d 0 ist genau dann Richtung des Polyeders P = {x Ax=b, x 0}, wenn Ad=0 und d 0 ist. 664

51 Repräsentationstheorem Satz: Sei P = {x Ax=b, x 0} ein Polyeder im R n. Jeder Punkt z P kann als und λ 1,,λ n+1 0 dargestellt werden, wobei d=0 oder d eine Richtung von P ist und v 1,,v n+1 Eckpunkte von P sind. Insbesondere hat P mind. einen Eckpunkt. Beweis: Induktion über n, hier weggelassen. 665

52 Fundamentalsatz der lin. Prog. Satz: Sei P = {x Ax=b, x 0}. Dann wird der Minimalwert von z(x)=c T x an einer Ecke von P angenommen oder z(x) hat keine untere Schranke in P. Nutzen beim Lösen von lin. Programmen: Betrachte nur Eckpunkte. Untersuche, ob es eine Richtung gibt, entlang derer z(x) gegen geht. 666

53 Beweis: 1. Fall: P hat eine Richtung d mit c T d<0. Dann: P ist unbegrenzt und z konvergiert entlang d gegen. 2. Fall: P hat keine solche Richtung. Sei x P Punkt mit min. Wert für z(x). Dann 667

54 Simplexalgorithmus ist Umsetzung der bisherigen Ideen: 1. Schritt: Suche zulässigen Basispunkt 2. Schritt: Führe Basiswechsel durch und verkleinere dadurch den Wert der Zielfunktion. Dieser Schritt liefert entweder Eckpunkt, der Optimum ist oder Richtung, entlang derer die Zielfunktion beliebig klein wird. Wir betrachten zuerst den 2. Schritt. 668

55 Gegebenes LP später günstig z(x)= c 1 x 1 c n x n min a 11 x a n1 x n + x n+1 = b 1 a m1 x a nm x n + x n+m = b m x 1,,x n+m 0 Schlupfvariablen 669

56 Umformung z(x) = c 0 c 1 x 1 c n x n min x n+1 = b 1 a 11 x 1 a n1 x n x n+m = b m a m1 x 1 a nm x n Basisvariablen Nichtbasisvariablen Zugehöriger Basispunkt: x 1 = =x n =0, x n+1 =b 1,,x n+m =b m 670

57 Idee eines Basiswechsel z(x) = c 0 c 1 x 1 c n x n min x n+1 = b 1 a 11 x 1 a n1 x n x n+m = b m a m1 x 1 a nm x n Sei c i >0. Idee: x i beginnend von 0 wachsen lassen Zielfunktion wird kleiner a ji >0: x n+j wird kleiner, darf nur auf 0 sinken. a ji 0: keine Einschränkung wg. x n+j 671

58 Wie groß darf x i werden? 1. Fall: a ji > 0. Dann x n+j = b j a ji x i 0 x i b j /a ji. 2. Fall: a ji 0. Dann keine Einschränkung an x i. Also: Suche Nebenbedingung j mit a ji >0 und b j /a ji minimal. Dann x i wächst auf b j /a ji und x n+j sinkt auf 0. x i wird Basisvar. x n+j wird Nichtbasisvar. Falls es ein solches j nicht gibt: Zielfunktion kann beliebig klein werden. 672

59 Basiswechsel zw. x i und x n+j z(x) = c 0 c 1 x 1 c n x n min x n+1 = b 1 a 11 x 1 a n1 x n x n+m = b m a m1 x 1 a nm x n j-te Nebenbedingung nach x i auflösen: 673

60 Basiswechsel zw. x i und x n+j für x i in die Zielfunktion und die anderen Nebenbedingungen einsetzen. Resultat: Äquivalentes LP, in dem x n+j Nichtbasisvariable und x i Basisvariable ist. 674

61 Neue Zielfunktion 675

62 Bedeutung von c 0 c 0 ist der Wert der Zielfunktion im aktuellen Basispunkt. 676

63 Neue Nebenbedingungen 677

64 Resultate Resultat ist ein äquivalentes LP. Name des Umformungsschritts: Basiswechsel oder Pivotschritt In einem Pivotschritt wird von einem Eckpunkt zu einem benachbarten Eckpunkt gewechselt. Ein Eckpunkt zusammen mit seinen n Nachbarn bildet einen Simplex; daher der Name Simplexalgorithmus 678

65 Simplextableau Tabelle/Array der Koeffizienten des LP Zur Vereinfachung werden die Vorzeichen der Nichtbasisvariablen umgedreht. 679

66 z(x) = c 0 c 1 x 1 c n x n min x n+1 = b 1 a 11 x 1 a n1 x n x n+m = b m a m1 x 1 a nm x n wird zu x 1 x n c 0 c 1 c n x n+1 b 1 a 11 a n1 x n+m b m a m1 a nm 680

67 Basiswechsel x n+j x i Pivotelement: übrige Elemente in der j-ten Zeile: übrige Elemente in der i-ten Spalte: übrige Elemente: 681

68 Merkregel p r q s 1/p r/p q/p s rq/p 682

69 Schritt 2 des Simplexalgorithmus Gegeben: LP mit zulässigem Basispunkt. Schleife: Falls alle c i 0: Verkleinern der Zielfunktion nicht mehr mögl., Lösung gefunden. STOP. Wähle i mit c i >0. Falls für alle j gilt, dass a ji 0: Zielfunktion kann bel. kleine Werte annehmen. STOP. Suche j mit a ji >0 und b j /a ji minimal. Führe Pivotschritt um a ji aus. 683

70 Gärtnerbeispiel 20x x 2 max x 1 + x x 1 + 6x x 1 60 x 1 0, x 2 0 Normalform: 20x 1 10x 2 min x 3 = 100 x 1 x 2 x 4 = 720 9x 1 6x 2 x 5 = 60 x 1 684

71 Erzeugung des Simplextableaus 20x 1 10x 2 min x 3 = 100 x 1 x 2 x 4 = 720 9x 1 6x 2 x 5 = 60 x 1 x 1 x x x x

72 Auswahl des ersten Basiswechsels x 1 x x x x x x 1 80 x 1 60 Also Basiswechsel x 1 x 5 686

73 Basiswechsel x 1 x 5 x 1 x x x x x 5 x x x x

74 Zweiter Basiswechsel x 5 x x x x x 2 40 x 2 30 Also Basiswechsel x 2 x 4 688

75 Basiswechsel x 2 x 4 x 5 x x x x x 5 x /6 x /2 1/6 x /2 1/6 x Lösung mit Wert 1500 gefunden 689

76 Geometrische Interpretation x x 1 690

77 Sonderfall: Degenerierte Probleme Ein LP heißt degeneriert, falls sich in einem Eckpunkt des zugehörigen Polyeders mehr als n Hyperebenen schneiden. Probleme: Der zugehörige Basispunkt hat mehrere Darstellungen (bei denen auch Basisvariablen den Wert 0 haben). Der Simplexalgorithmus kann zwischen diesen Darstellungen kreisen -Schleife 691

78 Abhilfe Der Simplexalgorithmus speichert alle besuchten Basispunkte, um Wiederholungen zu vermeiden erfordert ev. viel Speicher. Zusätzliche Regeln, die mehrfaches Besuchen desselben Basispunkts vermeiden Lex-Positiv-Regel (siehe Blum) 692

79 Rechenzeit Simplexalgorithmus gilt als praktisch effizient. Es gibt worst-case-eingaben mit exponentieller Rechenzeit (aufwändig zu konstruieren). 693

80 Schritt 1 des Simplexalgorithmus Bisherige Annahme: x 1 = =x n =0 zulässiger Basispunkt, d.h., b 1,,b m 0. Falls dies nicht so ist, sollte ein anderer zulässiger Basispunkt berechnet werden oder festgestellt werden, dass das LP unlösbar. z(x) = c 0 c 1 x 1 c n x n min x n+1 = b 1 a 11 x 1 a n1 x n x n+m = b m a m1 x 1 a nm x n 694

81 Schritt 1 des Simplexalgorithmus Unsere Vorgehensweise: Modifiziere das geg. LP P 1, so dass das Resultat P 2 auf triviale Weise einen zulässigen Basispunkt hat, man aus der Lösung von P 2 einen zulässigen Basispunkt von P 1 erhält. Lösung kann mit dem Algo für Schritt 2 berechnet werden 695

82 Bestimmung e. zul. Basispunkts Eingabe: LP P 1 : Ax=b, x 0 (Zielfkt. wird hier vernachlässigt) Durch Multiplikation mit 1 erreiche, dass alle b i 0 (bisherige Schlupfvar. erhalten ev. neg. Vorzeichen) Füge künstliche Variablen z=(z 1,,z m ) ein und konstruiere neues LP: z 1 + +z m min Ax+z = b (P 2 ) x,z

83 Berechnung e. zulässigen Basisp. Bringe das LP P 2 in Standardform, d.h., setze z = b Ax in die Zielfunktion ein. Resultat: z=b, x=0 ist zulässiger Basispunkt für P 2 Also: bisheriger Algo für Schritt 2 kann P 2 lösen. z 1 + +z m min Ax+z = b (P 2 ) x,z

84 Kriterium für die Lösbarkeit Lemma: P 2 hat genau dann die Lösung (x*,z*) mit Wert 0, wenn Ax*=b und x* 0 ist, also x* zulässiger Punkt für P 1 ist. Beweis: : (x*,z*) Lösung mit Wert 0 von P 2 z*=0, x* 0 Ax*=b, x* 0. : Offensichtlich ist (x*,z=0) Lösung von P 2 mit Wert 0. z 1 + +z m min Ax+z = b (P 2 ) x,z

85 Berechn. e. zulässigen Basispunkts Löse P 2. Falls eine z-variable ungleich 0 ist, hat P 1 keine Lösung. STOP. Ansonsten erhalten wir einen zulässigen Basispunkt für P 1 (Nichtbasisvariablen auf 0 setzen, Basisvariablen auf die b-werte setzen, z-variablen weglassen) Durch geeignete Basiswechsel kann in P 1 ein zulässiger Basispunkt erreicht werden. 699

86 Implementierung von Schritt 1 Reale Implementierungen berechnen nicht P 2, sondern führen geeignete Basiswechsel direkt aus, um einen zulässigen Basispunkt zu erreichen. 700

87 Randomisiertes Runden Bekannt: Für lineare Programmierung gibt es effiziente Algorithmen. 0-1-Programmierung ist NP-schwer. Idee: Löse ein 0-1-Programm, indem alle Nebenbedingungen x {0,1} durch 0 x 1 ersetzt werden, relaxiertes Problem lineare Relaxation das entstandene LP effizient gelöst wird, die berechnete Lösung nachbehandelt wird. 701

88 Nachbehandlung Idee: Sei x^ der Wert von x in der Lösung des LP. Belege x mit Wkeit x^ mit 1 und mit Wkeit 1 x^ mit 0 (unabhängig für alle Variablen) Name: Randomisiertes Runden Analyse hier am Beispiel MAX-k-SAT. 702

89 Wiederholung: Formulierung von MAX-k-SAT als 0-1-Programm z 1,,z m : Indikatorvariablen, die angeben, ob die zug. Klauseln erfüllt sind. Zielfunktion: z 1 + +z m max Nebenbedingungen: y 1,,y n,z 1,,z m {0,1} Für j=1,,m: Dann: max. Wert der Zielfunktion = max. Anzahl erfüllter Klauseln 703

90 Algo 1 Formuliere die MAX-k-SAT-Eingabe als 0-1-Programm. Löse die lineare Relaxation des 0-1-Programms. Sei y^ 1,,y^ n,z^ 1,,z ^ m die Lösung. Belege x i mit Wkeit y^ i mit 1 und mit Wkeit 1 y^ i mit

91 Analyse von Algo 1 Satz: Sei opt die maximale Anzahl an gleichzeitig erfüllbaren Klauseln. Die erwartete Anzahl erfüllter Klauseln ist mindestens (1 (1 1/k) k ) opt (1 1/e) opt. Bemerkung: 1 1/e 0,63. Wesentliche Idee: Wert r der Lösung des relaxierten Problems ist eine obere Schranke für die Anzahl gleichzeitig erfüllbarer Klauseln d.h. opt r = ^z j. 705

92 Hilfsaussagen 1. Ungleichung von arithmetischem und geometrischem Mittel. Seien a 1,,a k 0. Dann: 2. Sei x [0,1]. Dann: 706

93 Analyse Lemma: Sei y^ 1,,y^ n,z^ 1,,z^ m eine Lösung des relaxierten Problems. Die Wkeit, dass die j-te Klausel bei randomisiertem Runden erfüllt ist, ist mindestens (1 (1 1/k) k ) z^ j (1 1/e) z^ j. 707

94 Beweis Betrachte o.b.d.a. die Klausel C=x 1 x k. Wkeit, dass C beim rand. Runden erfüllt wird: Es ist und somit 708

95 Mit Hilfsaussage 1 folgt: Umformen: Hilfsaussage 2 Wkeit, dass C j erfüllt ist 709

96 Beweis des Satzes X j : Indikatorvariable, die angibt, ob j-te Klausel erfüllt ist. E[X j ] (1 (1 1/k) k ) z^ j. E[X 1 + +X m ] (1 (1 1/k) k ) j z^ j (1 (1 1/k) k ) opt (1 1/e) opt opt ^z j. Satz: Sei opt die maximale Anzahl an gleichzeitig erfüllbaren Klauseln. Die erwartete Anzahl erfüllter Klauseln bei rand. Runden ist mindestens (1 1/e) opt. 710

97 Ein weiterer Algo für MAX-k-SAT Algo 2: Belege alle Variablen mit Wkeit ½ mit 0 bzw. 1. Satz: Die erwartete Anzahl erfüllter Klauseln bei Algo 2 ist m(1 1/2 k ). 711

98 Satz: Die erwartete Anzahl erfüllter Klauseln bei Algo 2 ist m(1 1/2 k ). Beweis: X i : Indikatorvariable, die angibt, ob die i-te Klausel erfüllt ist. E[X i ]=1 1/2 k. X: Zufallsvariable für die Anzahl erfüllter Klauseln. X=X 1 + +X m, also E[X] = m(1 1/2 k ). 712

99 Welcher Algo ist besser? Algo 1: Erw. Anzahl erfüllter Klauseln ist opt (1 (1 1/k) k ). Algo 2: Erw. Anzahl erfüllter Klauseln ist m (1 1/2 k ). k (1 1/k) k 1 0,75 0,704 0, /2 k 0,5 0,75 0,875 0,

100 Kombination beider Algos Algo 3: Starte nacheinander Algo 1 und Algo 2 und gib das bessere Ergebnis aus. Anmerkung: Algo 3 ist auch für MAXSAT anwendbar, d.h., auch wenn die Länge der Klauseln nicht vorgegeben ist. 714

101 Analyse von Algo 3 Satz: Bei Algo 3 ist die erwartete Anzahl erfüllter Klauseln mindestens (3/4) opt. Beweis: n i : Zufallsvariable für die Anzahl erfüllter Klauseln in der Lösung von Algo i. noch zu zeigen 715

102 Abschätzung von n 1 und n 2 l(c): Länge der Klausel C Dann und 716

103 Zwischenrechnung k=1 oder k=2: linke Seite 3/2. k 3: linke Seite mindestens 7/8+(1 1/e) 3/2. 717

104 Rechnung Es folgt 718

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

1 Der Simplex Algorithmus I

1 Der Simplex Algorithmus I 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier

Mehr

Optimale Steuerung 1 Prozessoptimierung 1

Optimale Steuerung 1 Prozessoptimierung 1 Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

1 Lineare Optimierung, Simplex-Verfahren

1 Lineare Optimierung, Simplex-Verfahren 1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und

Mehr

Lineare Programmierung Teil I

Lineare Programmierung Teil I Seminar über Algorithmen Prof. Dr. Helmut Alt Lineare Programmierung Teil I Lena Schlipf, Benjamin Jankovic Lena Schlipf, Benjamin Jankovic Seminar über Algorithmen SS05 1 Struktur des Vortrags 1. Was

Mehr

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max

Mehr

Einführung in die Lineare Programmierung

Einführung in die Lineare Programmierung Einführung in die Lineare Programmierung Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 RWTH Aachen 28. Mai 2008 Elementares Beispiel Die kanonische Form Die algebraische Gleichungsform Gegeben seien

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

3. Grundlagen der Linearen Programmierung

3. Grundlagen der Linearen Programmierung 3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations

Mehr

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach

Mehr

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme

Mehr

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung

Mehr

Affine Geometrie (Einfachere, konstruktive Version)

Affine Geometrie (Einfachere, konstruktive Version) Affine Geometrie (Einfachere, konstruktive Version) Def. Affiner Raum der Dimension n über Körper K ist nach Definition K n. Bemerkung. Man könnte Theorie von affinen Raumen auch axiomatisch aufbauen mit

Mehr

4.3.3 Simplexiteration

4.3.3 Simplexiteration 7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige

Mehr

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 4 Simplex-Verfahren Peter Becker (H-BRS) Operations Research I Sommersemester 24 86 / 298 Inhalt Inhalt 4 Simplex-Verfahren Dualer Simplexalgorithmus Vermeidung von Zyklen Peter Becker (H-BRS)

Mehr

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung Operations Research Rainer Schrader Die Simplexmethode Zentrum für Angewandte Informatik Köln 18 Juni 00 1 / 1 / 1 Gliederung LP-Dualität ein lineares Produktionsmodell der Simplexalgorithmus Phase I Endlichkeit

Mehr

Lösung allgemeiner linearer Programme

Lösung allgemeiner linearer Programme Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt

Mehr

2. Optimierungsprobleme 6

2. Optimierungsprobleme 6 6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare

Mehr

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze

Mehr

Lineare Programmierung (2)

Lineare Programmierung (2) Inhalt Rückblick Motivation - linearen Programmierung Flussprobleme Multiple Warenflüsse Fortsetzung Simplex Algorithmus Initialisierung Fundamentalsatz der linearen Programmierung schwache Dualität Dualität

Mehr

Ausgewählte Lösungen zu den Übungsblättern 4-5

Ausgewählte Lösungen zu den Übungsblättern 4-5 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Lineare Programmierung

Lineare Programmierung Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206

Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Kapitel 1 Unimodularität Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Inhalt 1 Unimodularität Total unimodulare Matrizen Inzidenzmatrix Optimierungsprobleme auf Graphen Peter

Mehr

Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7

Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7 Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7 Timo Stöcker Erstsemestereinführung Informatik TU Dortmund 22. März 2011 Heute Themen Lineare Gleichungssysteme Matrizen Timo Stöcker https://fsinfo.cs.tu-dortmund.de/studis/ese/vorkurse/mathe

Mehr

Lösungen Serie 6 (Vektorräume, Skalarprodukt)

Lösungen Serie 6 (Vektorräume, Skalarprodukt) Name: Seite: 1 Fachhochschule Nordwestschweiz (FHNW) Hochschule für Technik Lösungen Serie 6 (Vektorräume, Skalarprodukt) Dozent: R. Burkhardt Büro: 4.613 Klasse: 1. Studienjahr Semester: 1 Datum: HS 28/9

Mehr

OPERATIONS-RESEARCH (OR)

OPERATIONS-RESEARCH (OR) OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Wintersemester 2014/15 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Lineare Programmierung

Lineare Programmierung asis Definition 3.38 Gegeben sei ein LP in der Normalform mit m als Rang der Matrix 2 R m n. x 2 R n mit x = b heißt asislösung gdw. n m Komponenten x i gleich Null und die zu den restlichen Variablen

Mehr

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur

Mehr

Kapitel 16. Invertierbare Matrizen

Kapitel 16. Invertierbare Matrizen Kapitel 16. Invertierbare Matrizen Die drei Schritte des Gauß-Algorithmus Bringe erweiterte Matrix [A b] des Gleichungssystems A x auf Zeilenstufenform [A b ]. Das System A x = b ist genau dann lösbar,

Mehr

7.1 Matrizen und Vektore

7.1 Matrizen und Vektore 7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit

Mehr

6 Lineare Gleichungssysteme

6 Lineare Gleichungssysteme 6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α

Mehr

Mathematik IT 2 (Lineare Algebra)

Mathematik IT 2 (Lineare Algebra) Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof Dr L Cromme Mathematik IT (Lineare Algebra für die Studiengänge Informatik, IMT und ebusiness im Sommersemester 3 Lineare Gleichungssysteme

Mehr

Vektorräume. Kapitel Definition und Beispiele

Vektorräume. Kapitel Definition und Beispiele Kapitel 3 Vektorräume 3.1 Definition und Beispiele Sei (V,,0) eine abelsche Gruppe, und sei (K, +,, 0, 1) ein Körper. Beachten Sie, dass V und K zunächst nichts miteinander zu tun haben, deshalb sollte

Mehr

3 Lineare Differentialgleichungen

3 Lineare Differentialgleichungen 3 Lineare Differentialgleichungen In diesem Kapitel behandeln wir die allgemeine Theorie linearer Differentialgleichungen Sie werden zahlreiche Parallelen zur Theorie linearer Gleichungssysteme feststellen,

Mehr

1 Lineare Gleichungssysteme und Matrizen

1 Lineare Gleichungssysteme und Matrizen 1 Lineare Gleichungssysteme und Matrizen Das Studium linearer Gleichungssysteme und ihrer Lösungen ist eines der wichtigsten Themen der linearen Algebra. Wir werden zunächst einige grundlegende Begriffe

Mehr

β 1 x :=., und b :=. K n β m

β 1 x :=., und b :=. K n β m 44 Lineare Gleichungssysteme, Notations Betrachte das lineare Gleichungssystem ( ) Sei A = (α ij ) i=,,m j=,n α x + α x + + α n x n = β α x + α x + + α n x n = β α m x + α m x + + α mn x n = β m die Koeffizientenmatrix

Mehr

Schranken für zulässige Lösungen

Schranken für zulässige Lösungen Schranken für zulässige Lösungen Satz 5.9 Gegeben seien primales und duales LP gemäß der asymmetrischen Form der Dualität. Wenn x eine zulässige Lösung des primalen Programms und u eine zulässige Lösung

Mehr

2 Die Körper-Axiome. I. Axiome der Addition (A.1) Assoziativgesetz. Für alle x, y, z R gilt (x + y)+z = x +(y + z).

2 Die Körper-Axiome. I. Axiome der Addition (A.1) Assoziativgesetz. Für alle x, y, z R gilt (x + y)+z = x +(y + z). 17 Wir setzen in diesem Buch die reellen Zahlen als gegeben voraus. Um auf sicherem Boden zu stehen, werden wir in diesem und den folgenden Paragraphen einige Axiome formulieren, aus denen sich alle Eigenschaften

Mehr

Lineare Optimierungsmodelle

Lineare Optimierungsmodelle Lineare Optimierungsmodelle Simplex-Methode Vortragender: Michael Schneider Agenda Motivation Operations Research Aufbau linearer Optimierungsmodelle Simplex-Methode Ausblick 2 Problemstellung Futtermischung

Mehr

Homogene und inhomogene Koordinaten und das Hyperboloid

Homogene und inhomogene Koordinaten und das Hyperboloid Seminararbeit zum Seminar aus Reiner Mathematik Homogene und inhomogene Koordinaten und das Hyperboloid Gernot Holler 1010674 WS 2012/13 28.November 2012 1 Inhaltsverzeichnis 1 Einleitung 3 2 Homogene

Mehr

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de

Mehr

Optimierung I. Dr. Ulf Lorenz F2.413

Optimierung I. Dr. Ulf Lorenz F2.413 Optimierung I Dr. Ulf Lorenz F2.413 flulo@upb.de Organisation Dozent: Dr. Ulf Lorenz F2.413 Fürstenallee 11 email: flulo@upb.de WWW: http://www.upb.de/cs/flulo (hier auch aktuelle Infos + Ü-Zettel) Vorlesungen:

Mehr

Der Kern einer Matrix

Der Kern einer Matrix Die elementaren Zeilenoperationen p. 1 Der Kern einer Matrix Multipliziert man eine Matrix mit den Spaltenvektoren s 1,..., s m von rechts mit einem Spaltenvektor v := (λ 1,..., λ m ) T, dann ist das Ergebnis

Mehr

4. Dualität Dualität 4.1 Dualität von LPs und der Dualitätssatz. Die duale Form eines LP in allgemeiner Form. Herleitung der dualen Form

4. Dualität Dualität 4.1 Dualität von LPs und der Dualitätssatz. Die duale Form eines LP in allgemeiner Form. Herleitung der dualen Form 2... 22 4.2 Die Bedingungen vom komplementären Schlupf... 23 4.3 Das Kürzeste-Wege-Problem und zugehörige duale Problem... 24 4.4 Das Farkas Lemma... 25 4.5 Duale Information im Tableau... 26 4.6 Der duale

Mehr

Lineare Algebra I (WS 13/14)

Lineare Algebra I (WS 13/14) Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 29.11.2013 Alexander Lytchak 1 / 13 Wiederholung Der Rang einer linearen Abbildung ist gleich dem Spaltenrang der darstellenden

Mehr

Zugeordneter bipartiter Graph

Zugeordneter bipartiter Graph Zugeordneter bipartiter Graph Für ein Transportproblem sei A = {A 1,...,A m } die Menge der Fabriken und B = {B 1,...,B n } sei die Menge der Warenhäuser. Wir ordnen nun einem Transportproblem einen bipartiten

Mehr

17. Das Gauß-Verfahren

17. Das Gauß-Verfahren 7 Das Gauß-Verfahren 95 7 Das Gauß-Verfahren Nachdem wir jetzt viele Probleme der linearen Algebra (z B Basen von Vektorräumen zu konstruieren, Morphismen durch lineare Abbildungen darzustellen oder den

Mehr

Lineares Programmieren Algorithmentechnik WS 09/10 Dorothea Wagner 7. Januar 2010

Lineares Programmieren Algorithmentechnik WS 09/10 Dorothea Wagner 7. Januar 2010 Lineares Programmieren Algorithmentechnik WS 09/10 Dorothea Wagner 7. Januar 2010 FAKULTÄT FÜR I NFORMATIK, I NSTITUT FÜR T HEORETISCHE I NFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

3. Schnittebenenverfahren

3. Schnittebenenverfahren 3. Schnittebenenverfahren Themen 3. Schnittebenenverfahren Ganzzahlige lineare Programmierung Schnittebenenverfahren Konstruktion von Schnittebenen Auswahl von Schnittrestriktionen Operations Research

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof. Dr. H. Brenner Osnabrück WS 2015/2016 Lineare Algebra und analytische Geometrie I Vorlesung 5 Verwandle große Schwierigkeiten in kleine und kleine in gar keine Chinesische Weisheit Das Lösen von

Mehr

10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G

10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G 48 0 Operations Research In der Standardform eines Maximierungsproblem: Max ( w) mit ( w) + u. d. N. z + x l + n ( a gj + j= g G e E n d j x j = z 0 j= n a l j x j = b l für alle l L j= x g n + a gj x

Mehr

Optimierungsverfahren in der Transportlogistik

Optimierungsverfahren in der Transportlogistik Optimierungsverfahren in der Transportlogistik Jakob Puchinger 1 1 Dynamic Transportation Systems, arsenal research Jakob Puchinger (arsenal research) Optimierungsverfahren in der Transportlogistik 1 /

Mehr

4. Vektorräume und Gleichungssysteme

4. Vektorräume und Gleichungssysteme technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 41 und 42 4 Vektorräume

Mehr

Brückenkurs Elementarmathematik

Brückenkurs Elementarmathematik Brückenkurs Elementarmathematik IV. Ungleichungen November 13, 2013 Inhalt 1 Ungleichungen 2 Umformungen von Ungleichungen 2.1 Äquivalenzumformungen 2.2 Addition und Multiplikation von Ungleichungen 3

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

2.3 Basis und Dimension

2.3 Basis und Dimension Lineare Algebra I WS 205/6 c Rudolf Scharlau 65 2.3 Basis und Dimension In diesem zentralen Abschnitt werden einige für die gesamte Lineare Algebra fundamentale Grundbegriffe eingeführt: Lineare Abhängigkeit

Mehr

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Lineare Gleichungssysteme (Teschl/Teschl 11.1) Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...

Mehr

4 Affine Koordinatensysteme

4 Affine Koordinatensysteme 4 Affine Koordinatensysteme Sei X φ ein affiner Raum und seien p,, p r X Definition: Nach ( c ist der Durchschnitt aller affinen Unterräume Z X, welche die Menge {p,,p r } umfassen, selbst ein affiner

Mehr

Elemente der Algebra

Elemente der Algebra Prof. Dr. H. Brenner Osnabrück SS 2015 Elemente der Algebra Vorlesung 1 Der Gruppenbegriff Definition 1.1. Eine Verknüpfung auf einer Menge M ist eine Abbildung : M M M, (x,y) (x,y) = x y. Statt (x,y)

Mehr

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit) 3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände

Mehr

Kapitel 2: Mathematische Grundlagen

Kapitel 2: Mathematische Grundlagen [ Computeranimation ] Kapitel 2: Mathematische Grundlagen Prof. Dr. Stefan M. Grünvogel stefan.gruenvogel@fh-koeln.de Institut für Medien- und Phototechnik Fachhochschule Köln 2. Mathematische Grundlagen

Mehr

Lineares Programmieren

Lineares Programmieren Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 03.05.2011 Nachtrag Art Gallery Problem Lässt sich der Triangulierungs-Algorithmus

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b

Mehr

Übungsblatt 6 Lösungsvorschläge

Übungsblatt 6 Lösungsvorschläge Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 6 Lösungsvorschläge Vorlesung Algorithmentechnik im WS 09/10 Problem 1: Größter Kreis in konvexem Polygon [vgl. Kapitel 6

Mehr

6 Gleichungen und Gleichungssysteme

6 Gleichungen und Gleichungssysteme 03.05.0 6 Gleichungen und Gleichungssysteme Äquivalente Gleichungsumformungen ( ohne Änderung der Lösungsmenge ).) a = b a c = b c Addition eines beliebigen Summanden c.) a = b a - c = b - c Subtraktion

Mehr

0, v 6 = , v 4 = 1

0, v 6 = , v 4 = 1 Aufgabe 6. Linearkombinationen von Vektoren Gegeben sei folgende Menge M von 6 Vektoren v, v,..., v 6 R 4 : M = v =, v =, v 3 =, v 4 =, v 5 =, v 6 =. Zeigen Sie, dass sich jeder Vektor v i M, i =,,...,

Mehr

Zahlen und metrische Räume

Zahlen und metrische Räume Zahlen und metrische Räume Natürliche Zahlen : Die natürlichen Zahlen sind die grundlegendste Zahlenmenge, da man diese Menge für das einfache Zählen verwendet. N = {1, 2, 3, 4,...} bzw. N 0 = {0, 1, 2,

Mehr

( ) Lineare Gleichungssysteme

( ) Lineare Gleichungssysteme 102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv

Mehr

Satz 7. A sei eine Teilmenge des nichttrivialen Vektorraums (V,+, ). Dann sind die folgende Aussagen äquivalent.

Satz 7. A sei eine Teilmenge des nichttrivialen Vektorraums (V,+, ). Dann sind die folgende Aussagen äquivalent. Definition der Basis Def. Es sei (V,+, ) ein nichttrivialer Vektorraum. Die Menge A V heißt eine Basis-Menge, falls sie (a) linear unabhängig ist und (b) span(a) = V. Satz 7. A sei eine Teilmenge des nichttrivialen

Mehr

3. Übungsblatt zur Lineare Algebra I für Physiker

3. Übungsblatt zur Lineare Algebra I für Physiker Fachbereich Mathematik Prof. Dr. Mirjam Dür Dipl. Math. Stefan Bundfuss. Übungsblatt zur Lineare Algebra I für Physiker WS 5/6 6. Dezember 5 Gruppenübung Aufgabe G (Basis und Erzeugendensystem) Betrachte

Mehr

5 Die Allgemeine Lineare Gruppe

5 Die Allgemeine Lineare Gruppe 5 Die Allgemeine Lineare Gruppe Gegeben sei eine nicht leere Menge G und eine Abbildung (Verknüpfung) : G G G, (a, b) a b( a mal b ) Das Bild a b von (a, b) heißt Produkt von a und b. Andere gebräuchliche

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Mathematik I für Biologen, Geowissenschaftler und Geoökologen 28. November 2011 Definition Beispiel: Wassermengen und Konzentrationen in einem Fluss Beispiel Zeilenstufenform Beispiel (Fortsetzung) Anhang

Mehr

Mathematik für Naturwissenschaftler II SS 2010

Mathematik für Naturwissenschaftler II SS 2010 Mathematik für Naturwissenschaftler II SS 2010 Lektion 7 11. Mai 2010 Kapitel 8. Vektoren Definition 76. Betrachten wir eine beliebige endliche Anzahl von Vektoren v 1, v 2,..., v m des R n, so können

Mehr

Satz 7. A sei eine nichtleere Teilmenge des nichttrivialen Vektorraums (V, +, ). Dann sind die folgende Aussagen äquivalent.

Satz 7. A sei eine nichtleere Teilmenge des nichttrivialen Vektorraums (V, +, ). Dann sind die folgende Aussagen äquivalent. Definition der Basis Def. Es sei (V,+, ) ein nichttrivialer Vektorraum. Die Menge A V heißt eine Basis-Menge, falls sie (a) linear unabhängig ist und (b) span(a) = V. Satz 7. A sei eine nichtleere Teilmenge

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D. Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Eine Familie von Gleichungen der Form a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2............ a m1 x 1 + a m2 x 2 +... + a mn x n = b m

Mehr

Vektorräume und Lineare Abbildungen

Vektorräume und Lineare Abbildungen Vektorräume und Lineare Abbildungen Patricia Doll, Selmar Binder, Lukas Bischoff, Claude Denier ETHZ D-MATL SS 07 11.04.2007 1 Vektorräume 1.1 Definition des Vektorraumes (VR) 1.1.1 Grundoperationen Um

Mehr

5.7 Lineare Abhängigkeit, Basis und Dimension

5.7 Lineare Abhängigkeit, Basis und Dimension 8 Kapitel 5. Lineare Algebra 5.7 Lineare Abhängigkeit, Basis und Dimension Seien v,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von v,...,v n, nämlich { n

Mehr

Lineare Differenzengleichungen und Polynome. Franz Pauer

Lineare Differenzengleichungen und Polynome. Franz Pauer Lineare Differenzengleichungen und Polynome Franz Pauer Institut für Mathematik, Universität Innsbruck, Technikerstr. 13/7, A-600 Innsbruck, Österreich. Franz.Pauer@uibk.ac.at Vortrag beim ÖMG-LehrerInnenfortbildungstag

Mehr

Im Falle einer zweimal differenzierbaren Funktion lässt sich das Krümmungsverhalten anhand der zweiten Ableitung feststellen.

Im Falle einer zweimal differenzierbaren Funktion lässt sich das Krümmungsverhalten anhand der zweiten Ableitung feststellen. Konvex, Konkav, Wendepunkt: Sei f : D R eine Funktion und sei I D ein Intervall. Gilt für alle x 1,x 2 I f ( x1 +x ) 2 2 f(x 1)+f(x 2 ), 2 dann heißt f konvex (linksgekrümmt) in I. Gilt für alle x 1,x

Mehr

1 Transponieren, Diagonal- und Dreiecksmatrizen

1 Transponieren, Diagonal- und Dreiecksmatrizen Technische Universität München Thomas Reifenberger Ferienkurs Lineare Algebra für Physiker Vorlesung Mittwoch WS 2008/09 1 Transponieren, Diagonal- und Dreiecksmatrizen Definition 11 Transponierte Matrix

Mehr

Konvexe Mengen. Def. Eine Teilmenge A R n heißt konvex, wenn sie mit je zwei Punkten x,y auch stets deren Verbindungsstrecke

Konvexe Mengen. Def. Eine Teilmenge A R n heißt konvex, wenn sie mit je zwei Punkten x,y auch stets deren Verbindungsstrecke Konvexe Mengen Def. Eine Teilmenge A R n heißt konvex, wenn sie mit je zwei Punkten x,y auch stets deren Verbindungsstrecke xy = {x + t xy 0 t 1} = {(1 t)x + ty 0 t 1} enthält. konvex nicht konvex Lemma

Mehr

2.2 Lineare Gleichungssysteme (LGS)

2.2 Lineare Gleichungssysteme (LGS) 2.2 Lineare Gleichungssysteme (LGS) Definition 2.2.. Ein LGS über einem Körper K von m Gleichungen in n Unbekannten x,..., x n ist ein Gleichungssystem der Form a x + a 2 x 2 +... + a n x n = b a 2 x +

Mehr

Kapitel 13. Lineare Gleichungssysteme und Basen

Kapitel 13. Lineare Gleichungssysteme und Basen Kapitel 13. Lineare Gleichungssysteme und Basen Matrixform des Rangsatzes Satz. Sei A eine m n-matrix mit den Spalten v 1, v 2,..., v n. A habe den Rang r. Dann ist die Lösungsmenge L := x 1 x 2. x n x

Mehr

Gleichungen und Ungleichungen

Gleichungen und Ungleichungen Gleichung Eine Gleichung erhalten wir durch Gleichsetzen zweier Terme. Kapitel 3 Gleichungen und Ungleichungen linke Seite = rechte Seite Grundmenge: Menge aller Zahlen, die wir als Lösung der Gleichung

Mehr

1.6 Implizite Funktionen

1.6 Implizite Funktionen 1 1.6 Implizite Funktionen Wir werden uns jetzt mit nichtlinearen Gleichungen beschäftigen, f(x) = 0, wobei f = (f 1,..., f m ) stetig differenzierbar auf einem Gebiet G R n und m < n ist. Dann hat man

Mehr

Das inhomogene System. A x = b

Das inhomogene System. A x = b Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbestimmten hat immer mindestens die Lösung 0. Ist r der Rang von A, so hat das System n r Freiheitsgrade. Insbesondere gilt: Ist

Mehr