Lineare Ungleichungen und die Struktur von Polyedern

Größe: px
Ab Seite anzeigen:

Download "Lineare Ungleichungen und die Struktur von Polyedern"

Transkript

1 KAPITEL 2 Lineare Ungleichungen und die Struktur von Polyedern Wir betrachten in diesem Kapitel endliche lineare Ungleichungssysteme und deren Lösungsmengen (d.h. Polyeder). Wir erinnern daran, dass lineare Gleichungssysteme als Spezialfälle linearer Ungleichungssysteme aufgefasst werden können. MAN BEACHTE: Ein lineares Ungleichungssystem Ax b lässt allerdings sich typischerweise nicht mit dem Gauss schen Algorithmus lösen! 1. Zeilen- und Spaltenoperationen Sei A R m n eine Matrix. Wendet man die fundamentalen Operationen der linearen Algebra auf die Zeilenvektoren von A an, so spricht man von elementaren Zeilenoperation. Sie sind: Multiplikation eines Zeilenvektors a T i mit einem Skalar y i 0; Addition eines Zeilenvektors a T i zu einem Zeilenvektor a T i. Bekanntlich lässt sich eine elementare Zeilenoperation algebraisch als Produkt P A mit einer (von links multiplizierten) invertierbaren Matrix P beschreiben. Das ProduktAP T (mit der von rechts multiplizierten transponierten MatrixP T ) beschreibt die analoge elementare Spaltenoperation. Unter einem (r, k)-pivot verstehen wir die Folge von elementaren Zeilenoperationen: (1) Dividiere eine Zeiler durch a rk ; (2) Subtrahiere dasa ik -fache der neuen Zeilervon den übrigen Zeileni r. NOTA BENE: Genau im Fall a rk 0 ist ein (r,k)-pivot durchführbar. 2. Elimination nach Fourier-Motzkin Die Methode von Fourier-Motzkin zur Lösung linearer Ungleichungssysteme beruht auf folgender Beobachtung. Zwei Ungleichungen vom Typ (4) sind äquivalent zu (5) b 2 + (+1)x 1 + a 12 x a 1n x n b 1 ( 1)x 1 + a 22 x a 2n x n b 2 a 2j x j x 1 b 1 23 a 1j x j.

2 24 2. LINEARE UNGLEICHUNGEN UND DIE STRUKTUR VON POLYEDERN Ausserdem ist die Ungleichung (6) b 2 + a 2j x j b 1 a 1j x j. äquivalent zur Summe der Ungleichungen in (4): (7) (a 1j +a 2j )x j b 1 +b 2. LEMMA 2.1. Die Lösungen von (4) erhält man folgendermassen: Man bestimme eine Lösung (x 2,...,x n ) für (7) und ergänze diese mit einem x 1, das (5) erfüllt. Insbesondere ist (4) genau dann lösbar, wenn (7) lösbar ist. Die Idee ist nun, nach der Variablen x 1 der Reihe nach die übrigen Variablen x 2,...,x n zu eliminieren. Am Ende erweist sich dann das System entweder trivialerweise als unlösbar, weil man einen Widerspruch 0 b < 0 abgeleitet hat, oder man kann jede Lösung des Endsystems auf eine Lösung von (4) (wie in Lemma 2.1 beschrieben) der Reihe nach zurückrechnen Das allgemeine Verfahren. Wir betrachten das lineare Ungleichungssystem (8) a ij x i b i (i I) j=1 mit endlicher Indexmenge I. Um z.b. x 1 zu eliminieren, teilen wir I in die Teilmengen I +,I und I 0 danach auf, ob der Koeffizient a i1 von x 1 positiv, negativ oder 0 ist. Wir dividieren die Ungleichungen ini + I jeweils durch a i1 > 0. Damit erhalten wir das äquivalente System (+1)x 1 + a sj x j b s (s I + ) (9) und bemerken (10) max t I ( b t + ( 1)x 1 + a tjx j b t (t I ) a ij x j b i (i I 0 ) a tj x ) j x 1 min s I + ( b s a sj x ) j

3 2. ELIMINATION NACH FOURIER-MOTZKIN 25 Nun ersetzen wir die Ungleichungen in I + I durch alle Summen von Paaren und erhalten das System (a sj +a tj )x j b s +b t (s I +,t I ) (11) a ij x j b i (i I 0 ) SATZ 2.1. (x 1,...,x n ) ist genau dann eine Lösung von (8), wenn gilt (i) (x 2,...,x n ) löst das lineare System (11); (ii) x 1 genügt der Bedingung (10). BEMERKUNG. Die Bestimmung von x 1 aus einer Lösung (x 2,...,x n ) von (11) gemäss (10) heisst Rücksubstitution. Zur Lösung des Ungleichungssystems (8) kann man nun so vorgehen: (1) Man eliminiert der Reihe nach die Variablen x 1,...,x n ; (2) Das Endsystem erkennt man entweder trivialerweise als unzulässig oder zulässig. Im zulässigen Fall gelangt man vom Endystem der Reihe nach durch Rücksubstitutionen zu einer Lösung von (8). Mit der Methode von Fourier-Motzkin kann man im Prinzip jedes endliche lineare Ungleichungssystem in endlich vielen Schritten lösen. Allerdings ist das Verfahren in der Praxis oft sehr ineffizient. Denn: In einem Eliminationsschritt kann (beim Übergang von (9) zu (11)) die Anzahl der Ungleichungen sehr stark wachsen! BEMERKUNG. Wie der Gauss sche Algorithmus beruht auch das FM-Verfahren auf elementaren Zeilenoperationen: Addition von 2 Ungleichungen und Multiplikation einer Ungleichung mit einem Skalar. Allerdings werden bei der skalaren Multiplikation (im Gegensatz zum Gauss-Verfahren) nur positive Skalare zugelassen Das Erfüllbarkeitsproblem. Wir rechnen über dem Zahlbereich {0, 1} mit den Operationen Eine Boolesche Funktion ist eine Funktion ϕ : {0,1} n {0,1}. Es ist bekannt, dass eine Boolesche Funktionϕ(x 1,...,x n ) in einer sog. konjuktiven Normalform (KNF) dargestellt werden kann: m ϕ(x 1,...,x n ) = C i, i=1

4 26 2. LINEARE UNGLEICHUNGEN UND DIE STRUKTUR VON POLYEDERN wobei die Klauseln C i die Form haben C i = a i1 y 1... a in y n mita ij {0,1} und y i {x i,x i }. BEISPIEL 2.1. ϕ(x 1,x 2,x 3 ) = (x 1 x 2 ) (x 1 x 2 x 3 ) x 3. ERFÜLLBARKEITSPROBLEM: Man entscheide, ob die per KNF gegebene Boolesche Funktion ϕ den Wert 1 annehmen kann. Das heisst: Kann eine Belegung der Variablen gefunden werden derart, dass jede Klausel C i den Wert 1 annimmt? Das Problem kann man mit Ungleichungssystemen modellieren. In der Klausel C i = a i1 y a in y n ersetzen wirx j durch 1 x j und haben dann das Problem: Gibt es eine Lösung mit ganzahligen x j {0,1} derart, dass a i1 y a in y n 1? BEISPIEL 2.2. SeiC = x 2 x 5 x 7. Dann istc erfüllbar, wenn es eine ganzzahlige (0,1)-Lösung der Ungleichung gibt. x 2 +(1 x 5 )+x 7 1 x 2 +x 5 x 7 0 Das Erfüllbarkeitsproblem fragt also nach einer ganzahligen (0,1)-Lösung des aus allen Klauseln gebildeten Ungleichungssystems. 2-SAT: Das Erfüllbarkeitsproblem für Boolesche Funktionen in KNF, bei denen jede Klausel höchstens 2 Variablen enthält. 2-SAT kann mit dem FM-Verfahren effizient(!) gelöst werden. Um das einzusehen, betrachten wir das folgende typische Beispiel: BEISPIEL 2.3 (Resolvente). C 1 = x k x s C 2 = x k x l C = x s x l x k x s 1 x k x l 0 x s x l 1 C ist die sog. Resolvente der Klauseln C 1 und C 2. Offensichtlich sind C 1 und C 2 genau dann gleichzeitig erfüllt, wenn ihre Resolvente C erfüllt ist. Im Ungleichungssystem entspricht C der Summe der aus C 1 und C 2 gewonnenen Ungleichungen. MAN ERKENNT: Die Resolventenbildung resultiert in einer Klausel mit höchstens 2 Variablen. Insgesamt sind aber sicher nicht mehr als 2n 2 solcher Klauseln überhaupt möglich. PROPOSITION 2.1. Wendet man das FM-Verfahren auf ein 2-SAT-Problem mit n Variablen an, so werden insgesamt höchstens 2n 2 verschiedene Ungleichungen erzeugt.

5 2. ELIMINATION NACH FOURIER-MOTZKIN 27 BEMERKUNG. Für das allgemeine Erfüllbarkeitsproblem ist beim gegenwärtigen Stand der Wissenschaft kein effizienter Lösungsalgorithmus bekannt Das Lemma von Farkas. Nehmen wir an, wir hätten das FM-Verfahren auf das Ungleichungssystem Ax b angewandt und alle Variablen eliminiert. Dann haben wir insgesamt auf der linken Seite den Nullvektor als nichtnegative Linearkombination der Zeilen von A erzeugt. Ist y 0 der zugehörige Koeffizientenvektor, dann haben wir die Situation y T Ax = 0 T x y T b. Genau im Fall y T b < 0 liegt eine Widersprüchlichkeit vor. Das heisst: Ax b erweist sich als unlösbar. Daraus folgt die Aussage des Farkas-Lemmas: LEMMA 2.2 (Farkaslemma). Auf das lineare Ungleichungssystem Ax b trifft genau eine der Aussagen zu: (I) Ax b besitzt eine zulässige Lösung x; (II) Es gibt einen Koeffizientenvektor y mit den Eigenschaften y 0, y T A = 0 T und y T b < Gültige und implizierte Ungleichungen. Man sagt, eine (lineare) Ungleichung c T x z gilt für die Menge S (bzw. wird von der Menge S impliziert), wenn gilt c T s z für alle s S, d.h. wenn S ganz im Halbraum P(c, z) enthalten ist. BEISPIEL 2.4. Sei Ax b ein lineares Ungleichungssystem mit A R m n und y R m + ein beliebiger nichtnegativer Koeffizientenvektor. Wir setzen c T := y T A und wählen ein beliebiges z c T b. Dann ist c T x z gültig für P(A,b). (Beweis?) Ein für die allgemeine (auch nichtlineare!) Optimierungstheorie (enorm!) wichtige Charakterisierung implizierter Ungleichungen folgt aus dem Farkaslemma: SATZ 2.2. Sei S = P(A,b). Genau dann istc T x z vonax b impliziert, wenn ein y 0 existiert mit der Eigenschaft c T = y T A und y T b z.

6 28 2. LINEARE UNGLEICHUNGEN UND DIE STRUKTUR VON POLYEDERN Beweis. Eine Richtung der Behauptung folgt aus Beispiel 2.4. Zum Beweis der anderen Richtung nehmen wir an, c T x z sei impliziert, aber es gebe kein y der behaupteten Art. Dann wäre das folgende System unlösbar: A T y c A T y c Iy 0 b T y z. Es gibt also (nach Farkas) nichtnegative Vektoren u,v,w 0 und einen Skalar λ 0 derart, dass Mitx:= v u folgt daraus: u T A T v T A T w T +λb T = 0 T u T c v T c w T 0+λz < 0. Ax λb und c T x > λz und somit λ = 0. (Sonst würde Division durch λ > 0 ja zeigen, dass die Ungleichung c T x z gar nicht von Ax b impliziert ist!) Das bedeutet aber andererseits auch x 0. Sei nun x P(A,b). Dann gilt auch x + tx P(A,b) für jedes t 0. Das steht aber im Widerspruch der Gültigkeit von c T x z: lim t ct (x +tx) = c T x +(c T x) lim t = > z. t BEMERKUNG. In der Literatur wird auch die Aussage von Satz 2.2 als Farkaslemma bezeichnet. 3. Die Struktur von Polyedern 3.1. Endlich erzeugte Kegel und Polytope. Aus dem FM-Verfahrens leiten wir zunächst ab, dass Projektionen von Polyedern wieder Polyeder sind. Sei N = {1,...,n} die Menge der Indizes des betrachteten Koordinatenraums und S N eine feste Teilmenge. Zu einem gegebenen x R N bezeichnen wir mitx S die Einschränkung von x auf die Koordinaten ins. IstX R N eine beliebige Teilmenge, so nennen wir die Menge X S = {x S x X} R S die Projektion von X auf den Koordinatenraum R S. LEMMA 2.3 ( Projektionslemma ). Die Projektion P S eines beliebigen Polyeders P R N ist ein Polyeder.

7 3. DIE STRUKTUR VON POLYEDERN 29 Beweis. Sei P die Lösungsmenge des Ungleichungssystems Ax b. Wir versuchen, dieses mit dem FM-Verfahren zu lösen und eliminieren zuerst die Variablen x i mit Index i N \ S. Dann ist P S = {x S x P(A,b)} genau die Lösungsmenge des vom FM-Verfahren bis dahin berechneten Ungleichungssystemsà x b, d.h. P S = P(Ã, b). Wir beweisen nun die fundamentale Aussage, dass endlich erzeugte konvexe Kegel und konvexe Mengen immer Polyeder sind. SATZ 2.3. SeiV = {v 1,...,v k } R n eine endliche Menge. Dann gilt (a) Die Menge cone(v) aller konischen Linearkombinationen ist ein Polyeder. (b) Die Menge conv(v) aller Konvexkombinationen ist ein Polyeder. Beweis. Wir zeigen (a). (Die Behauptung (b) beweist man ganz analog.) Sei k P = cone(v) = { λ i v i λ 1,...,λ k 0}. i=1 Wir bezeichnen mit I die Einheitsmatrix und bilden die Matrix V = [v 1,...,v k ] mit den Spaltenvektoren v i. Nun betrachten wir die MengeP aller (n+k)-dimensionalen Vektoren (z,x) R n+k derart, dass (12) Iz Vx = 0 x 0 P ist Lösungsmenge eines linearen Systems und somit ein Polyder. P ist die Projektion von P auf diez-koordinaten und folglich auch ein Polyeder. NOTA BENE. Mit dem FM-Verfahren kann man eine Matrix B berechnen mit der Eigenschaft cone(v) = P(B,0), indem man einfach die x-variablen aus dem System (12) eliminiert. Ganz analog ergibt sich aus dem FM-Verfahren eine Matrix C und ein Vektor b mit der Eigenschaft conv(v) = P(C,b). BEMERKUNG. Offen ist die Suche nach einer algorithmisch effizienteren Methode als das FM-Verfahren zur Berechnung einer Darstellung cone(v) = P(B,0) bzw. conv(v) = P(C,b). Mit Hilfe des Projektionslemmas lässt sich ebenso zeigen:

8 30 2. LINEARE UNGLEICHUNGEN UND DIE STRUKTUR VON POLYEDERN PROPOSITION 2.2. Die Minkowskisumme S = P + Q zweier beliebiger Polyeder P,Q R n ist selber ein Polyeder in R n. Beweis. Übung Der Darstellungssatz von Weyl-Minkowski. Wir betrachten ein beliebiges Polyeder P, das sich als Lösungsmenge eines endlichen Systems von linearen Ungleichungen a T i x b i (mit Indexmenge I) schreiben lässt: Wir betrachten zuerst den Spezialfall P = {x R n a T i x b i,i I}. 0 P und folglich b i 0 für alle b i I. Dividieren wir nun im Fall b i > 0 die entsprechende Ungleichung durch b i, so erhalten wir ein P definierendes System von Ungleichungen a T i x b i mit b i {0, +1} es gibt also Matrizen A, B derart, dass P = {x R n [ A B] x wobei 1 = (1,1,...,1) T. Wir erinnern an die Polare: [ 1 0] }, S pol = {x R n s T x 1 für alle s S}. Ist S endlich, so stellen wir uns S T als die Matrix mit den Zeilenvektoren s T vor und erkennen dann die Polare als Polyeder S pol = P(S T,1). LEMMA 2.4. Sei P ein Polyeder und A und B Matrizen mit der Eigenschaft P = {x Ax 1,Bx 0}. Dann ist die Polare vonp die Minkowskisumme des von den Zeilenvektoren vona und dem Ursprung 0 bestimmten Polytops und des von den Zeilenvektoren von B erzeugten konvexen Kegels: P pol = conv(a T,0)+cone(B T ) Insbesondere ist P pol ein Polyeder (da die Minkowskisumme von Polyedern nach Proposition 2.2 immer ein Polyeder ergibt). Beweis. Ein Vektor c liegt in P pol genau dann, wenn die Ungleichung c T x 1 von dem linearen System [ [ A 1 x B] 0] impliziert wird. Das ist genau dann der Fall, wenn es Vektoren y,z 0 gibt mit der Eigenschaft c T = y T A+z T B und y T 1 1.

9 3. DIE STRUKTUR VON POLYEDERN 31 WegenA T y conv(a T,0) und B T z cone(b T ) folgt dann c P pol c conv(a T,0)+cone(B T ) Der Dekompositionssatz. SATZ 2.4 (Weyl-Minkowski). Genau dann ist eine nichtleere Menge P R n ein Polyeder, wenn es endliche Mengen V,W R n gibt mit der Eigenschaft (13) P = conv(v)+cone(w). Beweis. Da conv(v) und cone(w) Polyeder sind, ist deren Minkowskisumme ein Polyeder. Die Bedingung ist also hinreichend. Wir beweisen die Notwendigkeit und nehmen obda P an. Wir betrachten zuerst den Fall0 P. Dann kann P in der Form P = {x Ax 1,Bx 0} ausgedrückt werden. Nach Lemma 2.4 ist Q = P pol ein Polyeder und wir finden P = (P pol ) pol = Q pol. Wiederum aus Lemma 2.4 schliessen wir nun, dass P als Minkowskisumme einer endlich erzeugten konvexen Menge und eines endlich erzeugten konvexen Kegels ausgedrückt werden kann. Im Fall 0 / P wählen wir irgendein t P und betrachten die Translation (Minkowskisumme) P = P +{ t}. Wegen 0 P gibt es endliche Mengen V und W derart, dass P = conv(v)+cone(w). Nun verifiziert man leicht fürv = V +{t} und W = W : P = conv(v)+cone(w). Aus dem Dekompositionssatz folgt sofort eine wichtige Charakterisierung von Polytopen: KOROLLAR 2.1. Ein Polyeder P R n ist genau dann ein Polytop, wenn P beschränkt ist. Beweis. Wir nehmen P = conv(v) + cone(w) an. Ist nun P beschränkt, so kann W keinen Vektor w 0 enthalten. Daraus folgt die Darstellung P = conv(v)+{0} = conv(v), diep als Polytop erweist. Umgekehrt macht man sich leicht klar, dass ein Polytop nicht nur ein Polyeder ist sondern auch beschränkt sein muss (Beweis?).

10 32 2. LINEARE UNGLEICHUNGEN UND DIE STRUKTUR VON POLYEDERN 3.4. Dualität von Darstellungen. Der Satz von Weyl-Minkowski zeigt, dass ein Polyeder P zwei zueinander duale Sichtweisen erlaubt: IMPLIZIT: EXPLIZIT: P ist Lösungsmenge eines endlichen linearen Ungleichungssystems Ax b; P ist die Menge aller Vektoren (bzw. Punkte), die von den endlichen Mengen V und W gemäss (13) erzeugt werden. Die Situation verallgemeinert damit die bei linearen oder affinen Teilräumen A R n bekannte. Einerseits ist A Lösungsmenge eines linearen Gleichungssystems Ax = b. Andererseits gibt es eine endliche Menge S = {s 1,...,s k } derart, dass A die Menge aller affinen Linearkombinationen x = λ 1 s λ k s k mit k λ i = 1 ist. Die Umrechnung von einer Darstellung zur anderen ist im linearen/affinen Fall effizient möglich (z.b. mit dem Gauss-Verfahren). NOTA BENE. Im linearen (und affinen) Fall sind alle minimalen Erzeugendensysteme (Basen) gleichmächtig. Bei Ungleichungssystemen ist dies nicht notwendigerweise so! Im allgemeinen Fall ist die Umrechnung nicht so einfach möglich. Wie der Beweis des Dekompositionssatzes zeigt, ist im Prinzip eine Umrechnung mit Hilfe des Fourier-Motzin-Verfahrens erreichbar. Diese Methode ist aber nicht effizient. Ein effizienter Algorithmus für das Umrechnungsproblem ist nicht bekannt. Zur Illustration betrachten wir ein lineares Optimierungsproblem i=1 max c T x s.d Ax b mit dem Optimalwert < δ(p(a,b,c) < +. Haben wir die Darstellung so erhalten wir für die Stützfunktion P(A,b) = P = conv(v)+cone(w), δ(p(a,b),c) = δ(conv(v),c)+δ(cone(w),c) = δ(conv(v),c) FOLGERUNG: = δ(v,c) = δ(v,c) = max v V ct v. Im FallV ist jede Eckex von P in V enthalten. (Denn: Die lineare Funktion f(x) = c T x, welche die Seitenfläche F = {x } bestimmt, wird ja in einem Element von V optimiert.)

11 3. DIE STRUKTUR VON POLYEDERN Ecken von Polyedern. Wir betrachten ein Polyeder P = P(A,b) in der Darstellung von Weyl-Minkowski: P = conv(v)+cone(w). und nehmen an, dass V nichtleer ist. (Den Fall V = untersuchen wir im nächsten Abschnitt ) Wir wissen dann schon, dass die Ecken von P in der Menge V enthalten sind. Also genügt es, sich auf Polytope zurückzuziehen und dort die Frage nach den Ecken zu untersuchen. SATZ 2.5 (Ecken von Polyedern). Sei V eine minimale Menge mit der Eigenschaft P = P(A,b) = conv(v)+cone(w) Dann ist V genau die Menge der Ecken von P. Beweis. Wir dürfen obda P = conv(v) annehmen. Wir haben schon gesehen, dass im Fall V alle Ecken von P in V enthalten sind. Sei nun umgekehrt v V und V = V \{v }. Wir setzen P = conv(v ). Aus der Minimalität von V folgt nun P P und insbesondere v / P (Beweis?). Der Hauptsatz über abgeschlossene konvexe Mengen garantiert somit eine Hyperebene, die v von P trennt. D.h. es gibt einen Parametervektor c mit den Eigenschaften c T x > c T v für alle v V. v ist somit der einzige Punkt in P, der f(x) = c T x über P maximiert. Folglich istv eine Ecke von P. KOROLLAR 2.2. Jedes Polytop ist die konvexe Hülle seiner Ecken Spitze Kegel. Wir betrachten nun den Fall eines polyedrischen Kegels K = cone(w) = P(A,0), wobei A R m n eine geeignete Matrix ist. Wegen δ(k,c) {0,+ } ist klar, dass 0 K der einzige Kandidat für eine Ecke ist. Wir nennen K spitz, wenn 0 tatsächlich eine Ecke ist. SATZ 2.6. Der polyedrische Kegel K R n ist genau dann spitz, wenn K keinen nichttirivialen linearen Teilraum von R n enthält. Beweis. Ist K spitz, so gibt es ein c R n derart, dass gilt: c T x < 0 für alle x K \{0}. Dann kann K keinen nichttrivialen linearen Teilraum enthalten (da mit jedem Punkt x eines linearen Teilraums auch der Punkt ( x) zu dem Teilraum gehört).

12 34 2. LINEARE UNGLEICHUNGEN UND DIE STRUKTUR VON POLYEDERN Ist K nicht spitz, so kann A nicht vollen Rang rga = n besitzen. Sei nämlich c T = m i=1 a T i die Summe der Zeilenvektoren a T i von A. Dann ist c T x 0 eine für K gültige Ungleichung, die nur von x = 0 mit Gleichheit erfüllt wird, wenn A vollen Rang hat. Damit wäre aber 0 eine Ecke und folglich K spitz. Also gilt rg(a) n 1und folglich kera {0}. Wegen kera K enthält K somit einen nichttrivialen linearen Teilraum von R n Basislösungen. Wir betrachten ein System Ax b mit A R m n und b R m mit den einzelnen Ungleichungen a T i x a i1 x a in x n b i. Einemx P(A,b) ordnen wir nun das Teilsystem der Ungleichungen zu, das von x mit Gleichheit erfüllt wird: J(x) := {i {1,...,m} a T i x = b i }. A J(x) bezeichne die entsprechende (Zeilen-)Teilmatrix von A. Wir nennen x P(A, b) eine (zulässige) Basislösung, wenn gilt rg(a J(x) ) = n. LEMMA 2.5. Eine Basislösung x P(A, b) ist eine Ecke von P(A, b). Beweis. Sei c T = i J(x) at i und z = i J(x) b i. Dann ist c T x z sicherlich eine gültige Ungleichung für P(A, b) (warum?). Folglich ist F = {x P(A,b) c T x = z} = {x P(A,b) A J(x) x = b J(x) } eine Seitenfläche mit x F. Da die Matrix A J(x) vollen Rang n hat, kann F nur einen Punkt enthalten. BEMERKUNG. Tatsächlich bilden die Basislösungen genau die Ecken von P(A, b). Das sieht man später leicht aus den Optimalitätsbedingungen linearer Programme. Im Moment wollen wir diesen Sachverhalt aber nur für spezielle Polyeder untersuchen.

13 3. DIE STRUKTUR VON POLYEDERN Nichtnegative Lösungen linearer Gleichungen. Wir interessieren uns für nichtnegative Lösungen linearer Gleichungssysteme d.h. für Polyeder P der Form (14) P = {x R n Ax = b,x 0}, wobei A R m n und b R m. P ist also genau die Lösungsmenge von Ax b Ax b Ix 0. Sei x P. Dann besteht J(x) aus allen Indizes, die den Zeilen von A entsprechen (da diese ja immer mit Gleichheit zu erfüllen sind). Dazu kommen noch die entsprechenden Zeilen der (n n)-matrix ( I): Wir setzen weiterhin Also erhalten wir in diesem Kontext: N(x) := {j {1,...,n} x j = 0}. B(x) = {j {1,...,n} x j > 0}. LEMMA 2.6. x P ist genau dann eine Basislösung des Systems Ax = b,x 0, wenn die Teilmatrix A B (x) der Spaltenvektoren A j mit Index j B(x) linear unabhängig sind, d.h. wenn rg(a B(x) ) = B(x) = n N(x). Für die lineare Programmierung (extrem!) wichtig ist der Umstand, dass man ohne grosse Mühe eine gute Basislösung konstruieren kann, sofern man schon eine gute Lösung hat. SATZ 2.7. Sei x (0) P = {x R n Ax = b,x 0} gegeben. Dann kann man in höchstens n Iterationen eine Basislösung x P konstruieren. Beweis. Wir bezeichen mita 0 x = b 0 das lineare Gleichungssystem Ax = b und x j = 0 für alle j N(x (0) ). Istx (0) keine Basislösung, dann existiert ein d 0 derart, dass A 0 d = 0. Dann gilt sicherlich A(x (0) + λd) = b für jedes λ R. Wegen d 0 gibt es einen Index j 1 B(x (0) ) und ein λ 1 0 mit der Eigenschaft Daraus folgt N(x (1) N(x (0) +1. x (1) +λ 1 d P und x (1) j 1 = 0.

14 36 2. LINEARE UNGLEICHUNGEN UND DIE STRUKTUR VON POLYEDERN Nun gehen wir von x (1) in gleicher Weise aus und konstruieren der Reihe nach Vektoren x (2),x (3),... bis eine Basislösung gefunden ist. Wegen N(x (0) +k N(x (k) n werden wir nach weniger alsnschritten eine Basislösung gefunden haben. Den Algorithmus im Beweis von Satz 2.7 kann man so modifizieren, dass man eine Basislösung erhält, die bzgl. einer gegebenen Zielfunktionf(x) = c T x mindestens so gut ist wiex (0) sofernδ(p,c) endlich ist. Dazu versuchen wir, das modifizierte System c T d = 1 A 0 d = 0 zu lösen. Wenn eine Lösung d existiert, dann gilt für jedes λ R: c T (x (0) +λd) = c T x (0) +λ. Wegenδ(P,c) < gibt es somit ein λ 1 > 0 derart, dass x (1) = x (0) +λ 1 d P und J(x (1) J(x (0) +1. Ausserdem gilt c T x (1) = c T x (0) + λ 1 > c T x (0). Wie zuvor können wir nun ein x (2) versuchen zu konstruieren usw. Existiert das gewünschte d mitc T d = 1 nicht, so haben wir c T d = 0 für alle d kera 0. Wir können dann den Algorithmus genau wie im Beweis von Satz 2.7 ausführen und erhalten c T x (0) = c T x (1) = c T x (2) =... Der Zielfunktionswert verschlechtert sich also auf keinen Fall. KOROLLAR 2.3. Sei x (0) P beliebig und c R n so, dass δ(p,c) <. Dann existiert eine Basislösung x P mit der Eigenschaft c T x c T x (0). KOROLLAR 2.4. Die Ecken von P = {x R n Ax = b,x 0} sind genau die Basislösungen. Beweis. Wir wissen schon, dass Basislösungen Ecken sind. Sei umgekehrt v P eine Ecke. Dann existiert (per Definition!) ein c R n derart, dass v die einzige Optimallösung des Problems max c T x s.d. Ax = b,x 0 ist. Andererseits gibt es eine Basislösung x P, die mindestens so gut ist. Also muss x = v gelten. Insbesondere ist v Basislösung.

15 3. DIE STRUKTUR VON POLYEDERN Der Satz von Carathéodory. Als Anwendung der garantierten Existenz von Basislösungen leiten wir einen berühmten geometrischen Satz ab. SATZ 2.8 (Carathéodory). Sei X R d eine beliebige nichtleere Menge von Vektoren und z conv(x). Dann lässt sich z als Konvexkombination von höchstens d + 1 Vektoren aus X darstellen. Beweis. Seien x 1,...,x n X und y 1,...,y n so, dass x 1 y x n y n = z, y y n = 1 und y 1...,y n 0. Dann ist y = (y 1,...,y n ) nichtnegative Lösung des obigen linearen Gleichungssystems mit d + 1 Zeilen. Also existiert auch eine entsprechende Basislösung y. y hat höchstens d + 1 Komponenten y j 0 und liefert somit die gewünschte Konvexkombination für z. ÜBUNG 2.1. Zeigen Sie anhand eines Beispiels, dass eine Verbesserung der Behauptung des Satzes 2.8 von d+1 auf d im allgemeinen nicht möglich ist. KOROLLAR 2.5. Sei X R d eine beliebige nichtleere Menge von Vektoren und z cone(x). Dann lässt sich z als Kegelkombination von höchstens d Vektoren aus X darstellen. Beweis. Übung.

Einführung in die Mathematik des Operations Research. Ulrich Faigle. Skriptum zur Vorlesung Sommersemester 2011 Universität zu Köln

Einführung in die Mathematik des Operations Research. Ulrich Faigle. Skriptum zur Vorlesung Sommersemester 2011 Universität zu Köln Einführung in die Mathematik des Operations Research Ulrich Faigle Skriptum zur Vorlesung Sommersemester 2011 Universität zu Köln Universität zu Köln Mathematisches Institut Weyertal 80 faigle@zpr.uni-koeln.de

Mehr

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25. Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme

Mehr

Ganzzahlige lineare Programme

Ganzzahlige lineare Programme KAPITEL 5 Ganzzahlige lineare Programme Wir betrachten nun Optimierungsprobleme vom Typ (42) min c T x s.d. Ax = b, x 0, x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n, b R m gegeben seien.

Mehr

3 Systeme linearer Gleichungen

3 Systeme linearer Gleichungen 3 Systeme linearer Gleichungen Wir wenden uns nun dem Problem der Lösung linearer Gleichungssysteme zu. Beispiel 3.1: Wir betrachten etwa das folgende System linearer Gleichungen: y + 2z = 1 (1) x 2y +

Mehr

1 Der Simplex Algorithmus I

1 Der Simplex Algorithmus I 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier

Mehr

GEOMETRIE DER POLYEDER

GEOMETRIE DER POLYEDER GEOMETRIE DER POLYEDER Das Polyeder P sei gegeben durch P = x R n Ax b. Definition. (i) Die Hyperebene H = x R n c T x = d,c, heißt Stützhyperebene von P, falls die Ungleichungc T x d redundant ist bzgl.

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

Struktur von Polyedern

Struktur von Polyedern KAPITEL 3 Struktur von Polyedern 1. Der Darstellungssatz von Weyl-Minkowski Wir betrachten ein beliebiges Polyeder P, das sich als Lösungsmenge eines endlichen Systems von linearen Ungleichungen a T i

Mehr

3.1. Existenzsatz und Struktur der Lösungsmenge

3.1. Existenzsatz und Struktur der Lösungsmenge 3. EXISTENZ UND DUALITÄT 3.1. Existenzsatz und Struktur der Lösungsmenge Nach dem Satz von Weierstraß besitzt eine lineare Funktion auf einem Polytop stets ein Minimum und ein Maximum. Im allgemeinen Fall

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden

Mehr

Insbesondere sind nach dieser Definition also auch die leere Menge und einpunktige Teilmengen konvex.

Insbesondere sind nach dieser Definition also auch die leere Menge und einpunktige Teilmengen konvex. Konvexe Mengen 2 Wie am Ende des vorigen Kapitels bereits erwähnt, ist die notwendige Gradientenbedingung aus Satz 1.4.6 für konvexe Zielfunktionen auch hinreichend. Diese Tatsache mag als erste Motivation

Mehr

KAPITEL 3. Konvexe Funktionen

KAPITEL 3. Konvexe Funktionen KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn

Mehr

Vorlesung Lineare Optimierung (Sommersemester 2010)

Vorlesung Lineare Optimierung (Sommersemester 2010) 1 Vorlesung Lineare Optimierung (Sommersemester 2010) Kapitel 6: Die Geometrie der Linearen Optimierung Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 15. Juni 2010) Gliederung 2 Das

Mehr

LINEARE ALGEBRA II. FÜR PHYSIKER

LINEARE ALGEBRA II. FÜR PHYSIKER LINEARE ALGEBRA II FÜR PHYSIKER BÁLINT FARKAS 4 Rechnen mit Matrizen In diesem Kapitel werden wir zunächst die so genannten elementaren Umformungen studieren, die es ermöglichen eine Matrix auf besonders

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

mit. Wir definieren (Skalarprodukt = Winkel).

mit. Wir definieren (Skalarprodukt = Winkel). 1 Grundidee des Simplexverfahrens (von George Dantzig): Man bestimmt eine beliebige Ecke (Extremalpunkt) einer Lösungsmenge eines Ungleichungssystems. Nun geht man an den Kanten vom Punkt entlang und kontrolliert

Mehr

Die duale Simplexmethode

Die duale Simplexmethode Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine Vektorräume (Teschl/Teschl 9 Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen: Eine

Mehr

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen 1 Zum Aufwärmen 1.1 Notationen In diesem Teil der Vorlesung bezeichnen wir Körper mit K, Matrizen mit Buchstaben A,B,..., Vektoren mit u,v,w,... und Skalare mit λ,µ,... Die Menge der m n Matrizen bezeichnen

Mehr

Der Kern einer Matrix

Der Kern einer Matrix Die elementaren Zeilenoperationen p. 1 Der Kern einer Matrix Multipliziert man eine Matrix mit den Spaltenvektoren s 1,..., s m von rechts mit einem Spaltenvektor v := (λ 1,..., λ m ) T, dann ist das Ergebnis

Mehr

Kapitel 3 Lineare Algebra

Kapitel 3 Lineare Algebra Kapitel 3 Lineare Algebra Inhaltsverzeichnis VEKTOREN... 3 VEKTORRÄUME... 3 LINEARE UNABHÄNGIGKEIT UND BASEN... 4 MATRIZEN... 6 RECHNEN MIT MATRIZEN... 6 INVERTIERBARE MATRIZEN... 6 RANG EINER MATRIX UND

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:

Mehr

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $ Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit

Mehr

Hüllen und Kombinationen

Hüllen und Kombinationen Hüllen und Kombinationen 2 Die zulässigen Bereiche in der Linearen Optimierung sind Lösungen von linearen Ungleichungssystemen. Deswegen müssen wir die Werkzeuge der linearen Algebra um Elemente erweitern,

Mehr

5.7 Lineare Abhängigkeit, Basis und Dimension

5.7 Lineare Abhängigkeit, Basis und Dimension 8 Kapitel 5. Lineare Algebra 5.7 Lineare Abhängigkeit, Basis und Dimension Seien v,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von v,...,v n, nämlich { n

Mehr

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit 3 Lineare Algebra (Teil : Lineare Unabhängigkeit 3. Der Vektorraum R n Die Menge R n aller n-dimensionalen Spalten a reeller Zahlen a,..., a n R bildet bezüglich der Addition a b a + b a + b. +. :=. (53

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

Musterlösung - Aufgabenblatt 7. Aufgabe 1

Musterlösung - Aufgabenblatt 7. Aufgabe 1 Musterlösung - Aufgabenblatt 7 Aufgabe Sei C R n eine nicht-leere abgeschlossene und konvexe Menge. Wir wollen zeigen, dass C als der Durchschnitt ihrer stützenden Halbräume dargestellt werden kann, d.h.

Mehr

9 Lineare Gleichungssysteme

9 Lineare Gleichungssysteme 9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der

Mehr

Lineare Optimierung und Simplex-Algorithmus

Lineare Optimierung und Simplex-Algorithmus Lineare Optimierung und Simplex-Algorithmus Problemstellung Beispiel : Unser Unternehmen verfügt über drei Maschinen A, B, C, mit denen zwei verschiedene Produkte P, P2 hergestellt werden. Die Maschinen

Mehr

Ausgewählte Lösungen zu den Übungsblättern 4-5

Ausgewählte Lösungen zu den Übungsblättern 4-5 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit

Mehr

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind

Mehr

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung

Mehr

Basiswissen Matrizen

Basiswissen Matrizen Basiswissen Matrizen Mathematik GK 32 Definition (Die Matrix) Eine Matrix A mit m Zeilen und n Spalten heißt m x n Matrix: a a 2 a 4 A a 2 a 22 a 24 a 4 a 42 a 44 Definition 2 (Die Addition von Matrizen)

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Wintersemester 2014/15 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax

Mehr

Mathematik I. Vorlesung 11. Lineare Unabhängigkeit

Mathematik I. Vorlesung 11. Lineare Unabhängigkeit Prof. Dr. H. Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 11 Lineare Unabhängigkeit Definition 11.1. Es sei K ein Körper und V ein K-Vektorraum. Dann heißt eine Familie von Vektoren v i, i I,

Mehr

Diskrete Optimierung

Diskrete Optimierung Diskrete Optimierung (Algorithmische Diskrete Mathematik II, kurz ADM II) Skriptum zur Vorlesung im SS 2013 Prof. Dr. Martin Grötschel Institut für Mathematik Technische Universität Berlin Version vom

Mehr

Lineare Gleichungssysteme - Grundlagen

Lineare Gleichungssysteme - Grundlagen Lineare Gleichungssysteme - Grundlagen Betrachtet wird ein System linearer Gleichungen (im deutschen Sprachraum: lineares Gleichungssystem mit m Gleichungen für n Unbekannte, m, n N. Gegeben sind m n Elemente

Mehr

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung Operations Research Rainer Schrader Die Simplexmethode Zentrum für Angewandte Informatik Köln 18 Juni 00 1 / 1 / 1 Gliederung LP-Dualität ein lineares Produktionsmodell der Simplexalgorithmus Phase I Endlichkeit

Mehr

05. Lineare Gleichungssysteme

05. Lineare Gleichungssysteme 05 Lineare Gleichungssysteme Wir betrachten ein System von m Gleichungen in n Unbestimmten (Unbekannten) x 1,, x n von der Form a 11 x 1 + a 12 x 2 + a 13 x 3 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + a

Mehr

Mathematik für Anwender I

Mathematik für Anwender I Prof. Dr. H. Brenner Osnabrück WS 2011/2012 Mathematik für Anwender I Vorlesung 7 Die Lösungsmenge eines homogenen linearen Gleichungssystems in n Variablen über einem Körper K ist ein Untervektorraum

Mehr

Lineare Algebra I (WS 13/14)

Lineare Algebra I (WS 13/14) Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 29.11.2013 Alexander Lytchak 1 / 13 Wiederholung Der Rang einer linearen Abbildung ist gleich dem Spaltenrang der darstellenden

Mehr

2.3 Basis und Dimension

2.3 Basis und Dimension Lineare Algebra I WS 205/6 c Rudolf Scharlau 65 2.3 Basis und Dimension In diesem zentralen Abschnitt werden einige für die gesamte Lineare Algebra fundamentale Grundbegriffe eingeführt: Lineare Abhängigkeit

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw. Kapitel 5 Lineare Algebra 5 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen

Mehr

Lineare Algebra I (WS 12/13)

Lineare Algebra I (WS 12/13) Lineare Algebra I (WS 12/13) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 18.10.2012 Alexander Lytchak 1 / 12 Lineare Gleichungssysteme Wir untersuchen nun allgemeiner Gleichungssysteme der

Mehr

1 Matrizenrechnung zweiter Teil

1 Matrizenrechnung zweiter Teil MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Definition. Sei K ein Körper, a ij K für 1 i m, 1 j n und b 1,..., b m K. Dann heißt a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2......

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme 2 Lineare Gleichungssysteme Betrachte ein beliebiges System von m linearen Gleichungen in den n Unbekannten x,,x n : a x + a 2 x 2 + + a n x n = b a 2 x + a 22 x 2 + + a 2n x n = b 2 () a m x + a m2 x

Mehr

Übersicht Kapitel 9. Vektorräume

Übersicht Kapitel 9. Vektorräume Vektorräume Definition und Geometrie von Vektoren Übersicht Kapitel 9 Vektorräume 9.1 Definition und Geometrie von Vektoren 9.2 Teilräume 9.3 Linearkombinationen und Erzeugendensysteme 9.4 Lineare Abhängigkeiten

Mehr

Kapitel 16. Invertierbare Matrizen

Kapitel 16. Invertierbare Matrizen Kapitel 16. Invertierbare Matrizen Die drei Schritte des Gauß-Algorithmus Bringe erweiterte Matrix [A b] des Gleichungssystems A x auf Zeilenstufenform [A b ]. Das System A x = b ist genau dann lösbar,

Mehr

2.5 Gauß-Jordan-Verfahren

2.5 Gauß-Jordan-Verfahren 2.5 Gauß-Jordan-Verfahren Definition 2.5.1 Sei A K (m,n). Dann heißt A in zeilenreduzierter Normalform, wenn gilt: [Z1] Der erste Eintrag 0 in jeder Zeile 0 ist 1. [Z2] Jede Spalte, die eine 1 nach [Z1]

Mehr

Kapitel 13. Lineare Gleichungssysteme und Basen

Kapitel 13. Lineare Gleichungssysteme und Basen Kapitel 13. Lineare Gleichungssysteme und Basen Matrixform des Rangsatzes Satz. Sei A eine m n-matrix mit den Spalten v 1, v 2,..., v n. A habe den Rang r. Dann ist die Lösungsmenge L := x 1 x 2. x n x

Mehr

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1 Vortrag: Lineare Gleichungen am 11. März 2009 von Maximilian Wahner Technische Universität Dortmund Fakultät für Mathematik Proseminar Lineare

Mehr

4. Vektorräume und Gleichungssysteme

4. Vektorräume und Gleichungssysteme technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 41 und 42 4 Vektorräume

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b

Mehr

8. Konvexe Polytope. Tobias Boelter. Mittwoch, 5. März TopMath Frühlingsschule

8. Konvexe Polytope. Tobias Boelter. Mittwoch, 5. März TopMath Frühlingsschule 1 / 31 8. Konvexe Tobias Boelter TopMath Frühlingsschule Mittwoch, 5. März 2014 2 / 31 Es können auch nicht konvexe untersucht werden, wir beschränken uns hier aber auf konvexe. Mit einem Polytop ist hier

Mehr

Konvexe Optimierungsprobleme

Konvexe Optimierungsprobleme von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel

Mehr

technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof. Dr. H. M. Möller

technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof. Dr. H. M. Möller technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof. Dr. H. M. Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 4.3 und 4.4

Mehr

Spezielle Matrixformen

Spezielle Matrixformen Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß

Mehr

4 Affine Koordinatensysteme

4 Affine Koordinatensysteme 4 Affine Koordinatensysteme Sei X φ ein affiner Raum und seien p,, p r X Definition: Nach ( c ist der Durchschnitt aller affinen Unterräume Z X, welche die Menge {p,,p r } umfassen, selbst ein affiner

Mehr

4 Vektorräume. 4.1 Definition. 4 Vektorräume Pink: Lineare Algebra 2014/15 Seite 48. Sei K ein Körper.

4 Vektorräume. 4.1 Definition. 4 Vektorräume Pink: Lineare Algebra 2014/15 Seite 48. Sei K ein Körper. 4 Vektorräume Pink: Lineare Algebra 2014/15 Seite 48 4 Vektorräume 4.1 Definition Sei K ein Körper. Definition: Ein Vektorraum über K, oder kurz ein K-Vektorraum, ist ein Tupel (V,+,, 0 V ) bestehend aus

Mehr

4 Der Gauß Algorithmus

4 Der Gauß Algorithmus 4 Der Gauß Algorithmus Rechenverfahren zur Lösung homogener linearer Gleichungssysteme Wir betrachten ein GLS (1) a 11 x 1 + a 1 x + + a 1n x n = a 1 x 1 + a x + + a n x n = a m1 x 1 + a m x + + a mn x

Mehr

I) MATRIZEN. 1) Speichern geometrischer Daten: Punkte, Vektoren. j - te Variable (Spalte), j = 1,2,3,..., n

I) MATRIZEN. 1) Speichern geometrischer Daten: Punkte, Vektoren. j - te Variable (Spalte), j = 1,2,3,..., n I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen y1 = a11x1+ a12x2 + a13x3 y2 = a21x1+ a22x2 + a23x3... Koeffizienten a ij i - te Gleichung (Zeile), i

Mehr

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9 Chr.Nelius: Zahlentheorie (SS 2007) 9 4. ggt und kgv (4.1) DEF: Eine ganze Zahl g heißt größter gemeinsamer Teiler (ggt) zweier ganzer Zahlen a und b, wenn gilt: GGT 0 ) g 0 GGT 1 ) g a und g b GGT 2 )

Mehr

Mathematik für Informatiker 1 Wintersemester 2013/14 Übungsblatt 12

Mathematik für Informatiker 1 Wintersemester 2013/14 Übungsblatt 12 Dipl.Inf. Malte Isberner Dr. Oliver Rüthing Dipl.Inf. Melanie Schmidt Dr. Hubert Wagner Übungen zur Vorlesung Mathematik für Informatiker 1 Wintersemester 2013/14 Übungsblatt 12 Die Lösungshinweise dienen

Mehr

6.5 Lineare Abhängigkeit, Basis und Dimension

6.5 Lineare Abhängigkeit, Basis und Dimension 6.5. Lineare Abhängigkeit, Basis und Dimension 123 6.5 Lineare Abhängigkeit, Basis und Dimension Seien v 1,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von

Mehr

Effiziente Algorithmen Lineares Programmieren 216. Schwache Dualität

Effiziente Algorithmen Lineares Programmieren 216. Schwache Dualität Effiziente Algorithmen Lineares Programmieren 216 Schwache Dualität Sei wieder z = max{ c T x Ax b, x 0 } (P ) und w = min{ b T u A T u c, u 0 }. (D) x ist primal zulässig, wenn x { x Ax b, x 0 }. u ist

Mehr

Kapitel V. Affine Geometrie

Kapitel V. Affine Geometrie Kapitel V Affine Geometrie 1 Affine Räume Betrachte ein lineares Gleichungssystem Γ : a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + + a 2n x n = b 2 a m1 x 1 + a m2 x 2 + + a mn x n = b

Mehr

auf C[; ] sind linear III Formale Dierentiation und Integration: Die Abbildungen und a + a t + + a n t n a + a t + + na n t n a + a t + + a n t n an a

auf C[; ] sind linear III Formale Dierentiation und Integration: Die Abbildungen und a + a t + + a n t n a + a t + + na n t n a + a t + + a n t n an a x LINEARE ABBILDUNGEN Denition: Seien V; V Vektorraume Eine Abbildung f heit linear, falls (i) (ii) f(x + y) f(x) + f(y) (x; y V ) f(x) f(x) ( R; x V ) Bemerkungen: I (i) und (ii) oben sind aquivalent

Mehr

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema: Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P. Grohs T. Welti F. Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 5 Aufgabe 5.1 Kommutierende Matrizen In der Vorlesung und vergangenen

Mehr

Elemente in Φ werden Wurzeln genannt. Bemerkung 3.2. (a) Zu einem Wurzelsystem können wir immer eine Spiegelungsgruppe definieren

Elemente in Φ werden Wurzeln genannt. Bemerkung 3.2. (a) Zu einem Wurzelsystem können wir immer eine Spiegelungsgruppe definieren 3. Wurzelsysteme Als erstes führen wir den Begriff eines Wurzelsystems ein. Definition 3.1 (Wurzelsystem). Eine endliche Teilmenge Φ V {0} heißt Wurzelsystem falls gilt: (R1) Φ Rα = {±α} für α Φ, (R2)

Mehr

β 1 x :=., und b :=. K n β m

β 1 x :=., und b :=. K n β m 44 Lineare Gleichungssysteme, Notations Betrachte das lineare Gleichungssystem ( ) Sei A = (α ij ) i=,,m j=,n α x + α x + + α n x n = β α x + α x + + α n x n = β α m x + α m x + + α mn x n = β m die Koeffizientenmatrix

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

Unterlagen zur Vorlesung Algebra und Geometrie in der Schule: Grundwissen über Affine Geometrie. Sommersemester Franz Pauer

Unterlagen zur Vorlesung Algebra und Geometrie in der Schule: Grundwissen über Affine Geometrie. Sommersemester Franz Pauer Unterlagen zur Vorlesung Algebra und Geometrie in der Schule: Grundwissen über Affine Geometrie Sommersemester 2009 Franz Pauer INSTITUT FÜR MATHEMATIK, UNIVERSITÄT INNSBRUCK, TECHNIKERSTRASSE 13, 6020

Mehr

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }. 154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =

Mehr

Vortrag 20: Kurze Vektoren in Gittern

Vortrag 20: Kurze Vektoren in Gittern Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die

Mehr

In diesem Kapitel wird der Vektorraumbegriff axiomatisch eingeführt und einige grundlegende Begriffe erläutert, etwa. Unterraum,

In diesem Kapitel wird der Vektorraumbegriff axiomatisch eingeführt und einige grundlegende Begriffe erläutert, etwa. Unterraum, 2 Vektorräume In diesem Kapitel wird der Vektorraumbegriff axiomatisch eingeführt und einige grundlegende Begriffe erläutert, etwa Unterraum, Linearkombination, lineare Unabhängigkeit und Erzeugendensystem.

Mehr

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1) 34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)

Mehr

Vorlesung Lineare Optimierung (Sommersemester 2009)

Vorlesung Lineare Optimierung (Sommersemester 2009) 1 Vorlesung Lineare Optimierung (Sommersemester 2009) Kapitel 7: Der Simplex-Algorithmus Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 18. Juni 2009) Gliederung 2 Ecken, Kanten, Extremalstrahlen

Mehr

Die lineare Programmierung. Die Standardform 1 / 56

Die lineare Programmierung. Die Standardform 1 / 56 Die lineare Programmierung Die Standardform 1 / 56 Die Standardform der linearen Programmierung - Für n reellwertige, nichtnegative Variablen x 1 0,..., x n 0 erfülle die m linearen Gleichungen n a ij

Mehr

3.1 Sukzessive Minima und reduzierte Basen: Resultate

3.1 Sukzessive Minima und reduzierte Basen: Resultate Gitter und Codes c Rudolf Scharlau 4. Juni 2009 202 3.1 Sukzessive Minima und reduzierte Basen: Resultate In diesem Abschnitt behandeln wir die Existenz von kurzen Basen, das sind Basen eines Gitters,

Mehr

1 Lineare Gleichungssysteme und Matrizen

1 Lineare Gleichungssysteme und Matrizen 1 Lineare Gleichungssysteme und Matrizen Das Studium linearer Gleichungssysteme und ihrer Lösungen ist eines der wichtigsten Themen der linearen Algebra. Wir werden zunächst einige grundlegende Begriffe

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

5.2 Rechnen mit Matrizen

5.2 Rechnen mit Matrizen 52 Rechnen mit Matrizen 52 Rechnen mit Matrizen 97 Für Matrizen desselben Typs ist eine Addition erklärt, und zwar durch Addition jeweils entsprechender Einträge Sind genauer A = (a ij ) und B = (b ij

Mehr

Affine Hülle. x x 1 ist lineare Kombination der Vektoren x 2 x 1,x 3 x 1,...,x k x 1. Tatsächlich, in diesem Fall ist λ 1 = 1 λ 2 λ 3...

Affine Hülle. x x 1 ist lineare Kombination der Vektoren x 2 x 1,x 3 x 1,...,x k x 1. Tatsächlich, in diesem Fall ist λ 1 = 1 λ 2 λ 3... Affine Hülle Wiederholung. Der Vektor x K n ist eine lineare Kombination der Vektoren x,...,x k K n, wenn es Zahlen λ,...,λ k K gibt mit x = λ x +... + λ k x k. Def. Gibt es solche Zahlen λ,...,λ k K mit

Mehr

Mathematik für Naturwissenschaftler II SS 2010

Mathematik für Naturwissenschaftler II SS 2010 Mathematik für Naturwissenschaftler II SS 2010 Lektion 7 11. Mai 2010 Kapitel 8. Vektoren Definition 76. Betrachten wir eine beliebige endliche Anzahl von Vektoren v 1, v 2,..., v m des R n, so können

Mehr

Kapitel 3: Die Sätze von Euler, Fermat und Wilson. 8 Der Satz von Euler

Kapitel 3: Die Sätze von Euler, Fermat und Wilson. 8 Der Satz von Euler Kapitel 3: Die Sätze von Euler, Fermat und Wilson In diesem Kapitel wollen wir nun die eulersche -Funktion verwenden, um einen berühmten Satz von Euler zu formulieren, aus dem wir dann mehrere interessante

Mehr

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de

Mehr

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen 12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn

Mehr

Eigenschaften von LPs

Eigenschaften von LPs 2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört

Mehr

2.2 Lineare Gleichungssysteme (LGS)

2.2 Lineare Gleichungssysteme (LGS) 2.2 Lineare Gleichungssysteme (LGS) Definition 2.2.. Ein LGS über einem Körper K von m Gleichungen in n Unbekannten x,..., x n ist ein Gleichungssystem der Form a x + a 2 x 2 +... + a n x n = b a 2 x +

Mehr

Lineare Gleichungssysteme und Matrizen

Lineare Gleichungssysteme und Matrizen Kapitel 11 Lineare Gleichungssysteme und Matrizen Ein lineares Gleichungssystem (lgs) mit m linearen Gleichungen in den n Unbekannten x 1, x 2,..., x n hat die Gestalt: Mit a 11 x 1 + a 12 x 2 + a 13 x

Mehr

Addition: ( 1 ; : : : ; n ) + ( 1 ; : : : ; n ) = ( ; : : : ; n + n ). Skalare Multiplikation: ( 1 ; : : : ; n ) = ( 1 ; : : : ; n ). II. Die Me

Addition: ( 1 ; : : : ; n ) + ( 1 ; : : : ; n ) = ( ; : : : ; n + n ). Skalare Multiplikation: ( 1 ; : : : ; n ) = ( 1 ; : : : ; n ). II. Die Me x 3 VEKTOR AUME In Kapitel 2 betrachteten wir wichtige Raume, die durch unsere Raumvorstellung motiviert waren { die zwei- und dreidimensionalen Raume R 2 und R 3. Jetzt untersuchen wir hoher dimensionale

Mehr

Vorlesung Mathematik für Ingenieure 1 (Wintersemester 2008/09)

Vorlesung Mathematik für Ingenieure 1 (Wintersemester 2008/09) Vorlesung Mathematik für Ingenieure Wintersemester 8/9 Kapitel 4: Matrizen, lineare Abbildungen und Gleichungssysteme Volker Kaibel Otto-von-Guericke Universität Magdeburg Version vom 5. November 8 Page-Rank

Mehr

5 Quadriken. K = { R 2 ax 2 + bxy + cy 2 + dx + ey + f = 0} wobei a, b, c, d, e, f reelle Zahlen sind mit (a, b, c) (0, 0, 0).

5 Quadriken. K = { R 2 ax 2 + bxy + cy 2 + dx + ey + f = 0} wobei a, b, c, d, e, f reelle Zahlen sind mit (a, b, c) (0, 0, 0). 5 Quadriken Kegelschnitte Ein Kegelschnitt ist eine Teilmenge K R 2, welche durch eine quadratische Gleichung in zwei Unbestimmten beschrieben werden kann: x K = { R 2 ax 2 + bxy + cy 2 + dx + ey + f =

Mehr