8 Lineare Optimierung
|
|
|
- Sarah Ritter
- vor 9 Jahren
- Abrufe
Transkript
1 8. LINEARE OPTIMIERUNG 18 8 Lineare Optimierung 8.1 Lineare Optimierung in der Dimension Zum Einüben in die Problematik behandeln wir explizit zunächst ein Optimierungsproblem in der Dimension Ein konkretes Musterproblem in der Dimension Eine Firma stellt zwei Produkte P 1 und P her. Zur Fertigung werden vier Maschinen gebraucht, die zur Herstellung einer Einheit von P 1 bzw. von P jeweils verschieden lang benutzt werden. Die Maschinen selbst haben in einer Produktionsperiode beschränkte Kapazitäten (an Benutzungsdauer). Konkrete Daten: Maschine Benutzungsdauer in Stunden zur Herstellung einer Einheit von Maschinenkapazität in Stunden P 1 P A 18 B 1,5 15 C 1 D 19 Eine Mengeneinheit des Produktes P 1 bzw. P bringt bzw. 5 Euro Gewinn.Vom Produkt P 1 sollen x 1 Einheiten, vom Produkt P sollen x Einheiten produziert werden. Frage: Wie muß die Produktion auf P 1 und P verteilt werden, so daß bei Berücksichtigung der Kapazitäten der Gewinn maximiert wird? Mathematische Formulierung (Modellbildung): Maximiere die Funktion Z(x 1, x ) = x 1 + 5x (1) die sog. Zielfunktion wobei nur solche x 1, x zur Konkurrenz zugelassen werden, welche folgende Restriktionen erfüllen: Kapazität von A (i) x 1 + x 18 Kapazität von B (ii) x 1 + 1, 5x 15 Kapazität von C (iii) x 1 Kapazität von D (iv) x 1 19 (LUG) (Lineare Ungleichungen) und (v) x 1, x (NN) (Nichtnegativitäts-Bedingungen)
2 8. LINEARE OPTIMIERUNG 181 Bezeichnung: Die Menge {x = ( x1 x ein x K heißt zulässig. ) x erfüllt (i) (v) } =: K heißt der zulässige Bereich des Problems, 8.1. Beschreibung des zulässigen Bereiches Erinnere (Tats. in 6..1): Die Lösungsmenge der Gleichung αx 1 + βx = γ, α und β nicht beide, ist eine Gerade G im R. Tatsache und Bezeichnung: Seien α, β, γ R, α und β nicht beide. Dann: (1) Die Lösungsmengen der linearen Ungleichungen αx 1 + βx γ und αx 1 + βx γ sind die beiden Halbebenen, in welche die Ebene R durch die Gerade G geteilt wird. Dabei: Die Gerade G, also die Punktmenge, wo die Gleichheit statt einer der beiden Ungleichungen gilt, gehört zu beiden Halbebenen. Oder so formuliert: Mit Halbebene ist die Halbebene inklusive der begrenzenden Gerade gemeint. () Halbebenen und Durchschnitte von Halbebenen, also die simultane Lösungsmenge von mehreren linearen Ungleichungen, sind konvex. () Ein Durchschnitt von endlich vielen Halbebenen, der beschränkt ist, heißt ein konvexes Polyeder. Beispiele von Ungleichungen mit den zugehörigen Halbebenen als Lösungsmengen: x 1 + x x 1 x 6 x 1 + x 6
3 8. LINEARE OPTIMIERUNG 18 Die simultane Lösungsmenge (in diesem Fall ein Dreieck; ein konvexes Fünfeck ergibt sich z.b. unten bei der zulässigen Menge unseres Musterproblems) ist: Bemerkung: Die Geraden G(α, β, γ) definiert durch αx 1 + βx γ lasssen sich leicht zeichnen. Ist α = ( (und ) somit β ), so ist G(α, β, γ) die Parallele zur x-achse durch den Punkt γ β ( γ ) Ist β = (und α ), so ist G(α, β, γ) die Parallele zur y-achse durch den Punkt α Im Falle α und β kann man so vorgehen: Durch Nullsetzen von x 1 bzw. x und Auflösen der Geradengleichung nach der anderen Koordinate erhält man die beiden Punkte ( γ α, ) und (, γ β ). Die Gerade G(α, β, γ) ist dann die Gerade durch diese beiden Punkte. Welche der beiden Halbebenen durch die jeweilige Ungleichung beschrieben wird, kann man durch Einsetzen eines Punktes außerhalb der Geraden bestimmen, am einfachsten durch Einsetzen von ( ), wenn die Gerade nicht durch den Nullpunkt geht. Im ersten Beispiel etwa ist, d.h. die Halbebene enthält den Nullpunkt nicht. Die beiden anderen Halbebenen enthalten ( ). Der zulässige Bereich beim konkreten Problem aus :
4 8. LINEARE OPTIMIERUNG 18 Die Geraden G 1, G, G, G 4 entsprechen den durch (i), (ii), (iii), (iv) definierten Gleichungen. Der Nullpunkt liegt in allen Halbebenen. Die Nichtnegativitätsbedingungen bewirken, daß K im positiven Quadranten liegt. In diesem Beispiel liefert (iv) keine zusätzliche Einschränkung Eine graphische Lösung Diskussion der Zielfunktion: Bemerkung Betrachte die Zielfunktion Z(x) = a 1 x 1 + a x, in unserem Beispiel Z(x) = x 1 + 5x. Für variierende Werte von c R werden durch die Gleichungen Z(x) = c parallele Geraden G c definiert. Name: Die Geraden G c heißen Isogewinngeraden (Geraden gleichen Gewinns). Ist c >, so bedeutet Parallelverschiebung von G c in Richtung Nullpunkt den Übergang zu kleineren Werten der Zielfunktion. Parallelverschiebung weg vom Nullpunkt führt zu G c s, welche größeren Werten von Z(x) entsprechen. Das führt zu: Graphisch-experimentelle Methode zur Bestimmung des Maximums bzw. Minimums der Zielfunktion auf K: Zeichne eine Gerade G c, c >, definiert durch Z(x) = c. Zur Maximumbestimmung: Verschiebe C c parallel bis zu derjenigen Geraden G c, welche von allen Geraden, die K treffen, am weitesten vom Nullpunkt entfernt ist. Dieses c ist dann das Maximum von Z auf K, und die Schnittpunkte von G c mit K sind die Maximalstellen. I.a. wird dies eine einzelne Ecke sein, das ist der Schnittpunkt zweier begrenzenden Geraden (siehe 8.. ). Zur Minimumbestimmung verschiebt man parallel bis zu derjenigen Geraden G c, die unter allen zu G c parallelen Geraden, welche K treffen, dem Nullpunkt am nächsten liegt. Hat man eine Ecke als Extremalstelle gefunden, so bestimmt man ihre Koordinaten, indem man den entsprechenden Geradenschnittpunkt ausrechnet (als Lösung des Gleichungssystems, das aus den beiden Geradengleichungen besteht). Anwendungen auf unser Beispiel: Einige der G c s sind in der Zeichnung gestrichelt angegeben. Es stellt sich heraus: Z(x) = x 1 + 5x nimmt auf K sein Maximum im Schnittpunkt P m der Geraden G 1 und G an. Es ist P m = (, 4) und Z(P m ) = 6 das Maximum von Z. Ergebnis unserer Aufgabe: Die Firma erzielt ein Maximum an Gewinn, wenn sie Einheiten von P 1 und 4 Einheiten von P herstellt. Die Maschinen A und C sind dabei ausgelastet, weil P m auf den Geraden G 1 und G
5 8. LINEARE OPTIMIERUNG 184 liegt. Die Maschinen B und C haben noch freie Kapazitäten ( P m liegt nicht auf den Geraden G und G 4 ). 8. Einige Theorie 8..1 Verallgemeinerung des Problems Mathematische Situation: Gegeben: Ein Zeilenvektor Z R 1 n und die lineare Zielfunktion f Z : R n R, x Z(x 1, x,..., x n ) = z 1 x z n x n = Z x Außerdem: Ein lineares Ungleichungssystem, gegeben durch m Zeilenvektoren A i = (a i1 a i... a in ) R 1 n, i = 1,..., m, m reelle Zahlen b 1, b,..., b m und daraus gebildet die linearen Ungleichungen A 1 x = a 11 x a 1n x n b 1 A x = a 1 x a n x n b (LUG).... A m x = a m1 x a mn x n b m Schließlich noch: Die Nichtnegativitätsbedingungen Bemerkung: x i für alle i = 1,..., n (NN) (i) Auch die Nichtnegativitätsbedingungen können durch das Produkt einer einzeiligen Matrix mit x ausgedrückt werden: x i E i x (wobei E i := (,...,, 1 i,,..., ) R 1 n. (ii) Auch Ungleichungen in anderer Richtung können in Ungleichungen des obigen Typs umgeschrieben werden: Es ist c 1 x 1 + c x c n x n δ ( c 1 )x 1 + ( c )x ( c n )x n δ. (iii) Selbst lineare Gleichungen können in das anfängliche Ungleichungssystem integriert werden: c 1 x 1 + c x c n x n = δ { c 1 x 1 + c x c n x n δ und ( c 1 )x 1 + ( c )x ( c n )x n δ Bezeichnung (der zulässige Bereich): K := { x R n x erfüllt (LUG) und (Nn) } heißt der zulässige Bereich zu LUG und NN. Aufgabe: Gesucht sind das Maximum bzw. das Minimum der Einschränkung der Zielfunktion f Z auf
6 8. LINEARE OPTIMIERUNG 185 den zulässigen Bereich K, d.h. Werte cmax := max { f Z (x) x K } bzw. c min := min { f Z (x) x K } und zugehörige Maximalstellen xmax K mit f Z (xmax) = cmax bzw. Minimalstellen x min K mit f Z (x min ) = c min. Beachte: Das K zu unserer Aufgabe kann leer sein. (D.h. die Restriktionen sind zu restriktiv.) Es gibt dann natürlich auch keine Lösung unseres Optimierungsproblems. 8.. Konvexität des zulässigen Bereiches. Tatsache 1 (eine sehr allgemeine Feststellung) Es sei I eine Menge und für jedes i I sei X i eine konvexe Teilmenge des R n. Sei X = { x R n x X i für alle i I } der Durchschnitt der X i. Dann ist X konvex. (Die leere Menge gilt nach Übereinkunft (und aus logischen Gründen) als konvex.) Der Beweis ist eine sehr einfache, aber gute Übung in Logik. Zu den Begriffen konvex und Strecke siehe Gegeben x, y X, x y. Zu zeigen ist: Die Strecke xy zwischen x und y ist Teilmenge von X. Dazu: Für jedes i I gilt: Als Elemente von X liegen x und y auch in X i. Weil X i konvex ist, gilt xy X i. Weil dies für jedes i der Fall ist, folgt aus der Definition von X als Durchschnitt der X i, daß xy auch in X liegt. Bezeichnung 1: Seien α 1,..., α n, β R, nicht alle α 1,..., α n gleich. Betrachte die linearen Ungleichungen α 1 x 1 + α x + + α n x n β bzw. α 1 x 1 + α x + + α n x n β. Der Lösungsräume H α,β =: H := { x R n α 1 x 1 + α x + + α n x n β ( bzw. β ) } solcher Ungleichungen heißen Halbräume im R n. Vorstellung: Im R : Siehe (1) der Tatsache in Im R sind die Halbräume die offensichtlichen Halbräume, in welche die durch α 1 x 1 + α x + α x = β definierte Ebene den R teilt. Im R n für größeres n sind die Halbräume die entsprechenden Verallgemeinerungen. Tatsache : Halbräume sind konvex. Der Beweis ist eine leichte Übung (in Logik und im Abschätzen). Tatsache (Direkte Folgerung aus den Tatsachen 1 und ): Die Lösungsmengen linearer Ungleichungssysteme im R n sind konvex.
7 8. LINEARE OPTIMIERUNG 186 Bezeichnung : Ist K der Lösungsraum eines Systems von endlich vielen linearen Ungleichungen und ist K beschränkt, so heißt K ein konvexes Polyeder. Folgerung: In unserer Situation: Der zulässige Bereich K unseres allgemeinen Problems in 8..1 ist konvex. Ist K beschränkt, so ist K ein konvexes Polyeder. K ist Lösungsmenge des Gesamtungleichungssystems (LUG) + (NN). 8.. Ecken und konvexe Polyeder Definition (Ecken in konvexen Mengen): Beispiele: Sei K R n konvex. Eine Ecke von K ist ein x K mit folgender Eigenschaft: Ist yz K ( y z ) Strecke zwischen zwei Punkten von K und ist x yz, so ist x = y oder x = z. (i) Die (einzigen) Ecken einer Strecke yz R n sind y und z. (ii) Die Ecken der in 8.1. betrachteten ebenen Polyeder sind die offensichtlichen Ecken. Grundlegend in der mathematischen Untersuchung konvexer Mengen ist der folgende Begriff. Bezeichnung (Konvexkombinationen) Seien P 1,..., P r Punkte im R n. Eine Konvexkombination der P i ist eine Linearkombination s 1 P 1 + s P s r P r mit folgender Eigenschaft: r Es ist s i für alle i = 1,..., r und es ist s i = 1. (Dann ist auch s i 1 für alle i.) Beispiele: i=1 (i) Die Punkte auf einer Strecke yz sind die Konvexkombinationen von y und z. Siehe (ii) Sind P 1, P, P R n und sind b a, c a linar unbhängig, so ist die Menge aller Konvexkombinationen von P 1, P, P gerade das Dreieck mit den Ecken P 1, P, P.
8 8. LINEARE OPTIMIERUNG Der Hauptsatz Satz 1 (1) Sei K der Lösungsraum eines Systems von endlich vielen linearen Ungleichungen. Dann hat K höchstens endlich viele Ecken. () Konvexe Polyeder haben mindestens eine Ecke und nach (1) endlich viele Ecken. () Der zulässige Bereich K eines Optimierungsproblems wie in 8..1 hat, falls er nicht leer ist, mindestens eine Ecke. (Das liegt am Vorhandensein der Nichtnegativitäts-Bedingungen.) Satz Sei K ein konvexes Polyeder und seien P 1,..., P r die Ecken von K. Dann gilt: K ist die Menge der Konvexkombinationen der P 1,..., P r Die Sätze 1 und sind Resultate einer detaillierteren Theorie konvexer Mengen. Der Hauptsatz Sei K der Lösungsraum eines Systems von endlich vielen linearen Ungleichungen und K habe Ecken. (Z.B. sei K der zulässige Bereich eines Problems wie in 8..1.) Sei f Z eine lineare Zielfunktion wie bisher. Dann: (1) Hat f Z ein Maximum bzw. ein Minimum auf K, so wird das Maximum bzw. das Minimum in einer Ecke angenommen. D.h. es gibt eine Ecke P von K mit f Z (P ) f Z (x) für alle x K bzw. mit f Z (P ) f Z (x) für alle x K. () Ist K ein konvexes Polyeder mit den Ecken P 1,..., P r, so nimmt f Z auf K sein Maximum in einem P { P 1,..., P r } und sein Minimum in einem Q { P 1,..., P r } an. Beweis im Fall des konvexen Polyeders: Sei M := max{ f Z (P 1 ),..., f Z (P r ) } und N := min{ f Z (P 1 ),..., f Z (P r } und sei x K. Nach dem Satz ist x Konvexkombination der r r P 1,..., P r. Es gibt also s 1,..., s r R mit s i = 1 und mit x = s i P i. Es ist dann f Z (x) = f Z (x) = r s i f Z (P i ) i=1 r s i f Z (P i ) i=1 i=1 i=1 r r s i M = ( s i )M = 1 M = M und i=1 i=1 r r s i N = ( s i )N = 1 N = N. i=1 i=1 Anmerkung: Der Satz und der Hauptsatz legen ein erstes Verfahren zur Bestimmung von Maximum und Maximalstelle bzw. von Minimum und Minimalstelle eines f Z auf einem konvexen Polyeder K nahe: Man bestimme erst die Ecken P 1,..., P r von K, dann eine Ecke P mit dem Maximalwert M
9 8. LINEARE OPTIMIERUNG 188 und eine Ecke Q mit dem Minimalwert N von f Z auf { P 1,..., P r }. Das Verfahren stellt sich im Fall von Lösungsmengen K von linaren Ungleichungssystemen aus sehr vielen Ungleichungen als zu aufwendig heraus. In jedem Fall, auch zum Zwecke besserer Verfahren, muß man die Ecken von K genauer kennen Charakterisierung der Ecken. Kanten Tatsache 1 (Charakterisierung der Ecken) Seien A 1,, A,..., A k R 1 n und b 1, b,..., b k R. Dazu betrachte man das lineare Ungleichungssystem ( ) A i x b i, i = 1,.., k. Sei K die Lösungsmenge von ( ). Sei P K. Dann gilt: Es gibt n Indizes 1 i 1, i,.., i n k, so daß (i) die A i1,, A i,..., A in linear unabhängig P ist Ecke von K sind und (ii) P der eindeutig bestimmte Lösungspunkt des LGS A ij x = b i, j = 1,..., n, ist Erinnere: Weil die A i1,, A i,..., A ik linear unabhängig sind, ist die Koeffizientenmatrix des LGS A ij x = b i, j = 1,..., n, invertierbar und die Lösung ist eindeutig, d.h. ein einzelner Punkt P. Anmerkung Das in der Anmerkung in 8..4 zuvor angedachte Verfahren könnte mit dieser Charakterisierung der Ecken durchgeführt werden. Man kann hier aber den übergroßen Aufwand erkennen. Z.B. bei 1 Variablen und linearen Ungleichungen müßte man ( 1) = Systeme von 1-Tupel auf lineare Unabhängigkeit prüfen und bei jeder gefundenen Basis noch testen, ob die Lösungspunkte die anderen Ungleichungen erfüllen. Im Folgenden werden wir ein Verfahren, das Simplexverfahren, skizzieren, das ähnlich wie das Gaußverfahren mit erstaunlich wenig Aufwand die optimalen Ecken findet. Zuerst noch: Bezeichnung (benachbarte Kanten) Sei ( ) A i x b i, i = 1,.., k. ein lineares Ungleichungssystem wie in Tatsache 1 mit Lösungsmenge K. Sei eine Teilfolge A i1,, A i,..., A in+1 der A i, i = 1,..., k mit folgenden Eigenschaften: (1) Sowohl die A i1,, A i,..., A in als auch die A i1,, A i,..., A in 1, A in+1 sind linear unabhängig. () Der Lösungspunkt P des linearen Gleichungssystems A ij x = b i, j = 1,..., n, und der Lösungspunkt Q des LGS A ij x = b ij, j = 1,..., n 1, A in+1 x = b in=1 seien aus K, d.h. es sind Ecken von K.
10 8. LINEARE OPTIMIERUNG 189 Dann: P und Q heißen benachbarte Ecken von K und die Strecke P Q heißt eine Kante von K. 8. Das Simplexverfahren 8..1 Das Standardmaximumproblem und die Schlupfvariablen Wir gehen aus von dem Problem, wie es in 8..1 beschrieben ist. Das dortige (LUG) A i x b i, i = 1,.., m. schreiben wir in Analogie zu den linearen Gleichungssystemen kurz als Matrizenungleichung ( ) A x b. a 11 a 1 a 1n a 1 a a n Dabei sind A =.... Rm n, b = a m1 a m a mn Ungleichung ist koordinatenweise zu verstehen. b 1 b. b m Rm und die Bei den linearen Funktionen f Z,, Z R 1 n schreiben wir einfach Z(x) anstelle von f Z (x) In diesem Sinne: Standard-Maximumproblem: Seien A R m n, b R n mit b i für alle i = 1,..., m und sei Z = (z 1 z... z n ) R 1 n. Maximiere Z(x) = z 1 x 1 + z x z n z n unter den Nebenbedingungen (LUG) A x b und (NN) x i für alle i = 1,..., n. Anmerkung: Zur Einschränkung auf lineare Ungleichungen des Typs vergleiche die Bemerkung in Die Bechränkung der rechten Seite auf solche b i mit b i ist dagegen ein echte Einschränkung. Dadurch werden nur solche Probleme zugelassen, bei denen der Nullpunkt eine Ecke des zulässigen Bereiches ist. In diesem Fall kann das folgende Simplexverfahren sofort begonnen werden. Weil wir das Verfahren sowieso nur schematisch behandeln, wird unsere Darstellung durch diese Vereinfachung übersichtlicher und verständlicher. In der Praxis hat man Methoden, die ohne diese Einschränkung funktionieren. Bemerkung (Schlupfvariable): Zum Verständnis des folgenden Verfahrens sei noch folgendes aus dem theoretischen Hintergrund bemerkt. Zusätzlich zu den Anfangsvariablen x 1, x,... x n führt man noch zu jeder Ungleichung in (LUG) eine sogenannte Schlupfvariable ein:
11 8. LINEARE OPTIMIERUNG 19 Statt der linearen Ungleichungen a i1 x 1 + a i x + + a in x n b i, i = 1,..., m betrachtet man das lineare Gleichungssystem ( ) a i1 x 1 + a i x + + a in x n + y i = b i, i = 1,..., m Aus dem Ungleichungssystem (LUG) im R n ist dann ein Lineares Gleichungssystem von m Gleichungen im R n+m geworden. (Die Unbekannten sind die x 1,..., x n, y 1,..., y m.) Ausgangsschema (Ausgangstableaux): Vorzeile x 1 x x n y 1 y y m W q Vorspalte y 1 a 11 a 1 a 1n 1 b 1 y a 1 a a n 1 b y m a m1 a m a mn 1 b m Zielzeile z 1 z z n = w q-spalte Dieses Ausgangstableau entspricht der Ecke. In der Vorzeile stehen die n Variablen x j und die m Schlupfvariablen y i. Das W W für Wertespalte und das q sollen an die Rolle der beiden letzten Spalten erinnern. Da sich die Vorzeile nicht ändert,kann man sie im Verlauf des Verfahrens weglassen. In der Vorspalte stehen die y 1,..., y m in dieser Reihenfolge. Der Kern des Tableaus bildet die (m, n + m)-matrix (AE m ), das ist die erweiterte Koeffizientenmatrix des Gleichungssystems ( ) (oben, vor dem Tableau). Die ersten n Einträge in der Zielzeile sind die Koeffizienten der Zielfunktion, es folgen m Nullen. Das w in der letzten Spalte, der sogenannte Werteeintrag, ist der negative Wert der Zielfunktion an der betrachteten Ecke, am Anfang der Wert = Z(). Beim Simplex-Verfahren geht man längs ausgewählten Kanten schrittweise zu besseren benachbarten Ecken über. In der ersten Spalte wird der Eckentausch dokumentiert. Im Kern des Tableaus werden Gauß- Umformungen vorgenommen: Es wird an gewissen Stellen pivotiert. (Man sucht ja gewisse Lösungen des LGS ( ).) Die Tableaux zwischendurch sehen so aus: Die Einheitsspalten die i-te Einheitsspalte heißt auch i-te Basisspalte wandern, zumindest teilweise, von den letzten Spalten weg, die Nullen in der Zielzeile wandern mit. Mehr und mehr der Einträge in der Zielzeile werden negativ. Der Werteeintrag wird negativ und fällt ständig. In der Vorspalte erscheinen andere Unbekannte. Die Tableaux-Einträge werden in den neuen Tableaux auch wieder a ij, i = 1,, m, j = 1,, n + m(!), z j, j = 1,, n + m, z n+m+1 =: w, b i = 1 = 1,, m genannt.
12 8. LINEARE OPTIMIERUNG 191 Simplex-Verfahren für das Standard-Maximum-Problem: Beginne mit dem Ausgangstableau. 1 Gibt es in der Zielzeile Einträge >? Wenn nein, gehe zu. Wenn ja, gehe zu. (i) Wähle eine Spalte j (1 j n + m) aus, wo der Eintrag in der Zielzeile > ist (i.a. ein j, wo dieser Eintrag am größten ist). (Dieser Schritt bestimmt die Kante, längs der wir die noch nicht optimale Ecke verlassen.) (ii) Sind alle a ij, i = 1,..., m, so ist der zulässige Bereich unbeschränkt. Die Zielfunktion wächst unbeschränkt und hat kein Maximum. Breche das Verfahren ab! (iii) Für die positiven Einträge a ij in der Spalte bilde die Quotienten =: q i. Notiere die q i in der q-spalte rechts von der Spalte b. (Ist a ij, so bleibt die q-spalte in der i-ten Zeile leer.) (iv) Wähle unter den positiven q i eines mit kleinstem Betrag. Nenne dessen Index im folgenden i. (Dieser Schritt die Engpaß -Bedingung garantiert, daß wir längs der gewählten Kante das zulässige K nicht verlassen, also zu einer benachbarten Ecke gelangen.) (v) Pivotiere die Spalte j beim Eintrag (i, j ) aus, d.h. mache die j -te Spalte durch erlaubte Zeilenumformungen zur i -ten Einheitsspalte in R m+1 (d.h. auch z j wird zur gemacht.) Die Zeilenumformungen werden auf das ganze Tableau bis zur Spalte n + m + 1 (d.i. die Spalte ( b w) ) einschließlich ausgeübt. (vi) Sehe die Spalte j als neue i te Basisspalte. Schreibe den Eintrag der Vorzeile in der j -te Spalte als Eintrag in die Zeile i der Vorspalte. Gehe zu 1. Das Verfahren ist zu Ende. Ist w der Wert im Werteeintrag, so ist w das Maximum von Z auf K. Sind 1 i 1,, i n n + m die Spalten, die keine Basisspalten sind, so ist die optimale Ecke durch Gleichsetzen der Ungleichungen i 1,, i n bestimmt (die Ungleichungen 1,, n sind dabei die Nichtnegativitätsbedingungen x i, i = 1,, n; die Ungleichungen n + i, i = 1,, m, sind die Ungleichungen aus dem LUG)). b i a ij Bestimmung der Koordinaten der optimalen Ecke: Betrachte das Endtableau. Betrachte diejenigen x j, die darin in der Vorspalte auftreten. Die Zeile, in der x j steht, sei die Zeile i j. Dann: Setze x j := b ij. Die x j, die nicht in der Vorspalte auftreten, werden gesetzt. Dann: x 1 x Der resultierende Punkt x =. ist eine Ecke, wo f Z sein Maximum w auf K hat. x n
13 8. LINEARE OPTIMIERUNG 19 Anders erklärt: Betrachte das Endtableau und darin die Spalten 1 bis n. Nehme die j-te Spalte, j = 1,..., n. 1. Fall: Sie ist keine Basisspalte. Dann: Setze x j :=.. Fall: Sie ist eine Basis-, also eine Einheitsspalte, etwa die i j -te Einheitsspalte. Dann: Setze x j := b ij (das x j ist dann der Eintrag der Zeile i j in der W-Spalte). Das ist der Eintrag in derjenigen Zeile der Wertespalte W, in der die j-te Spalte ihre 1 hat. x 1 x Ergebnis: x =. x n mit den so definierten x j ist optimale Ecke zu dem optimalen Wert w im Endtableau (das ist der Eintrag in der Wertestelle unten rechts). Unser Beispiel aus 8..1 : x 1 x y 1 y y y 4 w q i = kleinstes q i > j = w q i = 1 y kleinstes q i > y x 1 4 y j = q 1 x y x 1 4 y = - optimaler Wert < Ablesedaten j = 1 : i 1 = 1, x 1 = b 1 = j = : i =, x = b = 4 < und X = ( 4 ) Koordinaten des optimalen Punktes mit optimalem Wert 6. Noch abzulesen: Die Ungleichungen und 4 sind strikte Ungleichungen im optimalen Punkt. Es sind y = und y 4 = 1. (Dabei: y j in der Vorspalte = das entsprechende b ij in der Wertespalte! )
14 8. LINEARE OPTIMIERUNG 19 Ein weiteres Rechenbeispiel: Maximiere Z(x) = x 1 x + x + x 4 unter den Restriktionen: (i) x 1 x + x + x 4 8 (ii) x 1 + x x + x 4 5 (iii) x 1 + x x + 4x 4 6 und den Nichtnegativitätsbedingungen x i, i = 1, x 1 x x x 4 y 1 y y w q y y y x y y x x y Ergebnis: Man hat x = 4, x = 1, x 1 =, x 4 = und y = 95, y 1 =, y =. Also: xmax := 1 4 ist optimaler Punkt zum optimalen Wert 76. Außerdem: xmax ist Schnittpunkt von, x 1 =, x 4 = und der durch (i) und (ii) gegebenen Gleichungen. Als Übung und zum Vergleich: Das gleiche Beispiel auf einem anderen Rechenweg: x 1 x x x 4 y 1 y y w q y y y y 1 7 x y
15 8. LINEARE OPTIMIERUNG 194 x x 1 1 y x 4 x 1 y Hinweis: Es spart Rechenarbeit, bei jedem neuen Tableau zuerst die letzte Zeile (die Zielzeile) auszurechnen. Ist das Optimalitätskriterium (d.h. alle Einträge ) erfüllt, so braucht man nur noch die letzte Spalte auszurechnen und die Vorspalte auf den neuesten Stand zu bringen. Das Ergebnis läßt sich dann bereits ablesen. 8.4 Minimumaufgaben und das duale Problem Eine konkrete Minimierungsaufgabe Beispiel: Eine kostenoptimale Futtermischung. Gegeben: Futtersorten F 1, F und 4 Vitamine V 1, V, V, V 4 Die folgende Tabelle gibt den Gehalt an Einheiten der Vitamine in je 1g der Futtermittel und den Tagesbedarf an Vitaminen an: Vitamine Gehalt im Futtermittel Minimalbedarf F 1 F V V V V Die Preise der Futtermittel sind pro 1g : 1,5 Euro für F 1 und 1 Euro für F. Eine weitere Bedingung: Der Höchstbedarf pro Tag ist kg = 1g pro Tag. Sei ( x 1 x ) der Futtermittelverbrauch pro Tag (in Einheiten von 1 g) Mathematisierung: Kosten-(Ziel-)Funktion: Z(x) := 1, 5x 1 + x Nicht-Negativitätsbedingung: x 1, x
16 8. LINEARE OPTIMIERUNG 195 Restriktionen: Geometrisches Bild x 1 + x ( x 1 x ) 6x 1 + x 7x 1 + 4x 71 6x 1 + 1x 1 x 1 + 9x 7 Optimaler Punkt: Schnitt von G 4 mit G : xmax = ( x 1 ) ( x = 5 ) 9 Minimale Kosten: 16,5 Euro (erhalten duch Einsetzen von xmax in die Zielfunktion) 8.4. Standardminimumproblem und das duale Problem Das folgende Optimierungsproblem heißt Standard-Minimumproblem. Wir formulieren das Problem als ein Minimierungsproblem für Tupel y R m und geben auch den Matrizen, welche die Ungleichungen beschreiben, und der Zielfunktion neue Namen, um den Übergang zum dualen Problem deutlicher formulieren zu können. Standardminimumproblem: Seien T = (t 1 t... t m ) R 1 m, C R n m, d R n. Minimiere T (y) = t 1 y t m y m unter C y d und y i, i = 1,..., m. Mitteilung In der Theorie der Linearen Optimierung gibt es ein Dualitätsprinzip, das sich als wesentlich zum richtigen Verständnis der Theorie erwiesen und auch praktische Anwendungen hat. Wir gehen ganz kurz auf dieses Prinzip ein.
17 8. LINEARE OPTIMIERUNG 196 Das zu einem Standardmaximumproblem duale Standardminimumproblem: Zu A R m n, b R m und Z = (z 1 z... z n ) R 1 n sei folgendes Maximierungsproblem betrachtet: Maximiere Z(x) = z 1 x 1 + z x z n z n (MAX) unter A x b und x i für alle i = 1,..., n. Man transponiert nun die vorkommenden Matrizen: T := b t! R 1 m, C := A t! R n m, d := Z t! R n und betrachtet das zugehörige Standardminimumproblem Minimiere T (y) = t 1 y 1 + t y t n y m (MIN) unter C y d und y i für alle i = 1,..., m. Definition Die Optimierungsprobleme (MAX) und (MIN) heißen dual zueinander. Bemerke: Wegen (Z t ) t = Z, (A t ) t = A, (b t ) t = b gewinnt man das Maximumproblem (MAX) aus dem Minimumproblem (MIN) durch ein analoges Dualisierungsverfahren zurück. Zusammenfassung: Gemäß der Definition von T, C, d hat man für die zueinander dualen Probleme (MAX) und (MIN) folgenden Zusammenhang: Maximiere Z(x) = Z x Minimiere T (y) = b t y (MAX) unter A x b (MIN) unter A t y Z t und x i, i = 1,..., n und y i, i = 1,..., m Demonstration an unserem Beispiel aus : Es ist: Z = ( ), A = , b = Bei diesen Daten haben wir im Minimumproblem die erste Ungleichung von x 1 + x umgeschrieben in die Standardform x 1 x. Die transponierten Matrizen sind b t = ( ), A t = ( ) und Z t = ( ) Das zum Minimumproblem in duale Maximumproblem ist also das Folgende:
18 8. LINEARE OPTIMIERUNG 197 Maximiere T (y) = y 1 + y + 71y = 1y 4 + 7y 5 unter y 1 + 6y + 7y + 6y 4 + y 5 1, 5 und y i Es gilt der entscheidende Dualitätssatz: y 1 + y + 4y + 1y 4 + 9y 5 1 (1) Der zulässige Bereich eines Standardminimumproblems ist genau dann nicht leer, wenn der zulässige Bereich des dazu dualen Maximumproblems nicht leer ist. () Ein Standardminimumproblem hat genau dann eine Lösung (d.h. die Funktion T (x) hat ein Minimum auf dem zulässigen Bereich), wenn das dazu duale Maximumproblem eine Lösung (d.h. ein Maximum auf seinem zulässigen Bereich) hat. () Wenn die beiden Probleme eine Lösung haben, sind die optimalen Werte gleich: Das Minimum des Mimimumproblems ist gleich dem Maximum des dazu dualen Maximumproblems. Zusatz: Wenn sich das Maximumproblem mit dem Simplexalgorithmus lösen läßt, erhält man die optimale Ecke des Minimumproblems auf folgende Weise: Die Einträge von der (n + 1)-ten bis zur (n + m)-ten Spalte der Zielzeile des Endtableaus des Maximumproblems sind die negativen Koordinaten des optimalen Punktes des Minimumproblems. D.h. ist ( z 1... z n z n+1... z n+m w ) die Zielzeile dieses Endtableaus, so ist z n+1 z n+ x = optimale Ecke und der optimale Wert (das Minimum) ist w.. z n+m Ablese-Beispiel: Angenommen, das duale Maximumproblem hat als Endtableau Dann: Das Ausgangs-Minimumproblem hat den minimalen Wert w min = 45, und zwar bei der Ecke x = 15 Anmerkung: Bei uns kann man das Minimumproblem mittels Simplexverfahren für das duale Maximumproblem nur dann lösen, wenn dieses duale Maximumproblem die Voraussetzung b erfüllt, die wir für unser Simplexverfahren brauchten. Für das Minimumproblem heißt das: Es muß T, d.h. alle Koeffizienten t i, der Zielfunktion müssen größer-gleich sein. (Dann das werden die Einträge auf der rechten Seite dualen Maximumproblems.)
19 8. LINEARE OPTIMIERUNG 198 Also etwa: Das explizit behandelte Beispiel aus kann mit unserem Simplexverfahren nicht auf dem Umweg über das duale Maximumprogramm behandelt werden. Denn in der Zielfunktion in Standardform ist der erste Koeffizient gleich -.
20 8. LINEARE OPTIMIERUNG Aufgaben Aufgabe 1. Zeichnen Sie den durch die folgenden Ungleichungen beschriebenen Bereich des R : x 1 + 7x 7 5x 1 + 4x 4 11x 1 18x 44 x 1 + x 4 x 1 x 5 x 1, x und untersuchen Sie unter diesen Nebenbedingungen die Lösungen folgender linearer Optimierungsprobleme: a) min f(x) mit f(x) = x 1 + x b) max f(x) mit f(x) = x 1 + x c) max f(x) mit f(x) = x 1 x d) min f(x) mit f(x) = x 1 + x Aufgabe. Ein Kaufmann hat kg Nüsse und kg Rosinen zum Preis von 9 EUR bzw. 5 EUR je kg eingekauft. Er kann die Nüsse und Rosinen zum Preis von 1 EUR bzw. 7 EUR verkaufen. Er kann aber auch eine Mischung aus beiden herstellen und sie unter dem Namen,,Studentenfutter verkaufen. Der Preis dieser Mischung soll 1 EUR je kg betragen. Dabei muss aber der Anteil der Nüsse mindestens 5% ausmachen. Welche Verkaufsweise ist für den Kaufmann am günstigsten? Aufgabe. Untersuchen Sie graphisch auf Lösbarkeit: a) max x 1 + x x 1 + 5x 5 x 1 + 5x 6 x 1 + x x 1 1 x 1, x b) max x 1 x x 1 + x x 1 x x 1, x c) min 4x 1 5x x 1 + 4x 8 x 1 + 4x 1 x 1 x x 1, x Aufgabe 4. Bestimmen Sie mit Hilfe des Simplex-Algorithmus das Maximum der Zielfunktion unter den Nebenbedingungen: Z(x) = x 1 + x x 1 + 7x 7 11x 1 18x 44 x 1 + x 4 x 1 + x 5 x 1, x Vergleichen Sie den Algorithmus mit der graphischen Lösung (vgl. auch Aufgabe 1).
1 Lineare Optimierung, Simplex-Verfahren
1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und
Optimierung. Vorlesung 02
Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j
7.1 Matrizen und Vektore
7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit
Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.
Kapitel 5 Lineare Algebra 51 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen
Teil I. Lineare Optimierung
Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,
Kombinatorische Optimierung
Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:
Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten
1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)
. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)
Lineare Optimierung und Simplex-Algorithmus
Lineare Optimierung und Simplex-Algorithmus Problemstellung Beispiel : Unser Unternehmen verfügt über drei Maschinen A, B, C, mit denen zwei verschiedene Produkte P, P2 hergestellt werden. Die Maschinen
Eigenschaften von LPs
2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört
Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme
Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter
mit. Wir definieren (Skalarprodukt = Winkel).
1 Grundidee des Simplexverfahrens (von George Dantzig): Man bestimmt eine beliebige Ecke (Extremalpunkt) einer Lösungsmenge eines Ungleichungssystems. Nun geht man an den Kanten vom Punkt entlang und kontrolliert
VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind
Lineare (Un-)Gleichungen und lineare Optimierung
Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik Universität Innsbruck Lehrer/innen/fortbildungstag Wien 2010 9. April 2010 Eine Maximumsaufgabe Eine Firma stellt aus
Lineare Gleichungssysteme
Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare
VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung
Die duale Simplexmethode
Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen
Lineare Optimierung Dantzig 1947
Lineare Optimierung Dantzig 947 Lineare Optimierungs-Aufgaben lassen sich mit Maple direkt lösen: with(simplex): g:= 4*x + x2
Lineare Gleichungssysteme - Grundlagen
Lineare Gleichungssysteme - Grundlagen Betrachtet wird ein System linearer Gleichungen (im deutschen Sprachraum: lineares Gleichungssystem mit m Gleichungen für n Unbekannte, m, n N. Gegeben sind m n Elemente
Lineare Algebra 1. Roger Burkhardt
Lineare Algebra 1 Roger Burkhardt [email protected] Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 1 Einführung Lineare Gleichungen Definition
Optimale Steuerung 1 Prozessoptimierung 1
Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung
Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner
Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1 Vortrag: Lineare Gleichungen am 11. März 2009 von Maximilian Wahner Technische Universität Dortmund Fakultät für Mathematik Proseminar Lineare
3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)
3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände
Aufgaben zu Kapitel 23
Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Verständnisfragen Aufgabe 23 Bestimmen Sie grafisch die optimale Lösung x der Zielfunktion z = c T x unter den Nebenbedingungen mit dem Zielfunktionsvektor
Lineare (Un-)Gleichungen und lineare Optimierung
Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-6020 Innsbruck, Österreich [email protected] 1 Einleitung In der linearen
4.3.3 Simplexiteration
7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige
05. Lineare Gleichungssysteme
05 Lineare Gleichungssysteme Wir betrachten ein System von m Gleichungen in n Unbestimmten (Unbekannten) x 1,, x n von der Form a 11 x 1 + a 12 x 2 + a 13 x 3 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + a
Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 4 Simplex-Verfahren Peter Becker (H-BRS) Operations Research I Sommersemester 24 86 / 298 Inhalt Inhalt 4 Simplex-Verfahren Dualer Simplexalgorithmus Vermeidung von Zyklen Peter Becker (H-BRS)
LINEARE ALGEBRA II. FÜR PHYSIKER
LINEARE ALGEBRA II FÜR PHYSIKER BÁLINT FARKAS 4 Rechnen mit Matrizen In diesem Kapitel werden wir zunächst die so genannten elementaren Umformungen studieren, die es ermöglichen eine Matrix auf besonders
Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.
Kapitel 5 Lineare Algebra 5 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen
Optimierung für Wirtschaftsinformatiker: Lineare Programme
Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen
Dualitätssätze der linearen Optimierung
Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =
Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung
Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen Kapitel IV: Grundlagen der Linearen Optimierung Inhaltsverzeichnis Abschnitt 3-5 3 Der Simplexalgorithmus 58 3.1 Grundlagen..............................
8. Lineare Optimierung
8. Lineare Optimierung 1 Einführung (1) Praktische Probleme sind oft Probleme mit Nebenbedingungen, z.b.: Ein Produktionsprozess hängt von Lieferterminen ab Die Menge der verstaubaren Güter ist durch die
Lineare Algebra I (WS 12/13)
Lineare Algebra I (WS 12/13) Bernhard Hanke Universität Augsburg 17.10.2012 Bernhard Hanke 1 / 9 Wir beschreiben den folgenden Algorithmus zur Lösung linearer Gleichungssysteme, das sogenannte Gaußsche
4. Vektorräume und Gleichungssysteme
technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 41 und 42 4 Vektorräume
1 Der Simplex Algorithmus I
1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier
ist ein Polyeder. c) Sei F eine Seite von P. Wann ist f 1 (F ) eine Seite von f 1 (P )? Begründen Sie Ihre Antwort. x 1. x = max{ x i i N n }.
alteklausuraufgaben 1 LinOpt Klausur Sommersemester 05 Aufgabe 1 a) Definieren Sie den Begriff der konischen Hülle. b) Sei S R n. Zeigen Sie: Cone S = Lin S x S : x Cone (S \ {x}). Aufgabe 2 a) Definieren
A2.3 Lineare Gleichungssysteme
A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen
5 Lineare Gleichungssysteme und Determinanten
5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von
Lineare Optimierung: Simplexverfahren Phase Ⅰ
Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren
Über- und unterbestimmte
Über- und unterbestimmte Systeme (verallgemeinerte Lösungen) Über- und unterbestimmte Systeme Ax = b ist genau dann für alle b R m eindeutig lösbar, wenn m = n und rk A = n. Falls m n oder rk A < min{m,
2.2 Lineare Gleichungssysteme (LGS)
2.2 Lineare Gleichungssysteme (LGS) Definition 2.2.. Ein LGS über einem Körper K von m Gleichungen in n Unbekannten x,..., x n ist ein Gleichungssystem der Form a x + a 2 x 2 +... + a n x n = b a 2 x +
Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018
(Analysis und lineare Algebra) im Sommersemester 2018 15. April 2018 1/46 Die Dimension eines Vektorraums Satz 2.27 (Basisergänzungssatz) Sei V ein Vektorraum über einem Körper K. Weiter seien v 1,...,
2 Lineare Gleichungssysteme
2 Lineare Gleichungssysteme Betrachte ein beliebiges System von m linearen Gleichungen in den n Unbekannten x,,x n : a x + a 2 x 2 + + a n x n = b a 2 x + a 22 x 2 + + a 2n x n = b 2 () a m x + a m2 x
1 Lineare Gleichungssysteme und Matrizen
1 Lineare Gleichungssysteme und Matrizen Das Studium linearer Gleichungssysteme und ihrer Lösungen ist eines der wichtigsten Themen der linearen Algebra. Wir werden zunächst einige grundlegende Begriffe
Übungsbeispiel 1: Quadratische Modellierung
Übungsbeispiel 1: Quadratische Modellierung Ein Uhrenhersteller möchte den Preis für sein neues Modell festlegen und führt dazu eine Marktanalyse durch. Das Ergebnis lautet: Bei einem Preis von 60 ist
Übung 3, Simplex-Algorithmus
Übung 3, 21.6.2011 Simplex-Algorithmus Aufgabe 3.1 Lösen Sie das folgende Optimierungsproblem (von Aufgabe 2.3) graphisch. Substituieren Sie dazu z = 5 y um ein 2-dimensionales Problem zu erhalten. Rechnung
9 Lineare Gleichungssysteme
9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der
Lineare Algebra 1. Roger Burkhardt
Lineare Algebra 1 Roger Burkhardt [email protected] Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 2 Rechenoperationen und Gesetze Gleichheit
3.4 Der Gaußsche Algorithmus
94 34 Der Gaußsche Algorithmus Wir kommen jetzt zur expliziten numerischen Lösung des eingangs als eine Motivierung für die Lineare Algebra angegebenen linearen Gleichungssystems 341 n 1 a ik x k = b i,
10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen
10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie
2 Die Dimension eines Vektorraums
2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1
Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005
Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung
6 Lineare Gleichungssysteme
6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α
Wirtschaftsmathematik für International Management (BA)
Wirtschaftsmathematik für International Management (BA) Wintersemester 2012/13 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Lineare Algebra 4 Lineare Programme 5 Folgen und Reihen 6
1 Lineare Unabhängigkeit Äquivalente Definition Geometrische Interpretation Vektorräume und Basen 6
Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik Dr. Thomas Zehrt Vektorräume und Rang einer Matrix Inhaltsverzeichnis Lineare Unabhängigkeit. Äquivalente Definition.............................
4 Der Gauß Algorithmus
4 Der Gauß Algorithmus Rechenverfahren zur Lösung homogener linearer Gleichungssysteme Wir betrachten ein GLS (1) a 11 x 1 + a 1 x + + a 1n x n = a 1 x 1 + a x + + a n x n = a m1 x 1 + a m x + + a mn x
1 Transponieren, Diagonal- und Dreiecksmatrizen
Technische Universität München Thomas Reifenberger Ferienkurs Lineare Algebra für Physiker Vorlesung Mittwoch WS 2008/09 1 Transponieren, Diagonal- und Dreiecksmatrizen Definition 11 Transponierte Matrix
14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert
14 Optimierung unter Nebenbedingungen 14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert [1] Lösen sie die folgenden Probleme, indem Sie diese auf ein univariates Problem zurückführen. Zeigen
Produktionsplanung und Lineare Optimierung im Rahmen des Projekts Mathematik und Ökonomie 12./13. November 2003 in Düsseldorf.
Übungsaufgaben Aufgabe 1a Medikamentenmischung Ein Pharmaziehersteller möchte ein neues Medikament auf den Markt bringen. Das Medikament kann aus vier verschiedenen Komponenten (K1 K4) zusammengestellt
Kuhn-Tucker Bedingung
Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,
Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { }
Zur Einleitung: Lineare Gleichungssysteme Wir untersuchen zunächst mit Methoden, die Sie vermutlich aus der Schule kennen, explizit einige kleine lineare Gleichungssysteme. Das Gleichungssystem I wird
Lineare Optimierung Teil 2
Lineare Optimierung Teil 2 Primale Degeneration Duale Degeneration = Mehrdeutigkeit Normalform kanonische Form Duale Simplexmethode HTW-Berlin FB3 Prof. Dr.F. Hartl 1 Primale Degeneration/1 Besitzt eine
Aufgabe: Stelle die Lösungsmenge des folgenden Ungleichungssystems dar:
Lineare Optimierung. Lineare Ungleichungsssteme Unter der Lösung einer linearen Ungleichung in den Variablen und versteht man die reellen Zahlenpaare (, ), welche die Ungleichung erfüllen. Stellt man diese
Vektoren und Matrizen
Universität Basel Wirtschaftswissenschaftliches Zentrum Vektoren und Matrizen Dr. Thomas Zehrt Inhalt: 1. Vektoren (a) Einführung (b) Linearkombinationen (c) Länge eines Vektors (d) Skalarprodukt (e) Geraden
3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.
Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme
Kap. 4: Lineare Programmierung
Kap. 4: Lineare Programmierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 13./14. VO A&D WS 08/09 27.11./2.12.2008 Petra Mutzel Alg. & Dat.
3 Systeme linearer Gleichungen
3 Systeme linearer Gleichungen Wir wenden uns nun dem Problem der Lösung linearer Gleichungssysteme zu. Beispiel 3.1: Wir betrachten etwa das folgende System linearer Gleichungen: y + 2z = 1 (1) x 2y +
5.7 Lineare Abhängigkeit, Basis und Dimension
8 Kapitel 5. Lineare Algebra 5.7 Lineare Abhängigkeit, Basis und Dimension Seien v,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von v,...,v n, nämlich { n
Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok
Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html [email protected]
Lineare Gleichungssysteme
KAPITEL 2 Lineare Gleichungssysteme. Beispiele Wir betrachten zunächst vier Gleichungssysteme und bestimmen ihre Lösungsmenge. Dabei geht es uns noch nicht darum, ein Lösungsverfahren für lineare Gleichungssysteme
Lineare Algebra I (WS 12/13)
Lineare Algebra I (WS 12/13) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 18.10.2012 Alexander Lytchak 1 / 12 Lineare Gleichungssysteme Wir untersuchen nun allgemeiner Gleichungssysteme der
(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung)
Lineare Optimierung Unterbestimmte LGS und Optimierung Bei lösbaren unterbestimmten linearen Gleichungssystemen haben wir die Qual der Wahl in Abhängigkeit von den freien Parametern (Anzahl = Anzahl Unbekannte
37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
Numerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)
Musterlösung - Aufgabenblatt 7. Aufgabe 1
Musterlösung - Aufgabenblatt 7 Aufgabe Sei C R n eine nicht-leere abgeschlossene und konvexe Menge. Wir wollen zeigen, dass C als der Durchschnitt ihrer stützenden Halbräume dargestellt werden kann, d.h.
Kapitel 15 Lineare Gleichungssysteme
Kapitel 15 Lineare Gleichungssysteme Kapitel 15 Lineare Gleichungssysteme Mathematischer Vorkurs TU Dortmund Seite 1 / 27 Kapitel 15 Lineare Gleichungssysteme Definition 15.1 (Lineares Gleichungssystem
Mitschrift der Vorlesung: Kombinatorische Optimierung
Mitschrift der Vorlesung: Kombinatorische Optimierung bei Prof. Socher-Ambrosius Niels-Peter de Witt 26. April 2002 Inhaltsverzeichnis 1 Einführung 2 1.1 Beispiel: Profil zersägen.......................
Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { }
Zur Einleitung: Lineare Gleichungssysteme Wir untersuchen zunächst mit Methoden, die Sie vermutlich aus der Schule kennen, explizit einige kleine lineare Gleichungssysteme. Das Gleichungssystem I wird
Kapitel 13. Lineare Gleichungssysteme und Basen
Kapitel 13. Lineare Gleichungssysteme und Basen Matrixform des Rangsatzes Satz. Sei A eine m n-matrix mit den Spalten v 1, v 2,..., v n. A habe den Rang r. Dann ist die Lösungsmenge L := x 1 x 2. x n x
9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018
(Analysis und lineare Algebra) im Sommersemester 2018 5. April 2018 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html
Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html
Lineare Algebra 1. Roger Burkhardt
Lineare Algebra 1 Roger Burkhardt [email protected] Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 3 und lineare Gleichungssysteme und
Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen
Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden
1. Hausaufgabenblatt (16.04./ )
Lehrstuhl Ingenieurmathematik Modul: (Wirtschaftsingenieurwesen/Betriebswirtschaftslehre/Informatik) Sommersemester 2014 1. Hausaufgabenblatt (16.04./23.04.2015) Aufgabe H 1.1 Lösen Sie die linearen Gleichungssysteme
FK WMS: Wirtschaftsmathematik 2, Einheit 7/8
FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 [email protected] http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.
K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom
Übungsaufgaben 11. Übung: Woche vom 9. 1.-13. 1. 2017 (Numerik): Heft Ü 1: 12.28.a,b; 12.29.b,c (jeweils mit Fehlerabschätzung); 6.26; 6.27.a (auch mit Lagrange-Interpolationspolynom); 6.25; 6.28 (auch
3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit
3 Lineare Algebra (Teil : Lineare Unabhängigkeit 3. Der Vektorraum R n Die Menge R n aller n-dimensionalen Spalten a reeller Zahlen a,..., a n R bildet bezüglich der Addition a b a + b a + b. +. :=. (53
