6 Lineare Optimierung
|
|
|
- Insa Althaus
- vor 8 Jahren
- Abrufe
Transkript
1 6 Lineare Optimierung Um die Aufgabenstellung deutlich zu machen, beginnen wir mit einem (natürlich sehr vereinfachten) Beispiel: Produtionsplan einer (zugegebenermaßen sehr leinen) Schuhfabri. Hergestellt werden sollen Damen und Herrenschuhe, und zwar jeweils nur ein odell. Die Produtionsbedingungen ergeben sich aus der folgenden Tabelle. Damenschuh Herrenschuh verfügbar Herstellungszeit [h] aschinenbearbeitung [h] Lederbedarf [dm 2 ] Reingewinn [Euro] Unter der Annahme, daß eine Absatzschwierigeiten entstehen, soll berechnet werden, wieviele Damen und Herrenschuhe hergestellt werden müssen, damit der Gewinn optimal wird, natürlich unter Einhaltung obiger Restritionen. athematische Formulierung: Sei die Zahl der produzierten Damenschuhe, die Zahl der produzierten Herrenschuhe. Dann lauten die Produtionsbedingungen: (i) 4x (ii) (iii) (iv) (v) (6.1) Gesucht sind Zahlen (, ), die diesen Ungleichungen genügen und den Gewinn maximieren, also Gewinn: f(, ) = = max. (6.2) Die Funtion f aus (6.2) heißt Zielfuntion, die Ungleichungen (6.1) heißen Nebenbedingungen. In diesem Beispiel ann man sich die Lösung geometrisch veranschaulichen. Gleichzeitig legt es die Lösungsidee für den allgemeinen Fall nahe. Die Ungleichungen (6.1) beschreiben Halbebenen in IR 2, die durch Geraden begrenzt werden (vgl. Zeichnung). Der Durchschnitt aller dieser Halbebenen beschreibt den zulässigen Bereich aller der Puntepaare (, ), die den Ungleichungen (6.1) genügen. f(, ) = =, mit variablem, beschreibt eine Geradenschar. Es ist ein maximales m derart zu bestimmen, daß (mindestens) ein Punt des zulässigen Bereichs auf der Geraden f(, ) = m liegt. 60
2 Wachstumsrichtung von (v) (iv) (i) (ii) (iii) Die geometrische Lösung ist nun einfach. an verschiebt die Geradenschar so lange im Sinne fallender, bis zum ersten al ein Punt aus auf einer Geraden liegt oder, falls die Geradenschar die gleiche Steigung hat wie eine Begrenzungsstrece von, sogar eine ganze Strece. Dieser Punt oder alle Punte der genannten Strece optimieren die Zielfuntion. Wir wollen uns an weiteren Beispielen dieser Art lar machen, was je nach Beschaffenheit von (zulässiger Bereich) und f (Zielfuntion) passieren ann. 1) falls nicht beschränt ist, ann f ein aximum annehmen, es muß dies aber nicht. 2) = ist möglich. 61
3 3) Die optimale Lösung ann, muß aber nicht eindeutig sein. 4) Es gibt überflüssige Nebenbedingungen. Fazit: Alle Beispiele zeigen: Wenn eine optimale Lösung existiert, dann wird sie (vielleicht nicht nur, aber auch) in einer Ece des zulässigen Bereichs angenommen. Im allgemeinen Fall wird ein lineares Optimierungsproblem die folgende Gestalt haben c 1 + c c n x n = max a 11 + a a 1n x n b 1 a a 2n x n b 2. a m1 + + a mn x n b m. x n 62
4 Wir schreiben das urz in atrixschreibweise. it c T = (c 1,...,c n ) IR n, A = (a ij ) IR m n, x T = (,..., x n ) IR n, b T = (b 1,..., b m ) IR m folgt c T x = max A x b x (L ) c T x heißt Zielfuntion, = {x IR n, Ax b, x } zulässiger Bereich. Ax b und x sind im Sinne obiger Ungleichungen omponentenweise zu verstehen. Die Elemente heißen zulässige Punte (zulässige Lösungen) und ein zulässiges x heißt optimal, wenn für alle zulässigen Vetoren y gilt c T x c T y. Natürlich sind auch andere Formulierungen von (L ) möglich und gebräuchlich. Dies hängt von der jeweiligen Aufgabenstellung ab. Wir stellen sie hier urz zusammen und zeigen, wie sie sich ineinander überführen lassen (um einen möglichst allgemeinen Typ von Optimierungsaufgaben behandeln zu önnen). a) Eine aximierungsaufgabe wird zu einer inimierungsaufgabe durch Übergang zum Negativen der Zielfuntion. b) Eine Ungleichung c T x = max c T x = min a i a in x n b i ann durch Einführen einer Schlupfvariablen y i in eine Gleichung a i a in x n + y i = b i überführt werden. c) Tritt eine Gleichung als Nebenbedingung auf, a j a jn x n = b j, so ann sie durch 2 Ungleichungen ersetzt werden: a j a jn x n b j a j1... a jn x n b j d) Eine Komponente x i von x, für die eine Vorzeichenbedingung besteht, ann ersetzt werden durch den Ausdruc x i = x i+ x i und die Forderung x i+, x i. Vorsicht: Diese Zerlegung muß auch in der Zielfuntion berücsichtigt werden. e) Jede Ungleichung ann durch ultipliation mit 1 in eine Ungleichung überführt werden (und umgeehrt). 63
5 Insbesondere ann also jede Optimierungsaufgabe mit linearer Zielfuntion und linearen Nebenbedingungen in die folgende Form gebracht werden c T x = min Ax = b (L) x, wobei c IR n, A IR m n, b IR m gegeben sind. Wir verdeutlichen an einem Beispiel die Überführung einer vorgelegten Aufgabe in die Form (L). an beachte dabei, daß sich bei Einführung von Schlupfvariablen die Zahl der Nebenbedingungen vergrößert und daß insbesondere bei Ersetzung einer nicht vorzeichenbeschränten Variablen durch 2 Ungleichungen (im Beispiel +, ) sich auch i.a. die Variablenanzahl mit Koeffizienten 0 in der Zielfuntion vergrößert. Beispiel: Die Aufgabe = max wird so zu nicht vorzeichenbeschränt y 1 + 0y 2 + 0y 3 = min unter y 1 = y 2 = y 3 = y 1 y 2 y 3 c T x = min, x = (+,,, y 1, y 2, y 3 ) T, c = (2, 2, 3, 0, 0, 0) T IR 6 Ax = b, A = (a 1, a 1, a 2, I m ) IR m n, a 1 = ( 1, 1, 1) T, a 2 = ( 1, 1, 0) T x, m = 3 = Zahl der Gleichungen < n = 6 = Zahl der Variablen 64
6 Bemerungen zur Form (L): Das Fazit aus den Beispielen 1) 4) läßt vermuten, daß Ecen bei der Lösung der Optimierungsprobleme eine wesentliche Rolle spielen werden. In IR 2 und IR 3 lassen sich Ecen als Schnittpunte von Geraden oder Ebenen, also durch Gleichungen beschreiben. Obwohl in den meisten Fällen Nebenbedingungen durch Ungleichungen gegeben werden ( Ax b ), ist es deshalb günstiger, sie in Form von Gleichungen und leichter zu behandelnden Vorzeichenrestritionen darzustellen. Um zu einer Lösungsidee für das Problem (L) zu ommen, ehren wir nochmals zu den anfangs betrachteten Beispielen 1) 4) zurüc. Da die optimale Lösung auch immer in einer Ece angenommen wird, liegt es nahe, alle Ecen zu bestimmen, in ihnen den Zielfuntionswert zu berechnen und die Ece mit dem optimalen Zielfuntionswert auszuwählen. Dieses Vorgehen ist problematisch, weil es einerseits, insbesondere bei vielen Ungleichungsrestritionen, schwierig sein wird, alle Ecen zu bestimmen, und andererseits dabei viele Ecen umsonst berechnet werden. Erfolgversprechend ist die nächste Idee: an beginne mit einer Ece (wie findet man die?), bestimme in dieser Ece den Zielfuntionswert und gehe dann längs einer Kante, längs der der Zielfuntionswert abnimmt, zu einer Nachbarece über und bestimme deren Zielfuntionswert usw., bis man am inimum angelangt ist. (Wie erennt man das?) Dabei önnen natürlich alle die Situationen eintreten, die wir in den Beispielen 1) 4) ennengelernt haben. Insbesondere hoffen wir aber, daß man auf diese Weise nicht alle Ecen durchlaufen muß, bis man am inimum angeommen ist. an mache sich diese Problemati auch an Beispielen im IR 3 lar. Wir haben in der Tat mit der obigen Vorgehensweise die Grundidee des nun zu besprechenden Lösungsalgorithmus beschrieben. Bei der Umsetzung dieser geometrischen Lösungsidee in einen Lösungsalgorithmus für die Aufgabenstellung (L) treten eine Reihe von Problemen auf, wie etwa Wie beschreibt man Ecen im IR n? Wie beschreibt man Kanten? Was heißt Laufen auf einer Kante? Wird der optimale Wert wirlich in einer Ece angenommen? Was bedeuten die Beobachtungen aus den Beispielen 1) 4) im allgemeinen Fall? Diese und weitere auftauchende Fragen wollen wir im folgenden zu lösen versuchen. Dabei werden die Lösungsideen aus der anschaulichen Problemstellung (L ) ommen (, die wir der Anschauung halber nochmals, samt ihrer geometrischen Interpretation sizzieren,) und werden dann in die algebraische und algorithmische Sprache für das Problem (L) übersetzt werden müssen. 65
7 Lineare Optimierungsaufgaben: Formulierungen n j=1 n j=1 c j x j = min, c = (c 1,...,c n ) T IR n c T x a ij x j b i, i = 1,...,m, A x b A = (a ij ) IR m n atrixschreibweise = min (L ) b = (b 1,..., b m ) T IR m x i, i J {1,..., n} x i, i J Im IR 2 (auch IR 3 ) hat man die Veranschaulichung a x + a x = b T c x = 1 x >= 0 2 a x + a x = b T c x = > 2 1 = {x IR n ; A x b, x i, i J} heißt zulässiger Bereich, c T x heißt Zielfuntion. Problem (L) c T x = min, c IR n Ax = b, A IR m n, b IR m x = {x IR n ; A x = b, x } heißt zulässiger Bereich, c T x heißt Zielfuntion, und x heißt optimal, falls x und c T x c T x x. Beachte: Die Vetoren c, b und die atrix A sind gemäß den Umformungen nicht die gleichen wie in (L ). (L) Beschreibung von Ecen Der zulässige Bereich eines linearen Optimierungsproblems wird im IR 2 begrenzt, im IR 3 durch Ebenen, im IR n durch sog. Hyperebenen. durch Geraden 66
8 Geometrisch anschaulich ist eine Ece eines solchen Bereichs ein Punt, der nicht auf der Verbindungsgeraden zweier Punte liegt, die auch sind. athematische Fassung dieses Sachverhalts: Definition 6.1 1) Eine enge K IR n heißt onvex (Def.) {, K gilt x = λ + (1 λ) K, 0 λ 1 x heißt Konvexombination von und. 2) Eine Konvexombination heißt echt (Def.) λ 0, 1 3) Sei K IR n eine enge, die durch Hyperebenen begrenzt wird. x K heißt Ece von K (Def.) x hat eine Darstellung als echte Konvex ombination 2er verschiedener Punte von K Sätzchen 6.2: Die zulässige enge eines linearen Optimierungsproblems (in der Normalform) = {x IR n, Ax = b, x } wo A IR m n, b IR m, m < n, ist onvex. Beweis: Seien,, und x = λ + (1 λ), λ [0, 1], so folgt Ax = A(λ + (1 λ) ) = λ A + (1 λ) A = λ b + (1 λ) b = b. Aus x = λ + (1 λ) folgt x, also x. Charaterisierung von Ecen Sei A = (a 1,...,a n ), d.h. a i seien die Spalten von A. Für x = (,...,x n ) T ann n Ax = b geschrieben werden als a i x i = b. i=1 67
9 Sei = {x IR n ; Ax = b, x } der zulässige Bereich eines linearen Optimierungsproblems, dann ann x (Œ bis auf Umnumerierung) geschrieben werden als x = (,...,x p, 0,..., 0) T,,...,x p > 0, 0 p n. Dann gilt folgende Charaterisierung von Ecen: Satz 6.3 Sei x = {x IR n ; Ax = b, x }, so daß n i=1 Dann gilt a i x i = b, x i > 0 für i = 1,..., p, x i = 0 für i = p + 1,...,n, p. a) x 0 ist Ece von b = 0. (p = 0) b) x 0 ist Ece von Die Spalten a i, die zu positiven Komponenten von x gehören, sind linear unabhängig. (p > 0) Beweis: a) offensichtlich, denn 0 = λ + (1 λ),,, λ > 0 = = = 0. b) (indiret): Annahme: a 1,...,a p seien linear abhängig, d.h. (d 1,...,d p ) T IR p, p nicht alle d i = 0, mit a i d i = 0. Setze i=1 d := (d 1,...,d p, 0,..., 0) T IR n Ad = 0 { Ax = b für x gilt x A(x + δ d) = b δ IR x + δ d für leine δ IR, da x i > 0 für i = 1,..., p, d.h. δ > 0, so daß x + δ d =, x δ d = und x = 1 2 (x1 + ) (Def.) = x ist eine Ece. 68
10 Beweis: b) (indiret) Annahme: x ist eine Ece, d.h.,,, so daß { A = b A = b x = λ > 0 + (1 λ) > 0 } { x 1 i = i = 0 für i > p da, und x i = 0 für i > p A( ) = 0 p i=1 a i ( i x2 i ) = 0 ai lin. = unabh., λ (0, 1) } { x 1 i = i für i p } x1 =. Korollar 6.4 Eine Ece von hat maximal m positive Komponenten, wo m = Rang A. Eine Ece x heißt entartet, wenn sie weniger als m positive Komponenten besitzt. an ann dann die zu positiven Komponenten von x gehörenden Spaltenvetoren von A durch Hinzunahme weiterer Spalten von A zu einer Basis des IR m ergänzen und ommt somit zum Begriff der Basislösung. Definition 6.5 Gegeben sei das Problem c T x = min, x = {x IR n ; Ax = b, x }, RgA = m. m linear unabhängige Spalten x heißt Basislösung (Basisvetor) zur Indexmenge J } (Def.) a i von A, i J, J = m, x i = 0 für i J a i x i = b i J so daß und Beachte: Es wird nicht gefordert x i > 0 für i J. Jede Ece x definiert also eine Basislösung zu einer (im entarteten Fall nicht eindeutigen) Basis des IR m aus Spaltenvetoren von A. Umgeehrt beschreibt jede Basislösung eindeutig eine Ece. 69
Teil I. Lineare Optimierung
Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,
Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:
Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten
Optimierung. Vorlesung 02
Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j
1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)
. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)
Proseminar Konvexe Mengen: Der Satz von Carathéodory
Proseminar Konvexe Mengen: Der Satz von Carathéodory Gerrit Grenzebach 26. Otober 2004 In diesem Referat werden der Begriff der onvexen Hülle einer Menge eingeführt und einige Eigenschaften der onvexen
Eigenschaften von LPs
2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört
11. Darstellung von Kurven und Flächen
H.J. Oberle Approximation WS 23/4. Darstellung von Kurven und Flächen Bézier Kurven. Unser Ziel ist es, polynomiale Kurven auf dem Rechner möglichst effizient darzustellen. Hierzu nutzen wir die Basisdarstellung
1 Lineare Optimierung, Simplex-Verfahren
1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und
Lineare Optimierung: Simplexverfahren Phase Ⅰ
Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren
Numerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)
VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind
Lösungen zu Aufgabenblatt 6
Fachbereich Informatik Prof. Dr. Peter Becker Vorlesung Graphentheorie Operations Research Wintersemester 2004/05 3. Januar 2005 Lösungen zu Aufgabenblatt 6 Aufgabe 1 (Modellierung von LPs) Formulieren
1 Der Simplex Algorithmus I
1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier
Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme
Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter
Kombinatorische Optimierung
Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
Optimierung für Wirtschaftsinformatiker: Lineare Programme
Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen
2.3 Basis und Dimension
23 Basis und Dimension Erinnerung Gegeben ein K-Vektorraum V, ein Vektorensystem x,, x n in V Eine Linearkombination in den x i ist ein Vektor der Form λ x + + λ n x n mit λ i K Die λ i heißen Koeffizienten
VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung
10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen
10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie
Lineare (Un-)Gleichungen und lineare Optimierung
Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik Universität Innsbruck Lehrer/innen/fortbildungstag Wien 2010 9. April 2010 Eine Maximumsaufgabe Eine Firma stellt aus
Lineare (Un-)Gleichungen und lineare Optimierung
Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-6020 Innsbruck, Österreich [email protected] 1 Einleitung In der linearen
Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner
Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1 Vortrag: Lineare Gleichungen am 11. März 2009 von Maximilian Wahner Technische Universität Dortmund Fakultät für Mathematik Proseminar Lineare
Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206
Kapitel 1 Unimodularität Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Inhalt 1 Unimodularität Total unimodulare Matrizen Inzidenzmatrix Optimierungsprobleme auf Graphen Peter
Kuhn-Tucker Bedingung
Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,
3.2.5 Dualität der linearen Optimierung I
3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem
Grundlagen der Optimierung. Übung 6
Technische Universität Chemnitz Chemnitz, 2. November 24 Prof. Dr. R. Herzog, J. Blechschmidt, A. Schäfer Abgabe am 28. November 24 Grundlagen der Optimierung Übung 6 Aufgabe 2: Verschiedene Verfahren
Dualitätssätze der linearen Optimierung
Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =
Die duale Simplexmethode
Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen
Vorlesung Mathematik WS 08/09. Friedel Bolle. Vorbemerkung
Vorlesung Mathemati WS 08/09 Vorbemerung Weshalb Mathemati für Öonomen? Das werden Sie selbst sehen im Grundstudium in - Miroöonomie - Statisti - Maroöonomie - BWL: Prodution und dazu in einer Reihe von
10. Übung zur Linearen Algebra I -
. Übung zur Linearen Algebra I - en Kommentare an [email protected] FU Berlin. WS 29-. Aufgabe 37 i Für welche α R besitzt das lineare Gleichungssystem 4 αx + αx 2 = 4x + α + 2x 2 = α genau eine,
Höhere Mathematik für die Fachrichtung Physik
Karlsruher Institut für Technologie Institut für Analysis Dr. Christoph Schmoeger Dipl.-Math. Sebastian Schwarz WS 018/019 5.10.018 Höhere Mathemati für die Fachrichtung Physi Lösungsvorschläge zum. Übungsblatt
Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen
Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden
1. Hausaufgabenblatt (16.04./ )
Lehrstuhl Ingenieurmathematik Modul: (Wirtschaftsingenieurwesen/Betriebswirtschaftslehre/Informatik) Sommersemester 2014 1. Hausaufgabenblatt (16.04./23.04.2015) Aufgabe H 1.1 Lösen Sie die linearen Gleichungssysteme
Lineare Algebra 2. Lösung zu Aufgabe 7.2:
Technische Universität Dortmund Sommersemester 2017 Fakultät für Mathematik Übungsblatt 7 Prof. Dr. Detlev Hoffmann 15. Juni 2017 Marco Sobiech/ Nico Lorenz Lineare Algebra 2 Lösung zu Aufgabe 7.1: (a)
Studientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform
Klausur - Analysis 1
Prof. Dr. László Széelyhidi Analysis I, WS 22 Klausur - Analysis Lösungen Aufgabe. i Punt Definieren Sie, wann x n eine Cauchyfolge ist. Lösung : x n heisst Cauchyfolge wenn es zu jedem ε > ein N N gibt,
3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)
3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände
Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok
Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html [email protected]
Lineare Optimierungsaufgaben - eine Einführung
Lineare Optimierungsaufgaben - eine Einführung Aufgabenstellung, Beispiele, graphisches Lösen und Trafo auf Normalform Vortragsskript von Lorenz Fischer Operations Research bedeutet die Suche nach einer
47 Singulärwertzerlegung
47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar
1 Einführung Gleichungen und 2 Unbekannte Gleichungen und 3 Unbekannte... 4
Wirtschaftswissenschaftliches Zentrum 3 Universität Basel Mathematik 2 Dr Thomas Zehrt Lineare Gleichungssysteme Inhaltsverzeichnis Einführung 2 2 Gleichungen und 2 Unbekannte 2 2 3 Gleichungen und 3 Unbekannte
Lineare Optimierung Dantzig 1947
Lineare Optimierung Dantzig 947 Lineare Optimierungs-Aufgaben lassen sich mit Maple direkt lösen: with(simplex): g:= 4*x + x2
Hauptsatz und Optimalitätskriterium der Simplexmethode
Kapitel 4 Hauptsatz und Optimalitätskriterium der Simplexmethode In diesem Abschnitt wird das wichtigste Verfahren zur Lösung linearer Optimierungsprobleme eingeführt die Simplexmethode Es existiere für
Das Lagrange-duale Problem
Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h
7.1 Matrizen und Vektore
7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit
Optimale Steuerung 1 Prozessoptimierung 1
Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung
$Id: reell.tex,v /11/15 13:12:24 hk Exp $
$Id: reell.tex,v.8 200//5 3:2:24 h Exp $ 4 Die reellen Zahlen 4.3 Das Vollständigeitsaxiom Wir hatten das Supremum einer Menge M R als die leinste obere Schrane von M definiert, sofern eine solche überhaupt
Über- und unterbestimmte
Über- und unterbestimmte Systeme (verallgemeinerte Lösungen) Über- und unterbestimmte Systeme Ax = b ist genau dann für alle b R m eindeutig lösbar, wenn m = n und rk A = n. Falls m n oder rk A < min{m,
6 Metrische Klassifikation der Quadriken
6 Metrische Klassifikation der Quadriken A Wiederholung von Kap V, 5 Sei A = (a ij ) eine symmetrische n n Matrix. n x 1 q(x) := x t Ax = a ij x i x j, x =. i,j=1 ist dann ein quadratisches Polynom in
Abbildung 1: Graphische Lösung der ersten Übungsaufgabe
Lösungen zu den Übungsaufgaben im Kapitel 1 des Lehrbuches Operations Research Deterministische Modelle und Methoden von Stephan Dempe und Heiner Schreier 1. Lösen Sie die folgende lineare Optimierungsaufgabe
Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005
Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung
Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b
Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung
Übungsbeispiel 1: Quadratische Modellierung
Übungsbeispiel 1: Quadratische Modellierung Ein Uhrenhersteller möchte den Preis für sein neues Modell festlegen und führt dazu eine Marktanalyse durch. Das Ergebnis lautet: Bei einem Preis von 60 ist
Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.
Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme
Die Lagrange-duale Funktion
Die Lagrange-duale Funktion Gregor Leimcke 21. April 2010 1 Die Lagrangefunktion Wir betrachten das allgemeine Optimierungsproblem wobei minimiere f 0 über D sodass f i 0, i = 1,..., m 1.1 D = h i = 0,
8. Lineare Optimierung
8. Lineare Optimierung 1 Einführung (1) Praktische Probleme sind oft Probleme mit Nebenbedingungen, z.b.: Ein Produktionsprozess hängt von Lieferterminen ab Die Menge der verstaubaren Güter ist durch die
(λ), t P j i = P j i. heißt symmetrisch, wenn t A = A und antisymmetrisch, wenn
3. 1 Transposition der Elementarmatrizen aus R n n. Für 1 i, j n und λ G(R) bzw. λ R gilt t S i (λ) S i (λ), t Q j i (λ) Qi j (λ), t P j i P j i. 3. 11 Definition. Eine Matrix A R n n t A A. heißt symmetrisch,
VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max
32 2 Lineare Algebra
3 Lineare Algebra Definition i Die Vektoren a,, a k R n, k N, heißen linear unabhängig genau dann, wenn für alle λ,, λ k R aus der Eigenschaft λ i a i λ a + + λ k a k folgt λ λ k Anderenfalls heißen die
Reihenentwicklung II. 1 Potenzreihenentwicklung von Lösungen
Vortrag zum Seminar Gewöhnliche Differentialgleichungen, 29.11.2011 Julia Rittich In dem vorherigen Vortrag haben wir erfahren, dass in vielen Anwendungsproblemen eine Differentialgleichung nicht in geschlossener
Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung
Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze
Wirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 2016 Prof. Dr. Stefan Etschberger HSA Mögliche Fälle für Z Etschberger - WS2016 1 Z =, d.h., es existiert keine zulässige (x 1, x 2 )-Kombination. 2
Wirtschaftsmathematik für International Management (BA)
Wirtschaftsmathematik für International Management (BA) Wintersemester 2012/13 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Lineare Algebra 4 Lineare Programme 5 Folgen und Reihen 6
Optimierungstheorie Scheinklausur Sommersemester Juli 2007
Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur
FK WMS: Wirtschaftsmathematik 2, Einheit 7/8
FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 [email protected] http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.
Konvexe Optimierungsprobleme
von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel
6 Lineare Gleichungssysteme
6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α
Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.
Kapitel 5 Lineare Algebra 51 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen
Die Lösungsmenge besteht aus allen n-tupeln reeller Zahlen x 1
III. Lineare Gleichungssysteme ================================================================= 3. Einführung ---------------------------------------------------------------------------------------------------------------
Lineare Gleichungssysteme
Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare
Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m)
Minimumproblem Definition 4.7 Ein LP der Form nx Minimiere Z = c j x j j=1 unter den Nebenbedingungen nx d ij x j b i (i =1,...,m) j=1 und den Vorzeichenbedingungen x j 0(j =1,...,n) heißt Minimumproblem.
Kapitel V. Affine Geometrie
Kapitel V Affine Geometrie 1 Affine Räume Betrachte ein lineares Gleichungssystem Γ : a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + + a 2n x n = b 2 a m1 x 1 + a m2 x 2 + + a mn x n = b
2 Die Dimension eines Vektorraums
2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1
β 1 x :=., und b :=. K n β m
44 Lineare Gleichungssysteme, Notations Betrachte das lineare Gleichungssystem ( ) Sei A = (α ij ) i=,,m j=,n α x + α x + + α n x n = β α x + α x + + α n x n = β α m x + α m x + + α mn x n = β m die Koeffizientenmatrix
Geometrische Interpretation
Geometrische Interpretation Stefanie Riedel 10. Mai 2010 1 Starke und schwache Dualität über Wertemengen Wir betrachten eine einfache geometrische Interpretation dualer Funktionen aus der Menge G: G =
x 3 Genau dann liegt ein Punkt X mit dem Ortsvektor x auf g, wenn es ein λ R gib,t so dass
V. Geradengleichungen in Parameterform 5. Definition ---------------------------------------------------------------------------------------------------------------- x 3 v a x x x Definition und Satz :
mit. Wir definieren (Skalarprodukt = Winkel).
1 Grundidee des Simplexverfahrens (von George Dantzig): Man bestimmt eine beliebige Ecke (Extremalpunkt) einer Lösungsmenge eines Ungleichungssystems. Nun geht man an den Kanten vom Punkt entlang und kontrolliert
Kurseinheit 2»Dualität und weiterführende Methoden«
Inhaltsübersicht 1 Gliederung Kurseinheit 1»Simpleverfahren«1. Einleitung 1.1. Einordnung und Übersicht des Stoffes 1.2. Einführendes Beispiel und Grundlagen 2. Lineare Gleichungssysteme 2.1. Die allgemeine
2.2 Lineare Gleichungssysteme (LGS)
2.2 Lineare Gleichungssysteme (LGS) Definition 2.2.. Ein LGS über einem Körper K von m Gleichungen in n Unbekannten x,..., x n ist ein Gleichungssystem der Form a x + a 2 x 2 +... + a n x n = b a 2 x +
Lineare Optimierungsmodelle
Lineare Optimierungsmodelle Simplex-Methode Vortragender: Michael Schneider Agenda Motivation Operations Research Aufbau linearer Optimierungsmodelle Simplex-Methode Ausblick 2 Problemstellung Futtermischung
4 Der Gauß Algorithmus
4 Der Gauß Algorithmus Rechenverfahren zur Lösung homogener linearer Gleichungssysteme Wir betrachten ein GLS (1) a 11 x 1 + a 1 x + + a 1n x n = a 1 x 1 + a x + + a n x n = a m1 x 1 + a m x + + a mn x
Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme
Kapitel 11 Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Wir betrachten folgendes Optimierungsproblem z = c T x min! Ax = b (11.1) (11.2) x j ganz für j = 1,..., n 1 n, (11.3)
Systeme von linearen Ungleichungen
Systeme von linearen Ungleichungen ALGEBRA Kapitel 6 WRProfil - Mittelstufe KZN Ronald Balestra CH - 8046 Zürich www.ronaldbalestra.ch Name: Vorname: 28. Februar 2016 Überblick über die bisherigen ALGEBRA
Lineare Programmierung
asis Definition 3.38 Gegeben sei ein LP in der Normalform mit m als Rang der Matrix 2 R m n. x 2 R n mit x = b heißt asislösung gdw. n m Komponenten x i gleich Null und die zu den restlichen Variablen
Damit läßt sich die Aufgabe durch einfaches Rechnen zeigen: k=1
Aufgabe (4 Punte) Sei A eine n m-matrix Die Matrix A T ist die m n-matrix, die durch Vertauschen der Zeilen und Spalten aus A hervorgeht (dh: aus Zeilen werden Spalten, und umgeehrt) Die Matrix A T heißt
9. Woche: Elliptische Kurven - Gruppenarithmetik. 9. Woche: Elliptische Kurven - Gruppenarithmetik 187/ 238
9 Woche: Elliptische Kurven - Gruppenarithmetik 9 Woche: Elliptische Kurven - Gruppenarithmetik 187/ 238 Elliptische Kurven Ḋefinition Elliptische Kurve Eine elliptische Kurve E über dem Körper K ist eine
Optimierung unter Nebenbedingungen
Optimierung unter Nebenbedingungen Kapitel 7: Optimierung unter Nebenbedingungen Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 1. Juli 2009 1 / 18 7.1 Bemerkung
Einführung in die Algebra
Prof. Dr. H. Brenner Osnabrüc SS 2009 Einführung in die Algebra Vorlesung 15 Der Hauptsatz der elementaren Zahlentheorie Wir beweisen nun, dass sich jede natürliche Zahl in eindeutiger Weise als Produt
Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =
Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls
Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn
Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,
1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme. Duales Problem. a i u i + i=1. j=1
1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme Duales Problem Lemma 1.4. Das zum Transportproblem duale Problem lautet: max unter den Nebenbedingungen m a i u i + i=1
