Klausurrepetitorium ABWL
|
|
- Babette Krüger
- vor 6 Jahren
- Abrufe
Transkript
1 Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5
2 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches Programm.. Exkurs: Bestimmung von Extrema mit Langrange-Multiplikatoren-Methode.. Bestimmung von Extrema mit den KKT-Bedingungen.. Quotientenprogramm. Lösung ganzzahliger linearer Optimierungsprobleme mit Branch & Bound 9.8.5
3 . Nichtlineare Optimierungsprobleme Viele betriebswirtschaftlichen Fragestellungen führen zur Optimierung nichtlinearer Probleme (bspw. optimales Portfolio, optimales Werbeprogramm unter Berücksichtigung nichtlinearer Werberesponsefunktionen etc.) Besonderheit: Lineare Funktionen in den Nebenbedingungen Versuch der Lösung dieser Probleme mit bekannten Verfahren (Simplex-Verfahren) Transformation der nichtlinearen Zielfunktion in eine lineare Anwendung des Lösungsverfahrens auf das (Hilfs)problem Ggfs. Übertragung der Lösung des Hilfsproblems auf das Ausgangsproblem 9.8.5
4 . Quadratisches Programm Exkurs: Bestimmung der Extrema mit Hilfe der Lagrange-Methode () Gegeben: Nichtlineares Optimierungsproblem mit Gleichungen als Restriktionen max/min f ( x,..., xn ) u.d.n. g ( x,..., x ) = b n g ( x,..., x ) = b m n m Lagrangefunktion von f unter Nebenbedingungen: Lx (,..., x, λ,..., λ ) = n m f ( x,..., x ) + λ ( g ( x,..., x ) b ) λ ( g ( x,.., x ) b ) n n m m n m 3
5 . Quadratisches Programm Exkurs: Bestimmung der Extrema mit Hilfe der Lagrange-Methode () Bestimmung der kritischen Punkte L f g = + λ = i =,..., m x x x i i. L f gi = + λ i = i =,..., m x x x n n n L = g i(x,...,x n ) b i = i =,..., m λ i
6 Quadratisches Programm Exkurs: Bestimmung der Extrema mit Hilfe der Lagrange-Methode (3) Gegeben: Zielfunktion und Gleichungen in den Nebenbedingungen f ( x u.d.n. g( x, x, x + x Lagrangefunktion von f unter Nebenbedingung: Partielle Ableitungen gleich Null setzen: ) ) = x = 3x + x 8x = 6 x L( x, x, λ) = x + x 8x x + λ(3x + x L () 3 = x 8 + 3λ = x = 4 λ x L () = x + λ = x = 5 λ x L = 3x + x 6 = λ 6)
7 . Quadratisches Programm Exkurs: Bestimmung der Extrema mit Hilfe der Lagrange-Methode (4) Beispiel (Fortführung) () () Einsetzen von x und x in die Restriktionen 3 3(4 λ) + (5 λ) 6 = 3 λ = 3 Lösung: () () T 4 ( x, x, λ) = 3 Kritischer Punkt: () () T 4 33 ( x, x ) =, ,, 3 3 T T mit () () 36 f( x, x ) = =,
8 . Quadratisches Programm Exkurs: Bestimmung der Extrema mit Hilfe der Lagrange-Methode (4) Interpretation des Lagrange-Multiplikators: Schattenpreis Der Lagrange-Multiplikator λ i gibt an, um wieviel sich der Zielfunktionswert ändert, wenn sich b i um eine Einheit ändert. Beispiel: f ( x, x ) = x + x 8x x u.d.n. gx (, x) = 3x+ x = 5 () () f( x, x ) = + = = 8,
9 Bestimmung der Extrema mit Hilfe der Karush-Kuhn-Tucker- Bedingungen () Gegeben:. Quadratisches Programm Nichtlineares Optimierungsproblem mit Ungleichungen als Restriktionen und nichtnegativen Variablen -dimensionaler Fall min ( ) = 8 u.d.n. x x 3 f x x x
10 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen () Lagrangefunktion von f unter Nebenbedingung (u bezeichnet den Multiplikator): Lxu x x ux (, ) = 8 + ( 3) Die Lagrangefunktion nimmt im Sattelpunkt ihr Minimum in x und ihr Maximum in u an Anm.: Die Ausführungen gelten für reguläre Probleme, d.h. gewisse Regularitätsbedingungen müssen erfüllt sein (s. Kurs 854)
11 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (3) Lagrangefunktion nimmt im Sattelpunkt ihr Minimum in x und ihr Maximum in u an Da Nichtnegativitätsbedingung für x gegeben, ist partielle Ableitung >= bzw. <= Null L x L x = = x 8 + u x 3 x + 8 u 9.8.5
12 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (4) Gegeben: Nichtlineares Optimierungsproblem mit Ungleichungen als Restriktionen und nichtnegativen Variablen -dim. Fall min f ( x, x ) = x + x 8x x u.d.n. 3x + x 6 x, x 9.8.5
13 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (5) Lagrangefunktion von f unter Nebenbedingung (u bezeichnet den Multiplikator): Lx (, x, u) = x + x 8x x + u(3x+ x 6) Minimum der Langrangefunktion (unter Berücksichtigung der NNB) in x gegeben, wenn partielle Ableitungen nach x j >= Null und nach u <= Null L = x 8 + 3u x + 8 3u x L x = x + u x + u L = 3x + x 6 u
14 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (6) Um die optimale Lösung zu bestimmen, führen wir Schlupfvariable v j und s ein, um Ungleichungen in Gleichungen zu überführen Bedingungen: L = x + 8 3u + v = x 3u + v = 8 x L x = x + u+ v = x u+ v = 3x + x + s =
15 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (7) Einschub: Zusammenhang mit (5.7)? L = x 3u + v = 8 x L x = x u+ v = 3x + x + s = 6 = 3 = T A H x 3 v 8 i) - u + = x v ii) 3x + x + s = 6 iii) x, x, v, v, s 4
16 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (8) Ermittlung einer zulässigen Basislösung I u s x x v v RHS x x u v v s RHS Keine vollständige Einheitsbasis, daher Einführung von Hilfsvariable z j 5
17 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (9) Ermittlung einer zulässigen Basislösung II u s x x v v z z RHS x x u v v s z z RHS
18 Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen () Modifizierte KKT-Bedingungen nach Einführung der Hilfsvariable x 3 v 8 i) - u+ z z = x v ii) 3x + x + s = 6 iii) x, x, v, v, s Zu lösendes Hilfsproblem zur Bestimmung einer zulässigen Basislösung mittels -Phasen-Simplex min Z = z + z u.d.n. x 3 v 8 i) - u+ z z = x v ii) 3x + x + s = 6 iii) x, x, v, v, s
19 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen () min Z = z + z u.d.n. x 3 v 8 i) - u+ z z = x v ii) 3x + x + s = 6 iii) x, x, v, v, s u und s, v und x sowie v und x sind zueinander komplementäre Variable, daher dürfen sie nicht zusammen in die Basis. Aufgrund dessen vierte Bedingung: iv) v x =, v x =, s u = 8
20 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen () Beginn.Phase (II) und (III) mit (-) multipliziert x x u v v s z z RHS x x u v v s z z RHS
21 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (3) Subtraktion von (II) und (III) von (I) x x u v v s z z RHS z 3-8 z - s 3 6 Weil s in der Basis ist, darf u nicht aufgenommen werden, daher x oder x iv) v x =, v x =, s u = 9.8.5
22 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (4) x x u v v s z z RHS z 3-8 z - s 3 6 x x u v v s z z RHS -5-8 z 3-8 z x 3/ /
23 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (5) x x u v v s z z RHS -5-8 z 3-8 z x 3/ ½ 3 x x u v v S z z RHS -3/ -3/ -3/ 5/3-8 z 3/ - 3/ 3/ -3/ 8 u -3/ -/ -/ / x 3/ ½ 3
24 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (6) x x u v v S z z RHS -3/ -3/ -3/ 5/3-8 z 3/ - 3/ 3/ -3/ 8 u -3/ -/ -/ / x 3/ ½ 3 x x u v v s z z RHS x -/3 3/3 3/3 /3-3/3 4/3 u -3/3 -/3 -/3 3/3 /3 3/ x 3/3-9/6 /3-3/3-9/6 33/3 3
25 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (7) x x u v v s z z RHS x -/3 3/3 3/3 /3-3/3 4/3 u -3/3 -/3 -/3 3/3 /3 3/3 x 3/3-9/6 /3-3/3-9/6 33/ Phase abgeschlossen, d.h. zulässige Basislösung gefunden: T T ( x, x) =, mit f( x, x ) = =, /3 3 8 i) - 3 /3 = 33/3 ii) 3 4/3+ 33/3 = 6 iii) x, x, v, v, s iv) v x =, v x =, s u =
26 . Quadratisches Programm Beispiel für Nulllösung als optimale Lösung () Gegeben: Nichtlineares Optimierungsproblem mit Ungleichungen als Restriktionen und nichtnegativen Variablen min f ( x, x ) = x + x + 8x + x u.d.n. 3x + x 6 x, x
27 . Quadratisches Programm Beispiel für Nulllösung als optimale Lösung () Lagrangefunktion: Lx (, x, u) = x + x + 8x+ x + u(3x+ x 6) Partielle Ableitungen: L = x u x 8 3u x L = x + + u x u x L = 3x + x 6 u
28 . Quadratisches Programm Beispiel für Nulllösung als optimale Lösung (3) Prüfung, ob für Nulllösung KKT-Bedingungen erfüllt sind Wenn ja, dann ist Nulllösung optimale Lösung Wenn nein, dann gehe vor wie ab Folie 8 beschrieben 3 v 8 i) - + = v ii) 3x + x + s = 6 iii) x, x, v, v, s iv) v x =, v x =, s u = Anmerkung: u ist gleich Null, weil die Kapazitäten nicht berührt werden und daher der Schattenpreis Null ist
29 . Quadratisches Programm Anmerkungen Wie sehen die KKT-Bedingungen aus, wenn ein Maximierungsproblem vorliegt und kein Minimierungproblem? Warum? [Fragen nicht klausurrelevant!]
30 . Quotientenprogramm Problemstellung Betriebswirtschaftliche Entscheidungsprobleme stellen sich häufig als Maximierung einer Verhältnisgröße dar; Zähler und Nenner sind dabei lineare Funktionen der Entscheidungsvariablen max q u.d.n. = c d T T x x + c + d = z( x) n( x) Ax b x
31 Quotientenprogramm Beispiel x+ 5 x zx ( ) max q = = 5x+ 5x + n( x) u.d.n. 4x+ x 7 7x+ 3x 3 x 8 x, x Einführung der Schlupfvariablen x+ 5 x zx ( ) max q = = 5x+ 5x + n( x) u.d.n. 4x+ x + s = 7 7x+ 3x + s = 3 x + s3 = 8 x, x, s, s, s 3
32 . Quotientenprogramm. Zulässige Ausgangslösung x* suchen Da Konstante im Nenner d > ist, gilt für alle zulässigen Lösungen n(x) Daher kann mit der Nullösung gestartet werden. ( x, x, s, s, s ) = (,,7,3,8 )
33 . Quotientenprogramm. Hilfsprogramm aufstellen und lösen max x =z(x)-q(x*)n(x) + 5 qx (*) = = max x = x + 5x (5x + 5x + ) u.d.n. 4x + x + s = 7 7x + 3x + s = 3 x + s = 3 8 x, x, s, s, s 3 x x - x -5 s s s 3 RHS
34 Lösung:. Quotientenprogramm ( x, x, x, s, s, s ) = ( 4,,8,5,,) 3 x Setze x :=x* und gehe wieder zu. * qx ( ) = = = x = x+ 5 x (5x+ 5x + ) max x = x+ x u.d.n. x x x s s s 3 RHS x + x + s = 7 7x + 3x + s = 3 x + s = 8 3 x, x, s, s, s 3 -/ /3 3-56/
35 . Quotientenprogramm x x x s s s 3 RHS -/3-55/3-56/ Lösung: ( x, x, x, s, s, s ) = (,,8,5,,) 3 x = Optimale Lösung gefunden!
36 . Quotientenprogramm Idee des Verfahrens von Isbell und Marlow () Lösungsraum
37 . Quotientenprogramm Idee des Verfahrens von Isbell und Marlow () Der Schnittpunkt der Geraden z(x)= und n(x)= bestimmt die Hilfszielfunktionen z(x) n(x)
38 . Quotientenprogramm Idee des Verfahrens von Isbell und Marlow (3) Nullösung ist zulässige Ausgangslösung; über optimale Lösung des Hilfsproblems lässt sich über Konstruktionsvorschrift weiteres Hilfsproblem bestimmen z(x) n(x)
39 . Quotientenprogramm Idee des Verfahrens von Isbell und Marlow (4) Konstruktionsvorschrift bei Isbell/Marlow: x =z(x)-q(x*)n(x) z(x) n(x) x
40 . Quotientenprogramm Idee des Verfahrens von Isbell und Marlow (5) Optimale Lösung gefunden, wenn keine Verbesserung mehr möglich, d.h. Verfahren würde keine neue Ecke des Polyeders aufsuchen
41 . Ganzzahlige lineare Optimierung In der Praxis finden Methoden der linearen Optimierung breite Anwendung Bei einigen Problemen ist die Ganzzahligkeitsforderung für alle Strukturvariable (ILOP) oder für einige Variable (MILP) gegeben Verfahren der ganzzahligen Optimierung gehen von optimaler Lösung des zugehörigen nicht-ganzzahligen Problems aus und ermitteln dann sukzessiv die optimale Lösung des ganzzahligen Problems durch Einschränkung des Lösungsraums Entscheidungsbaumverfahren: Branch & Bound
42 . Ganzzahlige lineare Optimierung B & B ist ein spezielles Enumerationsverfahren Suche nach Optimallösung durch Aufspalten des Lösungsraums des LPs ohne Ganzzahligkeitsforderung Aufspaltung lässt sich als Verzweigung im Entscheidungsbaum darstellen
43 . Ganzzahlige lineare Optimierung Lösungsraum eines ILP (I) Beispiel: max z=7x+ 3y u.d.n. 5x+ y 5 (I) x+ 6y 33 (II) xy, und ganzzahlig (II)
44 . Ganzzahlige lineare Optimierung LP-Relaxation und Lösungsraum des zugehörigen LP max z=7x+ 3y u.d.n. 5x+ y 5 (I) x+ 6y 33 (II) xy,
45 . Ganzzahlige lineare Optimierung LP-Relaxation und Lösung des zugehörigen LP max z=7x+ 3y u.d.n. 5x+ y 5 (I) x+ 6y 33 (II) xy, Lösung: ( xy ; ) = (9, 3;, 4) z = 7,
46 . Ganzzahlige lineare Optimierung Aufspaltung in Teilprobleme P und P z = 7,88 P ( xy ; ) = (9, 3 ;,4) x 9 x P P max z=7x+ 3y u.d.n. 5x+ y 5 (I) x+ 6y 33 (II) xy, Lösung: ( xy ; ) = (9, 3;, 4) z = 7,
47 P. Ganzzahlige lineare Optimierung P: max z=7x+ 3y u.d.n. 5x+ y 5 (I) x+ 6y 33 (II) x 9 xy, Lösung : z = 7,5 ( xy ; ) = (9 ;,5)
48 P. Ganzzahlige lineare Optimierung P : max z=7x+ 3y u.d.n. 5x+ y 5 (I) x+ 6y 33 (II) x xy, Lösung : z = 7,5 ( xy ; ) = ( ;,5)
49 . Ganzzahlige lineare Optimierung Aufspaltung von P in Teilprobleme P3 und P4, da z P =7,5>z P =7,5 z = 7,5 ( xy ; ) = (9 ;,5) z = 7,88 P ( xy ; ) = (9, 3 ;,4) x 9 x P P z = 7,5 ( xy ; ) = ( ;,5) y y P 3 P
50 P3. Ganzzahlige lineare Optimierung P3: max z=7x+ 3y u.d.n. 5x+ y 5 x+ 6y 33 xy, x y Lösung : z = 7, 4 ( xy ; ) = (, ; )
51 P4. Ganzzahlige lineare Optimierung P4 : max z = 7x + 9 y u.d.n. 5x + y x + 6y 5 33 x, y x y Keine Lösung
52 . Ganzzahlige lineare Optimierung Aufspaltung in Teilprobleme P3 und P4 z = 7,5 ( xy ; ) = (9 ;,5) z = 7,88 P ( xy ; ) = (9, 3 ;,4) x 9 x P P z = 7,5 ( xy ; ) = ( ;,5) y y z = 7, 4 ( xy ; ) = (, ; ) P 3 P 4 Keine Lösung
53 . Ganzzahlige lineare Optimierung Aufspaltung von P3 in Teilprobleme P5 und P6, da z P3 =7,4>z P =7,5 z = 7,5 ( xy ; ) = (9 ;,5) z = 7,88 P ( xy ; ) = (9, 3 ;,4) x 9 x P P z = 7,5 ( xy ; ) = ( ;,5) y y z = 7, 4 ( xy ; ) = (, ; ) P 3 P 4 Keine Lösung x x P 5 P
54 P5. Ganzzahlige lineare Optimierung P5 : max z = 7x + 9 y u.d.n. 5x + y 5 x + 6y 33 x, y x y x Lösung : z = 7 ( x; y) = ( ; )
55 P6. Ganzzahlige lineare Optimierung P6 : max z = 7x + 9 y u.d.n. 5x + y x + 6y 5 33 x, y x y x Keine Lösung
56 . Ganzzahlige lineare Optimierung Aufspaltung von P3 in Teilprobleme P5 und P6, da z P3 =7,4>z P =7,5 z = 7,5 ( xy ; ) = (9 ;,5) z = 7,88 P ( xy ; ) = (9, 3 ;,4) x 9 x P P z = 7,5 ( xy ; ) = ( ;,5) y y z = 7, 4 ( xy ; ) = (, ; ) P 3 P 4 Keine Lösung x x z = ( xy ; ) = ( ; ) P 5 P 6 Keine Lösung 55
57 . Ganzzahlige lineare Optimierung Aufspaltung von P in Teilprobleme P7 und P8, da z P =7,5>z P5 =7 z = 7,5 ( xy ; ) = (9 ;,5) z = 7,88 P ( xy ; ) = (9, 3 ;,4) x 9 x P P z = 7,5 ( xy ; ) = ( ;,5) y y 3 y y P 7 P 8 z = 7, 4 ( xy ; ) = (, ; ) P 3 P 4 Keine Lösung x x z = ( xy ; ) = ( ; ) P 5 P 6 Keine Lösung 56
58 P7. Ganzzahlige lineare Optimierung P7 : max z=7x+ 3y u.d.n. 5x+ y 5 x+ 6y 33 xy, x 9 y z = 69 ( xy ; ) = (9;)
59 P8. Ganzzahlige lineare Optimierung P8 : max z=7x+ 3y u.d.n. 5x+ y 5 x+ 6y 33 xy, x 9 y 3 z = 6,5 ( xy ; ) = (7,5 ; 3)
60 . Ganzzahlige lineare Optimierung Aufspaltung von P in Teilprobleme P7 und P8 z = 7,5 ( xy ; ) = (9 ;,5) z = 7,88 P ( xy ; ) = (9, 3 ;,4) x 9 x P P z = 7,5 ( xy ; ) = ( ;,5) y y 3 y y z = 69 ( xy ; ) = (9 ; ) P 7 P 8 z = 6,5 ( xy ; ) = (7,5 ; 3) z = 7, 4 ( xy ; ) = (, ; ) P 3 P 4 Keine Lösung x x z = ( xy ; ) = ( ; ) P 5 P 6 Keine Lösung 59
61 . Ganzzahlige lineare Optimierung Optimale Lösung als beste aller zulässigen Lösungen z = 7,5 ( xy ; ) = (9 ;,5) z = 7,88 P ( xy ; ) = (9, 3 ;,4) x 9 x P P z = 7,5 ( xy ; ) = ( ;,5) y y 3 y y z = 69 P 7 ( xy ; ) = (9 ; ) P 8 z = 6,5 ( xy ; ) = (7,5 ; 3) z = 7,4 ( xy ; ) = (, ; ) P 3 P 4 Keine Lösung x x z = ( xy ; ) = ( ; ) P 5 P 6 Keine Lösung 6
62 . Ganzzahlige lineare Optimierung Optimale Lösung als beste aller zulässigen Lösungen z = 7,5 ( xy ; ) = (9 ;,5) z = 7,88 P ( xy ; ) = (9, 3 ;,4) x 9 x P P z = 7,5 ( xy ; ) = ( ;,5) y y 3 y y z = 69 ( xy ; ) = (9 ; ) P 7 P 8 z = 6,5 ( xy ; ) = (7,5 ; 3) z = 7, 4 ( xy ; ) = (, ; ) P 3 P 4 Keine Lösung x x z = ( xy ; ) = ( ; ) P 5 P 6 Keine Lösung 6
63 . Ganzzahlige lineare Optimierung Anmerkungen Mit Hilfe der Auswahlregel wird bestimmt, in welcher Reihenfolge die Teilprobleme bearbeitet werden. Regel der größten Schranke: Bei einem Maximierungsproblem das als nächstes behandeln, welches noch nicht untersucht wurde und die größte Schranke (ZFW) besitzt. LIFO-Regel: Das zuletzt behandelte Teilproblem wird solange weiter untersucht, bis es ausgeschieden werden kann. Vor- und Nachteile beider Regeln bzgl. Kriterien, die bei der computergestützten Optimierung relevant sind?
Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2
Kapitel 12 Lagrange-Funktion Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28 Optimierung unter Nebenbedingungen Aufgabe: Berechne die Extrema der Funktion unter der Nebenbedingung
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
Mehr3.2.5 Dualität der linearen Optimierung I
3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem
MehrKuhn-Tucker Bedingung
Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,
MehrFK WMS: Wirtschaftsmathematik 2, Einheit 7/8
FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 markus.sinnl@univie.ac.at http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.
MehrKlausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2007/2008
Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester
Mehr14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert
14 Optimierung unter Nebenbedingungen 14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert [1] Lösen sie die folgenden Probleme, indem Sie diese auf ein univariates Problem zurückführen. Zeigen
Mehr(3D-)Extrema unter Nebenbedingungen. Problemstellung (lokale Optimierung)
(3D-)Extrema unter Nebenbedingungen Wir beschränken uns wieder (meistens) auf Funktionen von zwei Variablen x, y. Bei drei oder mehr Variablen x 1,..., x n sind die gleichen Techniken analog anwendbar,
MehrMathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf )
Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 65 (das agraökonomische Schaf ) Sascha Kurz Jörg Rambau 25 November 2009 2 66 Die Karush-Kuhn-Tucker-Methode Die Erkenntnisse
MehrComputer Science Department - High Performance and Web Computing Group. Optimierungsprobleme
Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter
MehrEinführung in die Volkswirtschaftslehre
Einführung in die Volkswirtschaftslehre Übung 1: Mathematische Analyseinstrumente Dipl.-Volksw. J.-E.Wesselhöft/ Dipl.-Volksw. J.Freese Bachelor Modul Volkswirtschaftliche Analyse (WS-14-V-03) HT 2009
MehrOptimierung für Wirtschaftsinformatiker: Lineare Programme
Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen
MehrLeibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber
Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Sitzplatznr.: Wiederholungsklausur zur Vorlesung Operations Research im Wintersemester
MehrKapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:
Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten
MehrKuhn-Tucker-Bedingung
Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann
MehrKuhn-Tucker-Bedingung
Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann
MehrKlausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2005/2006
Universität Hannover Wirtschaftswissenschaftliche Fakultät Lehrstuhl für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 005/006
MehrKAPITEL 3. Konvexe Funktionen
KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn
MehrWirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit 2: Lineare Algebra II
Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit : Lineare Algebra II Leseprobe Autor: Univ.-Prof. Dr. Wilhelm Rödder Dr. Peter Zörnig 74 4 Extrema bei Funktionen mehrerer
MehrLineare Optimierung: Simplexverfahren Phase Ⅰ
Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren
MehrDualitätssätze der linearen Optimierung
Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =
MehrExtrema mit Nebenbedingungen
Extrema mit Nebenbedingungen Gesucht ist das Extremum der Funktion f(x,y) = 5 x y unter der Nebenbedingung g(x,y) = x+y =. 5 y x In diesem einfachen Fall kann die Nebenbedingung nach einer Variablen aufgelöst
Mehr1 Der Simplex Algorithmus I
1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier
MehrMusterlösung zu Blatt 1
Musterlösung zu Blatt Analysis III für Lehramt Gymnasium Wintersemester 0/4 Überprüfe zunächst die notwendige Bedingung Dfx y z = 0 für die Existenz lokaler Extrema Mit x fx y z = 8x und y fx y z = + z
MehrKlausurrepetitorium ABWL
Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 2. Februar 25 Dr. Friedhelm Kulmann, Sandra Rudolph 2.2.5 Gliederung. Netzplantechnik.. Grundlagen der Netzplantechnik.2.
MehrSubstitutionsverfahren
Substitutionsverfahren 1 Motivation Wir stehen vor folgendem Problem: In unserem Betrieb kann unsere einzige Maschine Produkt A in zwei Stunden und Produkt B in einer Stunde produzieren. Die Maschine läuft
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
MehrDualität bei konvexer Optimierung
Dualität bei konvexer Optimierung Seminar zur Numerik I im SS 2016 Laslo Hunhold 10. Mai 2016 Ausarbeitung zum Seminarvortrag vom 2. Mai 2016 Mathematisches Institut Mathematisch-Naturwissenschaftliche
MehrInhaltsverzeichnis Grundlagen der Linearen Optimierung
Inhaltsverzeichnis 4 Grundlagen der Linearen Optimierung 1 4.1 Grundbegriffe............................. 1 4.1.1 Lineare Optimierung..................... 1 4.1.2 Das Grundmodell eines linearen Optimierungsproblems
MehrVorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung
Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen Kapitel IV: Grundlagen der Linearen Optimierung Inhaltsverzeichnis Abschnitt 3-5 3 Der Simplexalgorithmus 58 3.1 Grundlagen..............................
MehrLösung allgemeiner linearer Programme
Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt
MehrLagrange-Multiplikatoren
Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i
MehrMathematik 2 für Wirtschaftsinformatik
für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar
MehrInhaltsübersicht für heute:
Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen Relaxation Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen
MehrMikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1
1 Funktionen Definition 1 (Funktion). Übungsblatt 1 Eine Funktion f(x) einer reellen Variable x mit Definitionsbereich D ist eine Regel, die jeder Zahl x in D eine reelle Zahl f(x) eindeutig zuordnet.
MehrSimplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 4 Simplex-Verfahren Peter Becker (H-BRS) Operations Research I Sommersemester 24 86 / 298 Inhalt Inhalt 4 Simplex-Verfahren Dualer Simplexalgorithmus Vermeidung von Zyklen Peter Becker (H-BRS)
MehrRückblick auf die letzte Vorlesung
Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige
MehrAufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen
Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden
MehrExtremwerte von Funktionen mehrerer reeller Variabler
Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein
MehrKap. 4.3: Das Dualitätstheorem der linearen Optimierung
Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur
MehrOperations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung
Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden
Mehr1. Hausaufgabenblatt (16.04./ )
Lehrstuhl Ingenieurmathematik Modul: (Wirtschaftsingenieurwesen/Betriebswirtschaftslehre/Informatik) Sommersemester 2014 1. Hausaufgabenblatt (16.04./23.04.2015) Aufgabe H 1.1 Lösen Sie die linearen Gleichungssysteme
MehrOptimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung
Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze
MehrBranch-and-Bound und Varianten. Kapitel 3. Branch-and-Bound und Varianten. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 98 / 159
Kapitel 3 und Varianten Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 98 / 159 Inhalt Inhalt 3 und Varianten Anwendungsbeispiele Branch-and-Cut Peter Becker (H-BRS) Operations Research
MehrMathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum
MehrDas Lagrange-duale Problem
Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h
MehrWirtschaftsmathematik II
WMS: Wirtschaftsmathematik 2 :: WS 2009/10 Wirtschaftsmathematik II Reinhard Ullrich http://homepage.univie.ac.at/reinhard.ullrich Basierend auf Folien von Dr. Ivana Ljubic October 11, 2009 1 Funktionen
MehrOptimierungstheorie Scheinklausur Sommersemester Juli 2007
Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur
MehrÜbung 5, Analytische Optimierung
Übung 5, 5.7.2011 Analytische Optimierung Aufgabe 5.1 Bei der Herstellung von Konserven werden für Boden und Deckel bzw. für den Konservenmantel verschiedene Materialien verwendet, die g 1 = bzw. g 2 =
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung
MehrOptimierung. Vorlesung 02
Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j
MehrWirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 2016 Prof. Dr. Stefan Etschberger HSA Mögliche Fälle für Z Etschberger - WS2016 1 Z =, d.h., es existiert keine zulässige (x 1, x 2 )-Kombination. 2
MehrÜbung 3, Simplex-Algorithmus
Übung 3, 21.6.2011 Simplex-Algorithmus Aufgabe 3.1 Lösen Sie das folgende Optimierungsproblem (von Aufgabe 2.3) graphisch. Substituieren Sie dazu z = 5 y um ein 2-dimensionales Problem zu erhalten. Rechnung
MehrLösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik
Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik 1142KWL09 Aufgabe 1. Zeigen Sie, dass für alle n 2 gilt: n paarweise verschiedene Geraden im R 2 schneiden sich untereinander
MehrEigenschaften von LPs
2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört
MehrVORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max
MehrDifferenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie
Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Def.: eine Funktion n f :D mit D,x (x,...x
MehrInhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1
Inhaltsverzeichnis 1 Inhaltsverzeichnis Innere-Punkte-Verfahren 3 1 Theoretische Grundlagen 3 1.1 Die KKT-Bedingungen........................... 3 1.2 Der zentrale Pfad.............................. 4
MehrSchnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005
Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung
Mehr4.3.3 Simplexiteration
7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige
Mehr8. Lineare Optimierung
8. Lineare Optimierung 1 Einführung (1) Praktische Probleme sind oft Probleme mit Nebenbedingungen, z.b.: Ein Produktionsprozess hängt von Lieferterminen ab Die Menge der verstaubaren Güter ist durch die
MehrLösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =
Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls
MehrProbeklausur Optimierung
Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften Dr. Nico Düvelmeyer Hamburg, 4. Juli 2011 Probeklausur Optimierung Bitte selber ausfüllen: Name: (darf anonymisiert werden)
MehrGrundlagen der Optimierung. Übung 6
Technische Universität Chemnitz Chemnitz, 2. November 24 Prof. Dr. R. Herzog, J. Blechschmidt, A. Schäfer Abgabe am 28. November 24 Grundlagen der Optimierung Übung 6 Aufgabe 2: Verschiedene Verfahren
Mehrzul. Kurve g 1 C zul dθ (0) y = dϕ dθ (0) =
2. Grundlagen der nicht-linearen konvexen Optimierung 2.1. Die Karush-Kuhn-Tucker Bedingungen. Unser Basisproblem (NLO) sei geben durch min f(x) NLO g i (x) 0, i I = {1,..., m} x R n f, g i stetig differenzierbar.
MehrKapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester
MehrOptimierung. Vorlesung 08
Optimierung Vorlesung 08 Heute Dualität Ganzzahligkeit Optimierung der Vorlesung durch Evaluierung 2 Das duale LP Das primale LP Maximiere c T x unter Ax b, x R d 0. wird zu dem dualen LP Minimiere b T
Mehr6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode
6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,
MehrSattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen
Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sandro Grunert WS 08/09 Seminar Optimierung Technische Universität Chemnitz 1 Inhaltsverzeichnis 0 Grundlegende Situation
MehrWirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra
MehrKap. 4: Lineare Programmierung
Kap. 4: Lineare Programmierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 13./14. VO A&D WS 08/09 27.11./2.12.2008 Petra Mutzel Alg. & Dat.
MehrKombinatorische Optimierung
Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
MehrKlausur zur Vorlesung Operations Research im Wintersemester 2009/10
Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Sitzplatznr.: Klausur zur Vorlesung Operations Research im Wintersemester 2009/10
MehrStatistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik
Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Gliederung 1 : Einführung 2 Differenzieren 2 3 Deskriptive 4 Wahrscheinlichkeitstheorie
Mehr10 Extremwerte mit Nebenbedingungen
10 Extremwerte mit Nebenbedingungen 49 10 Extremwerte mit Nebenbedingungen Wir betrachten nun Extremwertaufgaben, bei denen nach dem Extremwert einer fx 1,, x n gesucht wird, aber die Menge der zulässigen
MehrMit 119 Bildern, 368 Beispielen und 225 Aufgaben mit Lösungen
Mathematik für Wirtschaftswissenschaftler Ein Lehr- und Übungsbuch für Bachelors 2., aktualisierte Auflage Mit 119 Bildern, 368 Beispielen und 225 Aufgaben mit Lösungen Fachbuchverlag Leipzig im Carl Hanser
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik 8.11.2011 1 von 38 Gliederung 1 2 Lagrange-Optimierung 2 von 38 Übersicht über die Stützvektormethode (SVM) Eigenschaften
Mehr2 Extrema unter Nebenbedingungen
$Id: lagrange.tex,v 1.6 2012/11/06 14:26:21 hk Exp hk $ 2 Extrema unter Nebenbedingungen 2.1 Restringierte Optimierungsaufgaben Nachdem wir jetzt die bereits bekannten Techniken zur Bestimmung der lokalen
Mehr7.11. Extrema unter Nebenbedingungen
7.11. Extrema unter Nebenbedingungen Randextrema Wir haben schon bemerkt, daß die üblichen Tests mit Hilfe von (eventuell höheren) Ableitungen nur Kriterien für (lokale) Extrema im Inneren des Definitionsgebietes
MehrWirtschaftsmathematik für International Management (BA)
Wirtschaftsmathematik für International Management (BA) Wintersemester 2012/13 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Lineare Algebra 4 Lineare Programme 5 Folgen und Reihen 6
Mehr10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen
10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie
MehrKlausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler
Wintersemester 2007/08 27.2.2008 Dr. Sascha Kurz Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler Bitte lesbar ausfüllen, Zutreffendes ankreuzen Herr Frau Name, Vorname: Anschrift:
MehrLineare Optimierungsmodelle
Lineare Optimierungsmodelle Simplex-Methode Vortragender: Michael Schneider Agenda Motivation Operations Research Aufbau linearer Optimierungsmodelle Simplex-Methode Ausblick 2 Problemstellung Futtermischung
Mehr3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z
R Es sei f : R n D R eine einmal stetig differenzierbare Funktion, für die in einer Umgebung eines Punkte a = a 1, a,, a n D gilt: fa 1, a,, a n = 0, f xn a 1, a,, a n 0 Dann gibt es eines Umgebung U des
MehrKlausur Mathematik, 1. Oktober 2012, A
Klausur, Mathematik, Oktober 2012, Lösungen, A 1 Klausur Mathematik, 1. Oktober 2012, A Die Klausureinsicht ist Do, 8.11.2012 um 18:00 in MZG 8.136. Die Klausur ist mit 30 Punkten bestanden. Falls Sie
MehrExtrema von Funktionen mit Nebenbedingung
Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen mit Nebenbedingung Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,
MehrSattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen
Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sandro Grunert WS 08/09 Seminar Optimierung Technische Universität Chemnitz Inhaltsverzeichnis 2 Inhaltsverzeichnis 0 Grundlegende
MehrMinimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m)
Minimumproblem Definition 4.7 Ein LP der Form nx Minimiere Z = c j x j j=1 unter den Nebenbedingungen nx d ij x j b i (i =1,...,m) j=1 und den Vorzeichenbedingungen x j 0(j =1,...,n) heißt Minimumproblem.
MehrMathematische Methoden der VWL
Mathematische Methoden der VWL Kapitel 2: Maximierung mit Nebenbedingungen Till Stowasser Klaus Schmidt, 2001 / Till Stowasser, 2014 LMU, Wintersemester 2014/2015 1 / 58 Syllabus Syllabus 2.1 Das Lagrange-Verfahren
MehrOptimierung unter Nebenbedingungen
Optimierung unter Nebenbedingungen Kapitel 7: Optimierung unter Nebenbedingungen Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 1. Juli 2009 1 / 18 7.1 Bemerkung
MehrOptimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn
Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
MehrOptimalitätsbedingungen
Optimalitätsbedingungen Nadja Irmscher 28. Mai 2010 1 Nachweis von Suboptimalität und Abbruchkriterien Über das gegebene Programm minimiere f 0 (x) über x D sodass f i (x) 0, i = 1,..., m h i (x) = 0,
MehrLineare Optimierung Teil 2
Lineare Optimierung Teil 2 Primale Degeneration Duale Degeneration = Mehrdeutigkeit Normalform kanonische Form Duale Simplexmethode HTW-Berlin FB3 Prof. Dr.F. Hartl 1 Primale Degeneration/1 Besitzt eine
MehrMATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE
Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE Differentialrechnung für Funktionen mehrerer
MehrKurvendiskussion für Funktionen mit einer Variablen
Kurvendiskussion für Funktionen mit einer Variablen Unter der Kurvendiskussion einer Funktionsgleichung versteht man die Zusammenstellung der wichtigsten Eigenschaften ihres Bildes mit anschließender Zeichnung.
MehrMultivariate Analysis
Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle
MehrInhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung
8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen
MehrEs wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger auf Details.
Kapitel 5 Lösungsverfahren Dieses Kapitel gibt einen Überblick über Lösungsverfahren für nichtlineare Optimierungsprobleme. Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger
Mehr