Klausurrepetitorium ABWL

Größe: px
Ab Seite anzeigen:

Download "Klausurrepetitorium ABWL"

Transkript

1 Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5

2 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches Programm.. Exkurs: Bestimmung von Extrema mit Langrange-Multiplikatoren-Methode.. Bestimmung von Extrema mit den KKT-Bedingungen.. Quotientenprogramm. Lösung ganzzahliger linearer Optimierungsprobleme mit Branch & Bound 9.8.5

3 . Nichtlineare Optimierungsprobleme Viele betriebswirtschaftlichen Fragestellungen führen zur Optimierung nichtlinearer Probleme (bspw. optimales Portfolio, optimales Werbeprogramm unter Berücksichtigung nichtlinearer Werberesponsefunktionen etc.) Besonderheit: Lineare Funktionen in den Nebenbedingungen Versuch der Lösung dieser Probleme mit bekannten Verfahren (Simplex-Verfahren) Transformation der nichtlinearen Zielfunktion in eine lineare Anwendung des Lösungsverfahrens auf das (Hilfs)problem Ggfs. Übertragung der Lösung des Hilfsproblems auf das Ausgangsproblem 9.8.5

4 . Quadratisches Programm Exkurs: Bestimmung der Extrema mit Hilfe der Lagrange-Methode () Gegeben: Nichtlineares Optimierungsproblem mit Gleichungen als Restriktionen max/min f ( x,..., xn ) u.d.n. g ( x,..., x ) = b n g ( x,..., x ) = b m n m Lagrangefunktion von f unter Nebenbedingungen: Lx (,..., x, λ,..., λ ) = n m f ( x,..., x ) + λ ( g ( x,..., x ) b ) λ ( g ( x,.., x ) b ) n n m m n m 3

5 . Quadratisches Programm Exkurs: Bestimmung der Extrema mit Hilfe der Lagrange-Methode () Bestimmung der kritischen Punkte L f g = + λ = i =,..., m x x x i i. L f gi = + λ i = i =,..., m x x x n n n L = g i(x,...,x n ) b i = i =,..., m λ i

6 Quadratisches Programm Exkurs: Bestimmung der Extrema mit Hilfe der Lagrange-Methode (3) Gegeben: Zielfunktion und Gleichungen in den Nebenbedingungen f ( x u.d.n. g( x, x, x + x Lagrangefunktion von f unter Nebenbedingung: Partielle Ableitungen gleich Null setzen: ) ) = x = 3x + x 8x = 6 x L( x, x, λ) = x + x 8x x + λ(3x + x L () 3 = x 8 + 3λ = x = 4 λ x L () = x + λ = x = 5 λ x L = 3x + x 6 = λ 6)

7 . Quadratisches Programm Exkurs: Bestimmung der Extrema mit Hilfe der Lagrange-Methode (4) Beispiel (Fortführung) () () Einsetzen von x und x in die Restriktionen 3 3(4 λ) + (5 λ) 6 = 3 λ = 3 Lösung: () () T 4 ( x, x, λ) = 3 Kritischer Punkt: () () T 4 33 ( x, x ) =, ,, 3 3 T T mit () () 36 f( x, x ) = =,

8 . Quadratisches Programm Exkurs: Bestimmung der Extrema mit Hilfe der Lagrange-Methode (4) Interpretation des Lagrange-Multiplikators: Schattenpreis Der Lagrange-Multiplikator λ i gibt an, um wieviel sich der Zielfunktionswert ändert, wenn sich b i um eine Einheit ändert. Beispiel: f ( x, x ) = x + x 8x x u.d.n. gx (, x) = 3x+ x = 5 () () f( x, x ) = + = = 8,

9 Bestimmung der Extrema mit Hilfe der Karush-Kuhn-Tucker- Bedingungen () Gegeben:. Quadratisches Programm Nichtlineares Optimierungsproblem mit Ungleichungen als Restriktionen und nichtnegativen Variablen -dimensionaler Fall min ( ) = 8 u.d.n. x x 3 f x x x

10 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen () Lagrangefunktion von f unter Nebenbedingung (u bezeichnet den Multiplikator): Lxu x x ux (, ) = 8 + ( 3) Die Lagrangefunktion nimmt im Sattelpunkt ihr Minimum in x und ihr Maximum in u an Anm.: Die Ausführungen gelten für reguläre Probleme, d.h. gewisse Regularitätsbedingungen müssen erfüllt sein (s. Kurs 854)

11 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (3) Lagrangefunktion nimmt im Sattelpunkt ihr Minimum in x und ihr Maximum in u an Da Nichtnegativitätsbedingung für x gegeben, ist partielle Ableitung >= bzw. <= Null L x L x = = x 8 + u x 3 x + 8 u 9.8.5

12 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (4) Gegeben: Nichtlineares Optimierungsproblem mit Ungleichungen als Restriktionen und nichtnegativen Variablen -dim. Fall min f ( x, x ) = x + x 8x x u.d.n. 3x + x 6 x, x 9.8.5

13 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (5) Lagrangefunktion von f unter Nebenbedingung (u bezeichnet den Multiplikator): Lx (, x, u) = x + x 8x x + u(3x+ x 6) Minimum der Langrangefunktion (unter Berücksichtigung der NNB) in x gegeben, wenn partielle Ableitungen nach x j >= Null und nach u <= Null L = x 8 + 3u x + 8 3u x L x = x + u x + u L = 3x + x 6 u

14 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (6) Um die optimale Lösung zu bestimmen, führen wir Schlupfvariable v j und s ein, um Ungleichungen in Gleichungen zu überführen Bedingungen: L = x + 8 3u + v = x 3u + v = 8 x L x = x + u+ v = x u+ v = 3x + x + s =

15 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (7) Einschub: Zusammenhang mit (5.7)? L = x 3u + v = 8 x L x = x u+ v = 3x + x + s = 6 = 3 = T A H x 3 v 8 i) - u + = x v ii) 3x + x + s = 6 iii) x, x, v, v, s 4

16 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (8) Ermittlung einer zulässigen Basislösung I u s x x v v RHS x x u v v s RHS Keine vollständige Einheitsbasis, daher Einführung von Hilfsvariable z j 5

17 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (9) Ermittlung einer zulässigen Basislösung II u s x x v v z z RHS x x u v v s z z RHS

18 Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen () Modifizierte KKT-Bedingungen nach Einführung der Hilfsvariable x 3 v 8 i) - u+ z z = x v ii) 3x + x + s = 6 iii) x, x, v, v, s Zu lösendes Hilfsproblem zur Bestimmung einer zulässigen Basislösung mittels -Phasen-Simplex min Z = z + z u.d.n. x 3 v 8 i) - u+ z z = x v ii) 3x + x + s = 6 iii) x, x, v, v, s

19 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen () min Z = z + z u.d.n. x 3 v 8 i) - u+ z z = x v ii) 3x + x + s = 6 iii) x, x, v, v, s u und s, v und x sowie v und x sind zueinander komplementäre Variable, daher dürfen sie nicht zusammen in die Basis. Aufgrund dessen vierte Bedingung: iv) v x =, v x =, s u = 8

20 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen () Beginn.Phase (II) und (III) mit (-) multipliziert x x u v v s z z RHS x x u v v s z z RHS

21 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (3) Subtraktion von (II) und (III) von (I) x x u v v s z z RHS z 3-8 z - s 3 6 Weil s in der Basis ist, darf u nicht aufgenommen werden, daher x oder x iv) v x =, v x =, s u = 9.8.5

22 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (4) x x u v v s z z RHS z 3-8 z - s 3 6 x x u v v s z z RHS -5-8 z 3-8 z x 3/ /

23 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (5) x x u v v s z z RHS -5-8 z 3-8 z x 3/ ½ 3 x x u v v S z z RHS -3/ -3/ -3/ 5/3-8 z 3/ - 3/ 3/ -3/ 8 u -3/ -/ -/ / x 3/ ½ 3

24 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (6) x x u v v S z z RHS -3/ -3/ -3/ 5/3-8 z 3/ - 3/ 3/ -3/ 8 u -3/ -/ -/ / x 3/ ½ 3 x x u v v s z z RHS x -/3 3/3 3/3 /3-3/3 4/3 u -3/3 -/3 -/3 3/3 /3 3/ x 3/3-9/6 /3-3/3-9/6 33/3 3

25 . Quadratisches Programm Bestimmung der Extrema mit Hilfe der KKT-Bedingungen (7) x x u v v s z z RHS x -/3 3/3 3/3 /3-3/3 4/3 u -3/3 -/3 -/3 3/3 /3 3/3 x 3/3-9/6 /3-3/3-9/6 33/ Phase abgeschlossen, d.h. zulässige Basislösung gefunden: T T ( x, x) =, mit f( x, x ) = =, /3 3 8 i) - 3 /3 = 33/3 ii) 3 4/3+ 33/3 = 6 iii) x, x, v, v, s iv) v x =, v x =, s u =

26 . Quadratisches Programm Beispiel für Nulllösung als optimale Lösung () Gegeben: Nichtlineares Optimierungsproblem mit Ungleichungen als Restriktionen und nichtnegativen Variablen min f ( x, x ) = x + x + 8x + x u.d.n. 3x + x 6 x, x

27 . Quadratisches Programm Beispiel für Nulllösung als optimale Lösung () Lagrangefunktion: Lx (, x, u) = x + x + 8x+ x + u(3x+ x 6) Partielle Ableitungen: L = x u x 8 3u x L = x + + u x u x L = 3x + x 6 u

28 . Quadratisches Programm Beispiel für Nulllösung als optimale Lösung (3) Prüfung, ob für Nulllösung KKT-Bedingungen erfüllt sind Wenn ja, dann ist Nulllösung optimale Lösung Wenn nein, dann gehe vor wie ab Folie 8 beschrieben 3 v 8 i) - + = v ii) 3x + x + s = 6 iii) x, x, v, v, s iv) v x =, v x =, s u = Anmerkung: u ist gleich Null, weil die Kapazitäten nicht berührt werden und daher der Schattenpreis Null ist

29 . Quadratisches Programm Anmerkungen Wie sehen die KKT-Bedingungen aus, wenn ein Maximierungsproblem vorliegt und kein Minimierungproblem? Warum? [Fragen nicht klausurrelevant!]

30 . Quotientenprogramm Problemstellung Betriebswirtschaftliche Entscheidungsprobleme stellen sich häufig als Maximierung einer Verhältnisgröße dar; Zähler und Nenner sind dabei lineare Funktionen der Entscheidungsvariablen max q u.d.n. = c d T T x x + c + d = z( x) n( x) Ax b x

31 Quotientenprogramm Beispiel x+ 5 x zx ( ) max q = = 5x+ 5x + n( x) u.d.n. 4x+ x 7 7x+ 3x 3 x 8 x, x Einführung der Schlupfvariablen x+ 5 x zx ( ) max q = = 5x+ 5x + n( x) u.d.n. 4x+ x + s = 7 7x+ 3x + s = 3 x + s3 = 8 x, x, s, s, s 3

32 . Quotientenprogramm. Zulässige Ausgangslösung x* suchen Da Konstante im Nenner d > ist, gilt für alle zulässigen Lösungen n(x) Daher kann mit der Nullösung gestartet werden. ( x, x, s, s, s ) = (,,7,3,8 )

33 . Quotientenprogramm. Hilfsprogramm aufstellen und lösen max x =z(x)-q(x*)n(x) + 5 qx (*) = = max x = x + 5x (5x + 5x + ) u.d.n. 4x + x + s = 7 7x + 3x + s = 3 x + s = 3 8 x, x, s, s, s 3 x x - x -5 s s s 3 RHS

34 Lösung:. Quotientenprogramm ( x, x, x, s, s, s ) = ( 4,,8,5,,) 3 x Setze x :=x* und gehe wieder zu. * qx ( ) = = = x = x+ 5 x (5x+ 5x + ) max x = x+ x u.d.n. x x x s s s 3 RHS x + x + s = 7 7x + 3x + s = 3 x + s = 8 3 x, x, s, s, s 3 -/ /3 3-56/

35 . Quotientenprogramm x x x s s s 3 RHS -/3-55/3-56/ Lösung: ( x, x, x, s, s, s ) = (,,8,5,,) 3 x = Optimale Lösung gefunden!

36 . Quotientenprogramm Idee des Verfahrens von Isbell und Marlow () Lösungsraum

37 . Quotientenprogramm Idee des Verfahrens von Isbell und Marlow () Der Schnittpunkt der Geraden z(x)= und n(x)= bestimmt die Hilfszielfunktionen z(x) n(x)

38 . Quotientenprogramm Idee des Verfahrens von Isbell und Marlow (3) Nullösung ist zulässige Ausgangslösung; über optimale Lösung des Hilfsproblems lässt sich über Konstruktionsvorschrift weiteres Hilfsproblem bestimmen z(x) n(x)

39 . Quotientenprogramm Idee des Verfahrens von Isbell und Marlow (4) Konstruktionsvorschrift bei Isbell/Marlow: x =z(x)-q(x*)n(x) z(x) n(x) x

40 . Quotientenprogramm Idee des Verfahrens von Isbell und Marlow (5) Optimale Lösung gefunden, wenn keine Verbesserung mehr möglich, d.h. Verfahren würde keine neue Ecke des Polyeders aufsuchen

41 . Ganzzahlige lineare Optimierung In der Praxis finden Methoden der linearen Optimierung breite Anwendung Bei einigen Problemen ist die Ganzzahligkeitsforderung für alle Strukturvariable (ILOP) oder für einige Variable (MILP) gegeben Verfahren der ganzzahligen Optimierung gehen von optimaler Lösung des zugehörigen nicht-ganzzahligen Problems aus und ermitteln dann sukzessiv die optimale Lösung des ganzzahligen Problems durch Einschränkung des Lösungsraums Entscheidungsbaumverfahren: Branch & Bound

42 . Ganzzahlige lineare Optimierung B & B ist ein spezielles Enumerationsverfahren Suche nach Optimallösung durch Aufspalten des Lösungsraums des LPs ohne Ganzzahligkeitsforderung Aufspaltung lässt sich als Verzweigung im Entscheidungsbaum darstellen

43 . Ganzzahlige lineare Optimierung Lösungsraum eines ILP (I) Beispiel: max z=7x+ 3y u.d.n. 5x+ y 5 (I) x+ 6y 33 (II) xy, und ganzzahlig (II)

44 . Ganzzahlige lineare Optimierung LP-Relaxation und Lösungsraum des zugehörigen LP max z=7x+ 3y u.d.n. 5x+ y 5 (I) x+ 6y 33 (II) xy,

45 . Ganzzahlige lineare Optimierung LP-Relaxation und Lösung des zugehörigen LP max z=7x+ 3y u.d.n. 5x+ y 5 (I) x+ 6y 33 (II) xy, Lösung: ( xy ; ) = (9, 3;, 4) z = 7,

46 . Ganzzahlige lineare Optimierung Aufspaltung in Teilprobleme P und P z = 7,88 P ( xy ; ) = (9, 3 ;,4) x 9 x P P max z=7x+ 3y u.d.n. 5x+ y 5 (I) x+ 6y 33 (II) xy, Lösung: ( xy ; ) = (9, 3;, 4) z = 7,

47 P. Ganzzahlige lineare Optimierung P: max z=7x+ 3y u.d.n. 5x+ y 5 (I) x+ 6y 33 (II) x 9 xy, Lösung : z = 7,5 ( xy ; ) = (9 ;,5)

48 P. Ganzzahlige lineare Optimierung P : max z=7x+ 3y u.d.n. 5x+ y 5 (I) x+ 6y 33 (II) x xy, Lösung : z = 7,5 ( xy ; ) = ( ;,5)

49 . Ganzzahlige lineare Optimierung Aufspaltung von P in Teilprobleme P3 und P4, da z P =7,5>z P =7,5 z = 7,5 ( xy ; ) = (9 ;,5) z = 7,88 P ( xy ; ) = (9, 3 ;,4) x 9 x P P z = 7,5 ( xy ; ) = ( ;,5) y y P 3 P

50 P3. Ganzzahlige lineare Optimierung P3: max z=7x+ 3y u.d.n. 5x+ y 5 x+ 6y 33 xy, x y Lösung : z = 7, 4 ( xy ; ) = (, ; )

51 P4. Ganzzahlige lineare Optimierung P4 : max z = 7x + 9 y u.d.n. 5x + y x + 6y 5 33 x, y x y Keine Lösung

52 . Ganzzahlige lineare Optimierung Aufspaltung in Teilprobleme P3 und P4 z = 7,5 ( xy ; ) = (9 ;,5) z = 7,88 P ( xy ; ) = (9, 3 ;,4) x 9 x P P z = 7,5 ( xy ; ) = ( ;,5) y y z = 7, 4 ( xy ; ) = (, ; ) P 3 P 4 Keine Lösung

53 . Ganzzahlige lineare Optimierung Aufspaltung von P3 in Teilprobleme P5 und P6, da z P3 =7,4>z P =7,5 z = 7,5 ( xy ; ) = (9 ;,5) z = 7,88 P ( xy ; ) = (9, 3 ;,4) x 9 x P P z = 7,5 ( xy ; ) = ( ;,5) y y z = 7, 4 ( xy ; ) = (, ; ) P 3 P 4 Keine Lösung x x P 5 P

54 P5. Ganzzahlige lineare Optimierung P5 : max z = 7x + 9 y u.d.n. 5x + y 5 x + 6y 33 x, y x y x Lösung : z = 7 ( x; y) = ( ; )

55 P6. Ganzzahlige lineare Optimierung P6 : max z = 7x + 9 y u.d.n. 5x + y x + 6y 5 33 x, y x y x Keine Lösung

56 . Ganzzahlige lineare Optimierung Aufspaltung von P3 in Teilprobleme P5 und P6, da z P3 =7,4>z P =7,5 z = 7,5 ( xy ; ) = (9 ;,5) z = 7,88 P ( xy ; ) = (9, 3 ;,4) x 9 x P P z = 7,5 ( xy ; ) = ( ;,5) y y z = 7, 4 ( xy ; ) = (, ; ) P 3 P 4 Keine Lösung x x z = ( xy ; ) = ( ; ) P 5 P 6 Keine Lösung 55

57 . Ganzzahlige lineare Optimierung Aufspaltung von P in Teilprobleme P7 und P8, da z P =7,5>z P5 =7 z = 7,5 ( xy ; ) = (9 ;,5) z = 7,88 P ( xy ; ) = (9, 3 ;,4) x 9 x P P z = 7,5 ( xy ; ) = ( ;,5) y y 3 y y P 7 P 8 z = 7, 4 ( xy ; ) = (, ; ) P 3 P 4 Keine Lösung x x z = ( xy ; ) = ( ; ) P 5 P 6 Keine Lösung 56

58 P7. Ganzzahlige lineare Optimierung P7 : max z=7x+ 3y u.d.n. 5x+ y 5 x+ 6y 33 xy, x 9 y z = 69 ( xy ; ) = (9;)

59 P8. Ganzzahlige lineare Optimierung P8 : max z=7x+ 3y u.d.n. 5x+ y 5 x+ 6y 33 xy, x 9 y 3 z = 6,5 ( xy ; ) = (7,5 ; 3)

60 . Ganzzahlige lineare Optimierung Aufspaltung von P in Teilprobleme P7 und P8 z = 7,5 ( xy ; ) = (9 ;,5) z = 7,88 P ( xy ; ) = (9, 3 ;,4) x 9 x P P z = 7,5 ( xy ; ) = ( ;,5) y y 3 y y z = 69 ( xy ; ) = (9 ; ) P 7 P 8 z = 6,5 ( xy ; ) = (7,5 ; 3) z = 7, 4 ( xy ; ) = (, ; ) P 3 P 4 Keine Lösung x x z = ( xy ; ) = ( ; ) P 5 P 6 Keine Lösung 59

61 . Ganzzahlige lineare Optimierung Optimale Lösung als beste aller zulässigen Lösungen z = 7,5 ( xy ; ) = (9 ;,5) z = 7,88 P ( xy ; ) = (9, 3 ;,4) x 9 x P P z = 7,5 ( xy ; ) = ( ;,5) y y 3 y y z = 69 P 7 ( xy ; ) = (9 ; ) P 8 z = 6,5 ( xy ; ) = (7,5 ; 3) z = 7,4 ( xy ; ) = (, ; ) P 3 P 4 Keine Lösung x x z = ( xy ; ) = ( ; ) P 5 P 6 Keine Lösung 6

62 . Ganzzahlige lineare Optimierung Optimale Lösung als beste aller zulässigen Lösungen z = 7,5 ( xy ; ) = (9 ;,5) z = 7,88 P ( xy ; ) = (9, 3 ;,4) x 9 x P P z = 7,5 ( xy ; ) = ( ;,5) y y 3 y y z = 69 ( xy ; ) = (9 ; ) P 7 P 8 z = 6,5 ( xy ; ) = (7,5 ; 3) z = 7, 4 ( xy ; ) = (, ; ) P 3 P 4 Keine Lösung x x z = ( xy ; ) = ( ; ) P 5 P 6 Keine Lösung 6

63 . Ganzzahlige lineare Optimierung Anmerkungen Mit Hilfe der Auswahlregel wird bestimmt, in welcher Reihenfolge die Teilprobleme bearbeitet werden. Regel der größten Schranke: Bei einem Maximierungsproblem das als nächstes behandeln, welches noch nicht untersucht wurde und die größte Schranke (ZFW) besitzt. LIFO-Regel: Das zuletzt behandelte Teilproblem wird solange weiter untersucht, bis es ausgeschieden werden kann. Vor- und Nachteile beider Regeln bzgl. Kriterien, die bei der computergestützten Optimierung relevant sind?

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2 Kapitel 12 Lagrange-Funktion Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28 Optimierung unter Nebenbedingungen Aufgabe: Berechne die Extrema der Funktion unter der Nebenbedingung

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

3.2.5 Dualität der linearen Optimierung I

3.2.5 Dualität der linearen Optimierung I 3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem

Mehr

Kuhn-Tucker Bedingung

Kuhn-Tucker Bedingung Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,

Mehr

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 markus.sinnl@univie.ac.at http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.

Mehr

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2007/2008

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2007/2008 Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester

Mehr

14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert

14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert 14 Optimierung unter Nebenbedingungen 14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert [1] Lösen sie die folgenden Probleme, indem Sie diese auf ein univariates Problem zurückführen. Zeigen

Mehr

(3D-)Extrema unter Nebenbedingungen. Problemstellung (lokale Optimierung)

(3D-)Extrema unter Nebenbedingungen. Problemstellung (lokale Optimierung) (3D-)Extrema unter Nebenbedingungen Wir beschränken uns wieder (meistens) auf Funktionen von zwei Variablen x, y. Bei drei oder mehr Variablen x 1,..., x n sind die gleichen Techniken analog anwendbar,

Mehr

Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf )

Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf ) Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 65 (das agraökonomische Schaf ) Sascha Kurz Jörg Rambau 25 November 2009 2 66 Die Karush-Kuhn-Tucker-Methode Die Erkenntnisse

Mehr

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter

Mehr

Einführung in die Volkswirtschaftslehre

Einführung in die Volkswirtschaftslehre Einführung in die Volkswirtschaftslehre Übung 1: Mathematische Analyseinstrumente Dipl.-Volksw. J.-E.Wesselhöft/ Dipl.-Volksw. J.Freese Bachelor Modul Volkswirtschaftliche Analyse (WS-14-V-03) HT 2009

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber

Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Sitzplatznr.: Wiederholungsklausur zur Vorlesung Operations Research im Wintersemester

Mehr

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten

Mehr

Kuhn-Tucker-Bedingung

Kuhn-Tucker-Bedingung Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann

Mehr

Kuhn-Tucker-Bedingung

Kuhn-Tucker-Bedingung Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann

Mehr

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2005/2006

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2005/2006 Universität Hannover Wirtschaftswissenschaftliche Fakultät Lehrstuhl für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 005/006

Mehr

KAPITEL 3. Konvexe Funktionen

KAPITEL 3. Konvexe Funktionen KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn

Mehr

Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit 2: Lineare Algebra II

Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit 2: Lineare Algebra II Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit : Lineare Algebra II Leseprobe Autor: Univ.-Prof. Dr. Wilhelm Rödder Dr. Peter Zörnig 74 4 Extrema bei Funktionen mehrerer

Mehr

Lineare Optimierung: Simplexverfahren Phase Ⅰ

Lineare Optimierung: Simplexverfahren Phase Ⅰ Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

Extrema mit Nebenbedingungen

Extrema mit Nebenbedingungen Extrema mit Nebenbedingungen Gesucht ist das Extremum der Funktion f(x,y) = 5 x y unter der Nebenbedingung g(x,y) = x+y =. 5 y x In diesem einfachen Fall kann die Nebenbedingung nach einer Variablen aufgelöst

Mehr

1 Der Simplex Algorithmus I

1 Der Simplex Algorithmus I 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier

Mehr

Musterlösung zu Blatt 1

Musterlösung zu Blatt 1 Musterlösung zu Blatt Analysis III für Lehramt Gymnasium Wintersemester 0/4 Überprüfe zunächst die notwendige Bedingung Dfx y z = 0 für die Existenz lokaler Extrema Mit x fx y z = 8x und y fx y z = + z

Mehr

Klausurrepetitorium ABWL

Klausurrepetitorium ABWL Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 2. Februar 25 Dr. Friedhelm Kulmann, Sandra Rudolph 2.2.5 Gliederung. Netzplantechnik.. Grundlagen der Netzplantechnik.2.

Mehr

Substitutionsverfahren

Substitutionsverfahren Substitutionsverfahren 1 Motivation Wir stehen vor folgendem Problem: In unserem Betrieb kann unsere einzige Maschine Produkt A in zwei Stunden und Produkt B in einer Stunde produzieren. Die Maschine läuft

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

Dualität bei konvexer Optimierung

Dualität bei konvexer Optimierung Dualität bei konvexer Optimierung Seminar zur Numerik I im SS 2016 Laslo Hunhold 10. Mai 2016 Ausarbeitung zum Seminarvortrag vom 2. Mai 2016 Mathematisches Institut Mathematisch-Naturwissenschaftliche

Mehr

Inhaltsverzeichnis Grundlagen der Linearen Optimierung

Inhaltsverzeichnis Grundlagen der Linearen Optimierung Inhaltsverzeichnis 4 Grundlagen der Linearen Optimierung 1 4.1 Grundbegriffe............................. 1 4.1.1 Lineare Optimierung..................... 1 4.1.2 Das Grundmodell eines linearen Optimierungsproblems

Mehr

Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung

Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen Kapitel IV: Grundlagen der Linearen Optimierung Inhaltsverzeichnis Abschnitt 3-5 3 Der Simplexalgorithmus 58 3.1 Grundlagen..............................

Mehr

Lösung allgemeiner linearer Programme

Lösung allgemeiner linearer Programme Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt

Mehr

Lagrange-Multiplikatoren

Lagrange-Multiplikatoren Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i

Mehr

Mathematik 2 für Wirtschaftsinformatik

Mathematik 2 für Wirtschaftsinformatik für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar

Mehr

Inhaltsübersicht für heute:

Inhaltsübersicht für heute: Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen Relaxation Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen

Mehr

Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1

Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1 1 Funktionen Definition 1 (Funktion). Übungsblatt 1 Eine Funktion f(x) einer reellen Variable x mit Definitionsbereich D ist eine Regel, die jeder Zahl x in D eine reelle Zahl f(x) eindeutig zuordnet.

Mehr

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 4 Simplex-Verfahren Peter Becker (H-BRS) Operations Research I Sommersemester 24 86 / 298 Inhalt Inhalt 4 Simplex-Verfahren Dualer Simplexalgorithmus Vermeidung von Zyklen Peter Becker (H-BRS)

Mehr

Rückblick auf die letzte Vorlesung

Rückblick auf die letzte Vorlesung Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige

Mehr

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden

Mehr

Extremwerte von Funktionen mehrerer reeller Variabler

Extremwerte von Funktionen mehrerer reeller Variabler Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein

Mehr

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur

Mehr

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden

Mehr

1. Hausaufgabenblatt (16.04./ )

1. Hausaufgabenblatt (16.04./ ) Lehrstuhl Ingenieurmathematik Modul: (Wirtschaftsingenieurwesen/Betriebswirtschaftslehre/Informatik) Sommersemester 2014 1. Hausaufgabenblatt (16.04./23.04.2015) Aufgabe H 1.1 Lösen Sie die linearen Gleichungssysteme

Mehr

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze

Mehr

Branch-and-Bound und Varianten. Kapitel 3. Branch-and-Bound und Varianten. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 98 / 159

Branch-and-Bound und Varianten. Kapitel 3. Branch-and-Bound und Varianten. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 98 / 159 Kapitel 3 und Varianten Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 98 / 159 Inhalt Inhalt 3 und Varianten Anwendungsbeispiele Branch-and-Cut Peter Becker (H-BRS) Operations Research

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum

Mehr

Das Lagrange-duale Problem

Das Lagrange-duale Problem Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h

Mehr

Wirtschaftsmathematik II

Wirtschaftsmathematik II WMS: Wirtschaftsmathematik 2 :: WS 2009/10 Wirtschaftsmathematik II Reinhard Ullrich http://homepage.univie.ac.at/reinhard.ullrich Basierend auf Folien von Dr. Ivana Ljubic October 11, 2009 1 Funktionen

Mehr

Optimierungstheorie Scheinklausur Sommersemester Juli 2007

Optimierungstheorie Scheinklausur Sommersemester Juli 2007 Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur

Mehr

Übung 5, Analytische Optimierung

Übung 5, Analytische Optimierung Übung 5, 5.7.2011 Analytische Optimierung Aufgabe 5.1 Bei der Herstellung von Konserven werden für Boden und Deckel bzw. für den Konservenmantel verschiedene Materialien verwendet, die g 1 = bzw. g 2 =

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung

Mehr

Optimierung. Vorlesung 02

Optimierung. Vorlesung 02 Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 2016 Prof. Dr. Stefan Etschberger HSA Mögliche Fälle für Z Etschberger - WS2016 1 Z =, d.h., es existiert keine zulässige (x 1, x 2 )-Kombination. 2

Mehr

Übung 3, Simplex-Algorithmus

Übung 3, Simplex-Algorithmus Übung 3, 21.6.2011 Simplex-Algorithmus Aufgabe 3.1 Lösen Sie das folgende Optimierungsproblem (von Aufgabe 2.3) graphisch. Substituieren Sie dazu z = 5 y um ein 2-dimensionales Problem zu erhalten. Rechnung

Mehr

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik 1142KWL09 Aufgabe 1. Zeigen Sie, dass für alle n 2 gilt: n paarweise verschiedene Geraden im R 2 schneiden sich untereinander

Mehr

Eigenschaften von LPs

Eigenschaften von LPs 2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört

Mehr

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max

Mehr

Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie

Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Def.: eine Funktion n f :D mit D,x (x,...x

Mehr

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis Innere-Punkte-Verfahren 3 1 Theoretische Grundlagen 3 1.1 Die KKT-Bedingungen........................... 3 1.2 Der zentrale Pfad.............................. 4

Mehr

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005 Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung

Mehr

4.3.3 Simplexiteration

4.3.3 Simplexiteration 7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige

Mehr

8. Lineare Optimierung

8. Lineare Optimierung 8. Lineare Optimierung 1 Einführung (1) Praktische Probleme sind oft Probleme mit Nebenbedingungen, z.b.: Ein Produktionsprozess hängt von Lieferterminen ab Die Menge der verstaubaren Güter ist durch die

Mehr

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 = Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls

Mehr

Probeklausur Optimierung

Probeklausur Optimierung Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften Dr. Nico Düvelmeyer Hamburg, 4. Juli 2011 Probeklausur Optimierung Bitte selber ausfüllen: Name: (darf anonymisiert werden)

Mehr

Grundlagen der Optimierung. Übung 6

Grundlagen der Optimierung. Übung 6 Technische Universität Chemnitz Chemnitz, 2. November 24 Prof. Dr. R. Herzog, J. Blechschmidt, A. Schäfer Abgabe am 28. November 24 Grundlagen der Optimierung Übung 6 Aufgabe 2: Verschiedene Verfahren

Mehr

zul. Kurve g 1 C zul dθ (0) y = dϕ dθ (0) =

zul. Kurve g 1 C zul dθ (0) y = dϕ dθ (0) = 2. Grundlagen der nicht-linearen konvexen Optimierung 2.1. Die Karush-Kuhn-Tucker Bedingungen. Unser Basisproblem (NLO) sei geben durch min f(x) NLO g i (x) 0, i I = {1,..., m} x R n f, g i stetig differenzierbar.

Mehr

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester

Mehr

Optimierung. Vorlesung 08

Optimierung. Vorlesung 08 Optimierung Vorlesung 08 Heute Dualität Ganzzahligkeit Optimierung der Vorlesung durch Evaluierung 2 Das duale LP Das primale LP Maximiere c T x unter Ax b, x R d 0. wird zu dem dualen LP Minimiere b T

Mehr

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode 6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,

Mehr

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sandro Grunert WS 08/09 Seminar Optimierung Technische Universität Chemnitz 1 Inhaltsverzeichnis 0 Grundlegende Situation

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra

Mehr

Kap. 4: Lineare Programmierung

Kap. 4: Lineare Programmierung Kap. 4: Lineare Programmierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 13./14. VO A&D WS 08/09 27.11./2.12.2008 Petra Mutzel Alg. & Dat.

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Klausur zur Vorlesung Operations Research im Wintersemester 2009/10

Klausur zur Vorlesung Operations Research im Wintersemester 2009/10 Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Sitzplatznr.: Klausur zur Vorlesung Operations Research im Wintersemester 2009/10

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Gliederung 1 : Einführung 2 Differenzieren 2 3 Deskriptive 4 Wahrscheinlichkeitstheorie

Mehr

10 Extremwerte mit Nebenbedingungen

10 Extremwerte mit Nebenbedingungen 10 Extremwerte mit Nebenbedingungen 49 10 Extremwerte mit Nebenbedingungen Wir betrachten nun Extremwertaufgaben, bei denen nach dem Extremwert einer fx 1,, x n gesucht wird, aber die Menge der zulässigen

Mehr

Mit 119 Bildern, 368 Beispielen und 225 Aufgaben mit Lösungen

Mit 119 Bildern, 368 Beispielen und 225 Aufgaben mit Lösungen Mathematik für Wirtschaftswissenschaftler Ein Lehr- und Übungsbuch für Bachelors 2., aktualisierte Auflage Mit 119 Bildern, 368 Beispielen und 225 Aufgaben mit Lösungen Fachbuchverlag Leipzig im Carl Hanser

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik 8.11.2011 1 von 38 Gliederung 1 2 Lagrange-Optimierung 2 von 38 Übersicht über die Stützvektormethode (SVM) Eigenschaften

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrange.tex,v 1.6 2012/11/06 14:26:21 hk Exp hk $ 2 Extrema unter Nebenbedingungen 2.1 Restringierte Optimierungsaufgaben Nachdem wir jetzt die bereits bekannten Techniken zur Bestimmung der lokalen

Mehr

7.11. Extrema unter Nebenbedingungen

7.11. Extrema unter Nebenbedingungen 7.11. Extrema unter Nebenbedingungen Randextrema Wir haben schon bemerkt, daß die üblichen Tests mit Hilfe von (eventuell höheren) Ableitungen nur Kriterien für (lokale) Extrema im Inneren des Definitionsgebietes

Mehr

Wirtschaftsmathematik für International Management (BA)

Wirtschaftsmathematik für International Management (BA) Wirtschaftsmathematik für International Management (BA) Wintersemester 2012/13 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Lineare Algebra 4 Lineare Programme 5 Folgen und Reihen 6

Mehr

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen 10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie

Mehr

Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler

Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler Wintersemester 2007/08 27.2.2008 Dr. Sascha Kurz Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler Bitte lesbar ausfüllen, Zutreffendes ankreuzen Herr Frau Name, Vorname: Anschrift:

Mehr

Lineare Optimierungsmodelle

Lineare Optimierungsmodelle Lineare Optimierungsmodelle Simplex-Methode Vortragender: Michael Schneider Agenda Motivation Operations Research Aufbau linearer Optimierungsmodelle Simplex-Methode Ausblick 2 Problemstellung Futtermischung

Mehr

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z R Es sei f : R n D R eine einmal stetig differenzierbare Funktion, für die in einer Umgebung eines Punkte a = a 1, a,, a n D gilt: fa 1, a,, a n = 0, f xn a 1, a,, a n 0 Dann gibt es eines Umgebung U des

Mehr

Klausur Mathematik, 1. Oktober 2012, A

Klausur Mathematik, 1. Oktober 2012, A Klausur, Mathematik, Oktober 2012, Lösungen, A 1 Klausur Mathematik, 1. Oktober 2012, A Die Klausureinsicht ist Do, 8.11.2012 um 18:00 in MZG 8.136. Die Klausur ist mit 30 Punkten bestanden. Falls Sie

Mehr

Extrema von Funktionen mit Nebenbedingung

Extrema von Funktionen mit Nebenbedingung Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen mit Nebenbedingung Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,

Mehr

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sandro Grunert WS 08/09 Seminar Optimierung Technische Universität Chemnitz Inhaltsverzeichnis 2 Inhaltsverzeichnis 0 Grundlegende

Mehr

Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m)

Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m) Minimumproblem Definition 4.7 Ein LP der Form nx Minimiere Z = c j x j j=1 unter den Nebenbedingungen nx d ij x j b i (i =1,...,m) j=1 und den Vorzeichenbedingungen x j 0(j =1,...,n) heißt Minimumproblem.

Mehr

Mathematische Methoden der VWL

Mathematische Methoden der VWL Mathematische Methoden der VWL Kapitel 2: Maximierung mit Nebenbedingungen Till Stowasser Klaus Schmidt, 2001 / Till Stowasser, 2014 LMU, Wintersemester 2014/2015 1 / 58 Syllabus Syllabus 2.1 Das Lagrange-Verfahren

Mehr

Optimierung unter Nebenbedingungen

Optimierung unter Nebenbedingungen Optimierung unter Nebenbedingungen Kapitel 7: Optimierung unter Nebenbedingungen Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 1. Juli 2009 1 / 18 7.1 Bemerkung

Mehr

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

Optimalitätsbedingungen

Optimalitätsbedingungen Optimalitätsbedingungen Nadja Irmscher 28. Mai 2010 1 Nachweis von Suboptimalität und Abbruchkriterien Über das gegebene Programm minimiere f 0 (x) über x D sodass f i (x) 0, i = 1,..., m h i (x) = 0,

Mehr

Lineare Optimierung Teil 2

Lineare Optimierung Teil 2 Lineare Optimierung Teil 2 Primale Degeneration Duale Degeneration = Mehrdeutigkeit Normalform kanonische Form Duale Simplexmethode HTW-Berlin FB3 Prof. Dr.F. Hartl 1 Primale Degeneration/1 Besitzt eine

Mehr

MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE

MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE Differentialrechnung für Funktionen mehrerer

Mehr

Kurvendiskussion für Funktionen mit einer Variablen

Kurvendiskussion für Funktionen mit einer Variablen Kurvendiskussion für Funktionen mit einer Variablen Unter der Kurvendiskussion einer Funktionsgleichung versteht man die Zusammenstellung der wichtigsten Eigenschaften ihres Bildes mit anschließender Zeichnung.

Mehr

Multivariate Analysis

Multivariate Analysis Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle

Mehr

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung 8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen

Mehr

Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger auf Details.

Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger auf Details. Kapitel 5 Lösungsverfahren Dieses Kapitel gibt einen Überblick über Lösungsverfahren für nichtlineare Optimierungsprobleme. Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger

Mehr