Optimierung Einführung in Computational Management Science. Prof. Dietmar Maringer FS WWZ, Universität Basel

Größe: px
Ab Seite anzeigen:

Download "Optimierung Einführung in Computational Management Science. Prof. Dietmar Maringer FS WWZ, Universität Basel"

Transkript

1 Optimierung Einführung in Computational Management Science Prof. Dietmar Maringer WWZ, Universität Basel FS 2012 D Maringer, Einführung in Computational Management Science Optimierung (1)

2 Modellierung und Optimierung Beispiel: Eisverkäufer (Fortsetzung) Nachfragefunktion: q = p variable Kosten je Stück: c = 0.30 optimaler Preis: p =... Beispiel: Angebot und Nachfrage Nachfrage: q D = p Angebot: q S = 2000p variable Kosten je Stück: c = 0.30 optimaler Preis: p =... Beispiel: Einheitspreis für unterschiedliche Märkte Nachfrage auf Markt A: q A = 0.5p 0.2 Nachfrage auf Markt B: q B = 0.7p 0.3 variable Kosten je Stück: c = 0.30 optimaler Preis: p =... D Maringer, Einführung in Computational Management Science Optimierung (2)

3 Modellierung und Optimierung Produktionsprogramm 2 mögliche Produkte: Deckungsbeitrag maximale Produktions- Produkt je Stück Absatzmenge zeit je Stück A min B min Welche Menge soll von A und B produziert werden, falls 1 beliebig viel Zeit 2 6 Stunden 3 5 Stunden 4 4 Stunden zur Verfügung stehen? D Maringer, Einführung in Computational Management Science Optimierung (3)

4 Modellierung von Optimierungsproblemen Zutaten Zielfunktion z.b. Gewinn (max), Kosten (min) Entscheidungsvariable(n) z.b. Produktionsmengen, Investitionen, Preise, Nebenbedingungen z.b. Kapazitäten, Mindestmengen, Substitute D Maringer, Einführung in Computational Management Science Optimierung (4)

5 Formalisierung von Problemen ein einfaches Beispiel ein Unternehmen kann Stühle und Tische produzieren notwendige und vorhandene Ressourcen: pro Einheit Aufgabe Stuhl Tisch Verfügbarkeit (h) Werkbank Montage Malerei Gewinn D Maringer, Einführung in Computational Management Science Optimierung (5)

6 Formalisierung von Problemen mögliche Lösungsverfahren 1. und 2. Ableitung analytisch Gleichungssysteme Methoden deterministisch numerisch non-deterministisch D Maringer, Einführung in Computational Management Science Optimierung (6)

7 1-dimensionale Verfahren Problemstellung 1 Entscheidungsvariable gesucht: Extremum für Funktion typischerweise Suche in geschlossenem Intervall [a 0,b 0 ] Annahme: Funktion hat nur 1 Extremum (in diesem Intervall) mögliche numerische Vorgehensweisen bei 1 Entscheidungsvariable iterativ Werte testen ideal: möglichst wenige Versuche typische Ansätze Bisektionsverfahren Newtonsches Verfahren D Maringer, Einführung in Computational Management Science Optimierung (7)

8 Bisektionsverfahren (wiederholte Intervallhalbierung) Ausgangssituation konkaves Problem 1. Ableitung existiert Ziel: Finden des Extremums in vorgegebenem Intervall Verfahren aktuelles Intervall: [a 0,b 0 ] prüfe neue Lösung im Punkt c = a 0+b 0 2 if f (c) > 0 c muss grösser als c sein ersetze die Untergrenze: a 0 := c sonst: b 0 := c wiederhole die Schritte, bis Intervall ausreichend schmal f (c) > 0 a 0 c b 0 f (x) D Maringer, Einführung in Computational Management Science Optimierung (8) x

9 Newtonsches Verfahren Tests für die erste und zweite Ableitung first order condition (FOC) f (x) = df dx = 0 FOC notwendig, aber nicht hinreichend: konvexe / konkave Zielfunktion Wendepunkte second order conditions (SOC) f (x) f (x) 2 f (x) = d2 f dx 2 { > 0 Minimum < 0 Maximum D Maringer, Einführung in Computational Management Science Optimierung (9)

10 Newtonsches Verfahren Taylor Reihe und relatives Extremum: Methoden nach Newton lokale quadratische Approximation der Zielfunktion Taylor Reihe: [γ(s) ] φ(x 0 +s) φ(x 0 ) + φ (x 0 )s + φ (x 0 ) s 2 2 gesucht: jenes s, das φ(x 0 +s) minimiert: γ (s) = φ (x 0 ) + φ (x 0 )s = 0 = s = φ (x 0 ) φ (x 0 ) iterativ: x [k+1] = x [k] +s = x [k] φ (x [k] ) φ (x [k] ) D Maringer, Einführung in Computational Management Science Optimierung (10)

11 Newtonsches Verfahren Beispiel f (x) = x 3 3x +3 f (x) = 3x 2 3 f (x) = 6x q(x) = f (x [k] ) +f (x [k] ) (x x [k] ) f (x [k] )(x x [k] ) 2 f (x [0] ) q(x [0] ) f (x) x [2] x [1] x [0] x D Maringer, Einführung in Computational Management Science Optimierung (11)

12 Newtonsches Verfahren Numerische Annäherung f f (x + ε) f (x ε) (x) 2ε f (x) f (x + ε) f (x ε) f (x + ε) +f (x ε) 2f (x) 2ε ε 2 Beispiel mit anonymen Funktionen in Matlab: f x.ˆ2 + sin(x); fpnum (f(x+e)-f(x-e)) / (2*e); fppnum (f(x+e)+f(x-e) - 2*f(x)) / (e.ˆ2); x(k+1) = x(k) - fpnum(x,e) / fppnum(x,e); Hinweis: aus numerischen Gründen sollte ε (= e) nicht zu klein sein D Maringer, Einführung in Computational Management Science Optimierung (12)

13 Newtonsches Verfahren Beispiel f (x) = 3 2x +4x 2 f (x) = 2 +8x f (x) = 8 offensichtlich... f (x) = 0 = x = 1/4 Newtonsches Verfahren x [k] f (x [k] ) f (x [k] ) f (x [k] )/f (x [k] ) = D Maringer, Einführung in Computational Management Science Optimierung (13)

14 Newtonsches Verfahren Beispiel f (x) = x 2 +sin(x) f (x) = 2x +cos(x) f (x) = 2 sin(x) Newtonsches Verfahren x [k] f (x [k] ) f (x [k] ) f /f E E E E D Maringer, Einführung in Computational Management Science Optimierung (14)

15 Newtonsches Verfahren & Cie. worauf man achten sollte Beispiel funktioniert gut für Minimumsuche, falls allgemein gilt f (x) > 0 konvergiert nicht zum Minimum, falls abschnittsweise f (x) < 0 f (x) x [1] x [1] x [0] x [0] x [1] x [0] x D Maringer, Einführung in Computational Management Science Optimierung (15)

16 Variante: Gradientensuche Grundidee je stärker negativ die Tangente (f ), desto schneller nimmt die Funktion (f ) ab Vorgehensweise 1 wähle gute Startlösung 2 wiederhole bis zur Konvergenz: (a) bestimme Gradient der aktuellen Lösung, f (x [k] ) = f (x [k] ) (b) wähle neue { Versuchslösung x[k] + α f (x [k] ) für Maximierung Wahl von α x [k+1] = x [k] α f (x [k] ) für Minimierung beeinflusst die Geschwindigkeit (viele Iterationen überschrittenes Optimum) ist die Lösung für das Minimierungsproblem α [ ( = argmin f x[k] αf (x α [k] ) )] D Maringer, Einführung in Computational Management Science Optimierung (16)

17 Gradientenbasierte Verfahren & Cie. Probleme mit bisherigen gradientenbasierten Verfahren Zielfunktion muss ableitbar sein lokale quadratische Approximation Konvergenzverhalten mehrere Extrema (lokales globales Optimum) Auswahl der Startlösung D Maringer, Einführung in Computational Management Science Optimierung (17)

18 Deterministische Suche ohne Gradienten Nelder-Mead Verfahren, (downhill) simplex Grundprinzip für Minimierung mit n Entscheidungsvariablen wähle n +1 Testlösungen, x 1,...,x n+1 ( Simplex ) iterativ: erzeuge neue Lösungen unter Verwendung der aktuellen falls möglich, ersetze aktuell schlechteste mit besserer (gemäss Entscheidungsregeln), andernfalls schrumpfe den Simplex Erzeugung neuer Lösungen (vereinfacht gesagt... ): wähle aktuell schlechteste Lösung, x w ermittle durchschnittliche Position der anderen, x ziehe Verbindungslinie von x w und x und wähle den neuen Punkt hinter x, falls besser zwischen x w und x, falls besser oder schrumpfe Simple (d.h. bringe aktuelle Punkte näher zusammen) in Matlab: fminsearch D Maringer, Einführung in Computational Management Science Optimierung (18)

19 Lineare Programmierung Ausgangssituation mehrere Entscheidungsvariable: x 1,x 2,...x n wichtige Eigenschaften für lineare Programme in Standardform: lineare Zielfunktion: max c 1 x 1 +c 2 x 2 + +c n x n x 1,x 2,...,x n Nicht-Negativität der Entscheidungsvariablen: x i 0 i = 1...n m lineare Nebenbedingungen (Ungleichungen): a j1 x 1 +a j2 x 2 + +a jn x n b j j = 1...m oder, etwas kompakter geschrieben: maxc x x unter den Nebenbedingungen Ax b x 0 D Maringer, Einführung in Computational Management Science Optimierung (19)

20 Lineare Programmierung Standard und erweiterte Form Ungleichungen und Gleichungen Schlupfvariable: a ji x i b j a ji x i +y j = b j mit y j 0 i i a ji x i b j a ji x i y j = b j mit y j 0 i i freie Variable können jedes Vorzeichen haben: x k 0 durch nicht-negative Variable u k und v k ersetzen: x k := u k v k with u k 0,v k 0 mit Hilfe der Nebenbedingungen als lineare Kombination anderer Variablen aus NB j ausdrücken (a jk 0): ( a ji x i = b j x k = i b j ) a ji x i a jk i k D Maringer, Einführung in Computational Management Science Optimierung (20)

21 Lineare Programmierung Umwandlung in Standardform: Beispiel 1 ursprüngliches Problem min x 1 +3x 2 +4x 3 s.t. x 1 +2x 2 +x 3 = 5 2x 1 +3x 2 +x 3 = 6 x 2 0,x x 1 ist eine freie Variable, daher aus 1. NB: x 1 = 5 2x 2 x 3 3 Einsetzen in das ursprüngliche Problem: min x 2 +3x 3 s.t. x 2 +x 3 = 4 x 2 0,x 3 0 löse das reduzierte Problem für x 2 und x 3. (Optimale Lösung: x 2 = 4,x 3 = 0 = x 1 = 3) D Maringer, Einführung in Computational Management Science Optimierung (21)

22 Graphische Darstellung von Linearen Problemen Zielfunktion Z = 210 = 20x 1 +30x 2 7 Z = 180 = 20x 1 +30x 2 6 Z = 150 = 20x 1 +30x 2 5 Z = 120 = 20x 1 +30x 2 4 Z = 90 = 20x 1 +30x 2 3 Z = 60 = 20x 1 +30x 2 2 Z = 30 = 20x 1 +30x 2 1 x Beispiel max Z = 20x 1 +30x 2, u.d.n. x 1 4 2x x 1 + 2x 2 18 und x 1 0,x x 1 D Maringer, Einführung in Computational Management Science Optimierung (22)

23 Graphische Darstellung von Linearen Problemen Nebenbedingungen x 2 10 x x 1 0 x x x 1 +2x x 1 Beispiel max Z = 20x 1 +30x 2, u.d.n. x 1 4 2x x 1 + 2x 2 18 und x 1 0,x 2 0 D Maringer, Einführung in Computational Management Science Optimierung (23)

24 Graphische Darstellung von Linearen Problemen Gültige Eckpunkte (GEP) Z = Z = Z = Z = Z = 90 3 Z = 60 2 Z = 30 1 (0,0) x 2 (0,6) 1 2 (2,6) 3 4 (4,3) (4,0) Beispiel max Z = 20x 1 +30x 2, u.d.n. x 1 4 2x x 1 + 2x 2 18 und x 1 0,x 2 0 wichtige Eigenschaften falls ein Optimum existiert, muss es ein GEP sein (beinhalten) x 1 falls ein GEP keinen besseren benachbarten GEP hat, ist er das Optimum D Maringer, Einführung in Computational Management Science Optimierung (24)

25 Bestimmung des Optimums für ein Lineares Problem Gültige Eckpunkte (GEP) Z(0,0) = 0 x 2 Z(0,6) = 180 Z(2,6) = Z(4,3) = 170 Z(4,0) = x 1 Simplex Algorithmus untersucht nur GEPs iterativer Prozess: 1 wähle einen GEP als Startlösung: (x 1,x 2 ) := (0,0) 2 evaluiere alle unmittelbar benachbarten GEPs 3 gibt es (zumindest) einen besseren GEP? 1 falls ja: wähle besten GEP und gehe zu Schritt 2 2 falls nein: Abbruch; Optimum x ist aktueller GEP D Maringer, Einführung in Computational Management Science Optimierung (25)

26 Anwendung des Simplex-Verfahrens Standardform max Z = 20x 1 +30x 2, u.d.n. x 1 4 2x x 1 + 2x 2 18 und x 1 0,x 2 0 = Startlösung (in Tableauform) Start mit x 1 = 0, x 2 = 0 augmented form max Z = 20x 1 +30x 2, u.d.n. x 1 +x 3 = 4 2x 2 +x 4 =12 3x 1 + 2x 2 +x 5 =18 und x i 0,i = 1..5 Basisvariable (BV): x 3, x 4 und x 5 Umformung, sodass BV auf der linken Seite sind max Z =20x 1 +30x 2, BV x 1 x 2 x 3 x 4 x 5 u.d.n. x 3 = x tableau x x 4 = 2x = x x 5 = 3x 1 2x x und x i 0,i = 1..5 Z D Maringer, Einführung in Computational Management Science Optimierung (26)

27 Anwendung des Simplex-Verfahrens Bestimmung der neuen Basisvariable Ausgangstableau: BV x 1 x 2 x 3 x 4 x 5 x x x Z grösster Anstieg von Z durch Erhöhung von x 2 maximale Erhöhung von x 2 : min{ 12 2, 18 2 } = 6 neue Basisvariable: x 2 mit x 2 := x 2 +6 Umformung der Nebenbedingung (NB) und Einsetzen in andere NBen: x 2 = 1 2 x 4 +6 x 3 = x 1 +4 ( x 5 = 3x ) 2 x = 3x 1 +x 4 +6 ( Z = 20x ) 2 x 4 +6 = 20x 1 15x D Maringer, Einführung in Computational Management Science Optimierung (27)

28 Anwendung des Simplex-Verfahrens Bestimmung der neuen Basisvariable new tableau: BV x 1 x 2 x 3 x 4 x 5 x / x x Z maximaler Anstieg von Z durch Erhöhung von x 1 maximale Erhöhung von x 1 : min{ 4 1, 6 3 } = 2 neue Basisvariable: x 1 with x 1 := x 1 +2 Umformung der Nebenbedingung (NB) und Einsetzen in andere NBen: x 1 = 1 3 x x 5 +2 x 2 = 1 2 x 4 +6 ( 1 x 3 = 3 x 4 1 ) 3 x = 1 3 x x 5 +2 ( 1 Z = 20 3 x 4 1 ) 3 x x = 25 3 x x D Maringer, Einführung in Computational Management Science Optimierung (28)

29 Anwendung des Simplex-Verfahrens Bestimmung der neuen Basisvariable neues Tableau BV x 1 x 2 x 3 x 4 x 5 x / 3 1 / 3 2 x / x / 3 +1 / 3 2 Z / 3 20 / keine weitere Erhöhung von Z möglich Lösung: x (x 1,x 2 ) = (2,6) mit Z = 220 D Maringer, Einführung in Computational Management Science Optimierung (29)

30 Anwendung des Simplex-Verfahrens ein weiteres Beispiel max Z = 20x 1 +30x 2, u.d.n. x 1 + 6x x 1 + x 2 99 und x 1 0,x 2 0 Lösung optimale Lösung: x = (x 1,x 2 ) = (18,45) Z = 1710 D Maringer, Einführung in Computational Management Science Optimierung (30)

31 Dualität ursprüngliches ( primales ) Problem und duales Problem primales Problem duales Problem Ziel maxz = n j=1 c j x j minw = m i=1 b i y i u.d.n. nj=1 a ij x j b i i = 1..m m i=1 a ij y i c i j = 1..n x j 0 j = 1..n y i 0 i = 1..m Beispiel primales Problem Duales Problem max Z = 20x 1 +30x 2, min W = 4y 1 +12y 2 +18y 3, u.d.n. x 1 4 u.d.n. y 1 + 3y x y 2 + 2y x 1 + 2x 2 18 und x 1 0,x 2 0 und y 1 0,y 2 0,y 3 0 D Maringer, Einführung in Computational Management Science Optimierung (31)

32 Quadratische Programmierung Beispiel quadratische Zielfunktion: 1 2 x Qx +c x lineare Nebenbedingungen: Ax = b eine eindeutige Lösung existiert, falls A von vollem Rang und Q positiv definit ist im Teilraum M = {x : Ax = 0} Nachfragemengen und Deckungsbeiträge für Güter A und B: q A = 20 3p A q B = 40 4p B D A = 10 pro Stück A D B = 10 pro Stück B benötigtes Material: 10 je Stück A, 15 je Stück B insgesamt verfügbar: 350 Einheiten Arbeitszeit: 1h je Stück A, 3 4h je Stück B insgesamt verfügbar: 25 Stunden D Maringer, Einführung in Computational Management Science Optimierung (32)

33 Dynamische Programmierung Ausgangssituation Folge von abhängigen Entscheidungen typischerweise: mehrere Ebenen (Zeitpunkte) jede Ebene: mehrere Alternativen vorangegangene Entscheidungen beeinflussen, welche Alternativen verfügbar sind Problem: breite Problemklasse, unterschiedliche Versionen und Strukturen verschiedene Algorithmen für unterschiedliche typische Probleme D Maringer, Einführung in Computational Management Science Optimierung (33)

34 Dynamische Programmierung Beispiel: Postkutschenproblem Reise durch ein Netzwerk von Städten, nicht alle direkt verbunden Kosten für Reise von i nach j: c ij Ziel: Minimierung der Gesamtkosten Zahlenbeispiel gewünscht: Reise von A nach J Kosten: B C D E F G H I J A B E 1 4 H 4 C F 6 3 I 3 D G 3 3 greedy ( gierige ) Methoden funktionieren nicht immer: ermittle billigste Weiterreise vom aktueller Ebene zur nächsten hier: A B F I J tatsächlich: A D F ist billiger als A B F D Maringer, Einführung in Computational Management Science Optimierung (34)

35 Kombinatorische Optimierung Beispiel: Handlungsreisender ( Traveling Salesman ) Handlungsreisender muss eine Rundreise durch N Städte machen jede Stadt muss genau ein Mal besucht werden Ziel: möglichst niedrige Gesamtkosten falls alle Städte direkt verbunden sind: (N 1) (N 2) 1 = (N 1)! mögliche Reiserouten Beispiel: Rucksackproblem ( knapsack problem ) Wanderer findet auf seinem Ausflug viele wertvolle Steine nicht alle passen in seinen Rucksack Ziel: Auswahl der Steine, die den Gesamtwert des Rucksacks maximieren D Maringer, Einführung in Computational Management Science Optimierung (35)

36 Heuristiken Grundidee soft computing Kombination von einfachen Regeln und Zufallselementen nicht deterministisch typischerweise: favorisieren Verbesserungen, lassen aber auch Verschlechterungen zu (mit Einschränkungen) Vorteile sehr flexible Konzepte, können gut auf Problemstellung angepasst werden effizienter als reine Zufallssuche oder vollständige Enumeration Konvergenzverhalten Nachteile Auswahl der Methode manchmal: Implementierung manchmal: Laufzeit D Maringer, Einführung in Computational Management Science Optimierung (36)

37 Heuristiken Beispiel: Stochastic Differential Equations Gradient f gibt bevorzugte Richtung vor Zufallsterm ε verhindert Steckenbleiben in lokalem Optimum x [k+1] = x [k] + αf (x [k] ) + ε [k] mit E(ε) = 0 Beispiel: Evolutionäre Verfahren Population : mehrere Versuchslösungen gleichzeitig neue Lösungen erben Eigenschaften (guter) aktueller Lösungen survival of the fittest : gute (neue) Lösungen verdrängen schlechte (alte) D Maringer, Einführung in Computational Management Science Optimierung (37)

38 Zusammenfassend eine einfache Klassifikation Suchraum: beschränkt unbeschränkt Entscheidungsvariable: kontinuierlich diskret (ganzzahlig, binär) gemischt Zielfunktionen: linear nicht-linear konvex nicht-konvex ableitbar nicht-ableitbar ein Optimum mehrere Optima Methode analytisch numerisch deterministisch nicht-deterministisch Erweiterungen: einzelnes Ziel mehrere Ziele (anspruchsvolle) Nebenbedingungen D Maringer, Einführung in Computational Management Science Optimierung (38)

39 Hintergrundlektüre zur Vertiefung und für Interessierte Gilli, M., Maringer, D., and Schumann, E. (2011). Numerical Methods and Optimization in Finance. Academic Press. Hillier, F. S. and Lieberman, G. J. (2005). Introduction to Operations Research. McGraw-Hill, 8th edition. Luenberger, D. G. and Ye, Y. (2008). Linear and Nonlinear Programming. Springer, 3rd edition. Michalewicz, Z. and Fogel, D. B. (2005). How to Solve It: Modern Heuristics. Springer. D Maringer, Einführung in Computational Management Science Optimierung (39)

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max

Mehr

Optimale Steuerung 1 Prozessoptimierung 1

Optimale Steuerung 1 Prozessoptimierung 1 Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

Kapitel 16 : Differentialrechnung

Kapitel 16 : Differentialrechnung Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

Lösung allgemeiner linearer Programme

Lösung allgemeiner linearer Programme Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt

Mehr

Optimierung I. Dr. Ulf Lorenz F2.413

Optimierung I. Dr. Ulf Lorenz F2.413 Optimierung I Dr. Ulf Lorenz F2.413 flulo@upb.de Organisation Dozent: Dr. Ulf Lorenz F2.413 Fürstenallee 11 email: flulo@upb.de WWW: http://www.upb.de/cs/flulo (hier auch aktuelle Infos + Ü-Zettel) Vorlesungen:

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Funktionen mehrerer Variabler

Funktionen mehrerer Variabler Vektoranalysis Funktionen mehrerer Variabler Wir untersuchen allgemein vektorwertige Funktionen von vektoriellen Argumenten, wobei zunächst nur reelle Vektoren zugelassen seien. Speziell betrachten wir:

Mehr

Lineare Programmierung

Lineare Programmierung Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in

Mehr

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6.1 Nullstellen reeller Funktionen Bemerkung 6.1 (Problemstellung) geg.: f C[a, b] ges.: x [a, b] mit f(x ) = 0 Lösungstheorie f linear

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Optimierung in R. Michael Scholz

Optimierung in R. Michael Scholz N Optimierung in R Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) Michael Scholz Institut für Statistik und Ökonometrie Georg-August-Universität Göttingen Fortgeschrittene Mathematik: Optimierung

Mehr

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 4 Simplex-Verfahren Peter Becker (H-BRS) Operations Research I Sommersemester 24 86 / 298 Inhalt Inhalt 4 Simplex-Verfahren Dualer Simplexalgorithmus Vermeidung von Zyklen Peter Becker (H-BRS)

Mehr

Mathematik 2 für Wirtschaftsinformatik

Mathematik 2 für Wirtschaftsinformatik für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar

Mehr

1 Der Simplex Algorithmus I

1 Der Simplex Algorithmus I 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Lineare Optimierungsmodelle

Lineare Optimierungsmodelle Lineare Optimierungsmodelle Simplex-Methode Vortragender: Michael Schneider Agenda Motivation Operations Research Aufbau linearer Optimierungsmodelle Simplex-Methode Ausblick 2 Problemstellung Futtermischung

Mehr

Schranken für zulässige Lösungen

Schranken für zulässige Lösungen Schranken für zulässige Lösungen Satz 5.9 Gegeben seien primales und duales LP gemäß der asymmetrischen Form der Dualität. Wenn x eine zulässige Lösung des primalen Programms und u eine zulässige Lösung

Mehr

Multivariate Analysis

Multivariate Analysis Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle

Mehr

(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung)

(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung) Lineare Optimierung Unterbestimmte LGS und Optimierung Bei lösbaren unterbestimmten linearen Gleichungssystemen haben wir die Qual der Wahl in Abhängigkeit von den freien Parametern (Anzahl = Anzahl Unbekannte

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Helge Röpcke Markus Wessler Wirtschaftsmathematik Methoden - Beispiele - Anwendungen Mit 84 Bildern, 113 durchgerechneten Beispielen und 94 Aufgaben mit ausführlichen Lösungen im Internet Fachbuchverlag

Mehr

Extremwerte von Funktionen mehrerer reeller Variabler

Extremwerte von Funktionen mehrerer reeller Variabler Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein

Mehr

Lineare Programmierung Teil I

Lineare Programmierung Teil I Seminar über Algorithmen Prof. Dr. Helmut Alt Lineare Programmierung Teil I Lena Schlipf, Benjamin Jankovic Lena Schlipf, Benjamin Jankovic Seminar über Algorithmen SS05 1 Struktur des Vortrags 1. Was

Mehr

Modelle und Methoden der Linearen Optimierung (Die Thesen zur Vorlesung 1_Fallstudie)

Modelle und Methoden der Linearen Optimierung (Die Thesen zur Vorlesung 1_Fallstudie) (Die Thesen zur Vorlesung 1_Fallstudie) das Thema der Vorlesung Grundlagen der Methode der linearen Optimierung (Lineares Optimierungsmodell der Wahl der Produktionsstrategie des ) Prof. Dr. Michal Fendek

Mehr

Lösungen zu Mathematik I/II

Lösungen zu Mathematik I/II Prof. Dr. E. W. Farkas ETH Zürich, Februar 11 D BIOL, D CHAB Lösungen zu Mathematik I/II Aufgaben 1. 1 Punkte a Wir berechnen lim x x + x + 1 x + x 3 + x = 1. b Wir benutzen L Hôpital e x e x lim x sinx

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 11.12.2008 Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 1/ 18 Einführung Einführung Verfahren für

Mehr

Klausurlösung Einführung in Numerische Methoden und FEM Universität Siegen, Department Maschinenbau,

Klausurlösung Einführung in Numerische Methoden und FEM Universität Siegen, Department Maschinenbau, Universität Siegen, Department Maschinenbau, 7.7. Aufgabe y 3 l 3 3 F l l x Das dargestellte Fachwerk soll statisch mit Hilfe der FEM untersucht werden. Die Knoten und Elemente sind in der Abbildung nummeriert.

Mehr

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden

Mehr

Optimale Produktliniengestaltung mit Genetischen Algorithmen

Optimale Produktliniengestaltung mit Genetischen Algorithmen Optimale Produktliniengestaltung mit Genetischen Algorithmen 1 Einleitung 2 Produktlinienoptimierung 3 Genetische Algorithmen 4 Anwendung 5 Fazit Seite 1 Optimale Produktliniengestaltung mit Genetischen

Mehr

Operations Research II (Nichtlineare und dynamische Optimierung)

Operations Research II (Nichtlineare und dynamische Optimierung) Operations Research II (Nichtlineare und dynamische Optimierung) 5. April 007 Frank Köller,, Hans-Jörg von Mettenheim & Michael H. Breitner 8.4.007 # Nichtlineare Optimierung: Überblick Allgemeine Form:

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

3. Schnittebenenverfahren

3. Schnittebenenverfahren 3. Schnittebenenverfahren Themen 3. Schnittebenenverfahren Ganzzahlige lineare Programmierung Schnittebenenverfahren Konstruktion von Schnittebenen Auswahl von Schnittrestriktionen Operations Research

Mehr

Aufgaben für die 6. Übung zur Vorlesung Mathematik 2 für Informatiker: Analysis Sommersemester 2010

Aufgaben für die 6. Übung zur Vorlesung Mathematik 2 für Informatiker: Analysis Sommersemester 2010 Aufgaben für die 6. Übung zur Vorlesung Mathematik für Informatiker: Analysis Sommersemester 00 6. Wie hat man eine reelle Zahl α > 0 so in a b 3 positive Summanden x, y, z zu zerlegen, damit fx, y x y

Mehr

Modelle und Methoden der Linearen Optimierung (Die Thesen zur Vorlesung 1)

Modelle und Methoden der Linearen Optimierung (Die Thesen zur Vorlesung 1) (Die Thesen zur Vorlesung 1) das Thema der Vorlesung Grundlagen der Methode der linearen Optimierung (Grundlegende Annahmen der linearen Programmierung) Prof. Dr. Michal Fendek Institut für Operations

Mehr

Taylor-Entwicklung der Exponentialfunktion.

Taylor-Entwicklung der Exponentialfunktion. Taylor-Entwicklung der Exponentialfunktion. Betrachte die Exponentialfunktion f(x) = exp(x). Zunächst gilt: f (x) = d dx exp(x) = exp(x). Mit dem Satz von Taylor gilt um den Entwicklungspunkt x 0 = 0 die

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

Aufgabe 5.3 Duale Simplexverfahren

Aufgabe 5.3 Duale Simplexverfahren Aufgabe 5.3 Knut Krause Thomas Siwczyk Stefan Tittel Technische Universität Dortmund Fakultät für Informatik Algorithmen und Datenstrukturen 15. Januar 2009 Gliederung 1 Aufgabenstellung und Motivation

Mehr

Inhalt. Problemstellung und Überblick. Allgemeine Problemstellung und Terminologie. Überblick über spezielle Klassen von Optimierungsproblemen

Inhalt. Problemstellung und Überblick. Allgemeine Problemstellung und Terminologie. Überblick über spezielle Klassen von Optimierungsproblemen Inhalt Problemstellung und Überblick Allgemeine Problemstellung und Terminologie Überblick über spezielle Klassen von Optimierungsproblemen 40: 40 [40,40] 2.1 Das Optimierungsproblem in allgemeiner Form

Mehr

Inhalt Kapitel I: Nichtlineare Gleichungssysteme

Inhalt Kapitel I: Nichtlineare Gleichungssysteme Inhalt Kapitel I: Nichtlineare Gleichungssysteme I Nichtlineare Gleichungssysteme I. Nullstellenbestimmung von Funktionen einer Veränderlichen I.2 I.3 Newton-Verfahren Kapitel I (UebersichtKapI) 3 Bisektionsverfahren

Mehr

2. Optimierungsprobleme 6

2. Optimierungsprobleme 6 6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber

Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Sitzplatznr.: Wiederholungsklausur zur Vorlesung Operations Research im Wintersemester

Mehr

4.3.3 Simplexiteration

4.3.3 Simplexiteration 7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige

Mehr

6. Softwarewerkzeuge für die Lineare Programmierung

6. Softwarewerkzeuge für die Lineare Programmierung 6. Softwarewerkzeuge für die Lineare Programmierung Inhalt 6. Softwarewerkzeuge für die Lineare Programmierung GNU Linear Programming Kit Operations Research I Hochschule Bonn-Rhein-Sieg, SS 2013 314 GNU

Mehr

Nichtlineare Gleichungen

Nichtlineare Gleichungen Nichtlineare Gleichungen Ein wichtiges Problem in der Praxis ist die Bestimmung einer Lösung ξ der Gleichung f(x) =, () d.h. das Aufsuchen einer Nullstelle ξ einer (nicht notwendig linearen) Funktion f.

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

Mathematik für Wirtschaftswissenschaftler II (Analysis) 2. Klausur Sommersemester

Mathematik für Wirtschaftswissenschaftler II (Analysis) 2. Klausur Sommersemester Mathematik für Wirtschaftswissenschaftler II (Analysis) 2. Klausur Sommersemester 2011 30.09.2011 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN Nachname:...................................................................

Mehr

Seminaraufgabensammlung zur Lehrveranstaltung. Prozessoptimierung 1. 1 Formulieren und Lösen linearer Optimierungsprobleme

Seminaraufgabensammlung zur Lehrveranstaltung. Prozessoptimierung 1. 1 Formulieren und Lösen linearer Optimierungsprobleme Fachgebiet Simulation und Optimale Prozesse Fakultät für Informatik und Automatisierung Institut für Automatisierungsund Systemtechnik Seminaraufgabensammlung zur Lehrveranstaltung Prozessoptimierung Vorlesender:

Mehr

Numerische Ableitung

Numerische Ableitung Numerische Ableitung Die Ableitung kann angenähert werden durch den Differentenquotient: f (x) f(x + h) f(x) h oder f(x + h) f(x h) 2h für h > 0, aber h 0. Beim numerischen Rechnen ist folgendes zu beachten:

Mehr

Lineare Optimierung Ergänzungskurs

Lineare Optimierung Ergänzungskurs Lineare Optimierung Ergänzungskurs Wintersemester 2015/16 Julia Lange, M.Sc. Literatur Werner, F.; Sotskov, Y.N. (2006): Mathematics of Economics and Business; Routledge; London Bemerkungen Diese Unterlagen

Mehr

OPERATIONS-RESEARCH (OR)

OPERATIONS-RESEARCH (OR) OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:

Mehr

Folgerungen aus dem Auflösungsatz

Folgerungen aus dem Auflösungsatz Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und

Mehr

Höhere Mathematik für Physiker II

Höhere Mathematik für Physiker II Universität Heidelberg Sommersemester 2013 Wiederholungsblatt Übungen zur Vorlesung Höhere Mathematik für Physiker II Prof Dr Anna Marciniak-Czochra Dipl Math Alexandra Köthe Fragen Machen Sie sich bei

Mehr

C. Eicher Analysis Study Center ETH Zürich HS Extremwerte

C. Eicher Analysis Study Center ETH Zürich HS Extremwerte C. Eicher Analysis Study Center ETH Zürich HS 05 Extremwerte Gelöste Aufgabenbeispiele:. Bestimme die lokalen und globalen Extrema der Funktion f(x) = x x + x auf dem Intervall [ 4, ]. a. Bestimmung der

Mehr

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester

Mehr

1 Lineare Optimierung, Simplex-Verfahren

1 Lineare Optimierung, Simplex-Verfahren 1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und

Mehr

NEXTLEVEL im WiSe 2011/12

NEXTLEVEL im WiSe 2011/12 Fachbereich Mathematik der Universität Hamburg Dr. H. P. Kiani NEXTLEVEL im WiSe 2011/12 Vorlesung 5, Teil 2 Linearisierung, einige Eigenschaften differenzierbarer Funktionen Die ins Netz gestellten Kopien

Mehr

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57 Vorwort... 13 Vorwort zur 3. deutschen Auflage... 17 Kapitel 1 Einführung, I: Algebra... 19 1.1 Die reellen Zahlen... 20 1.2 Ganzzahlige Potenzen... 23 1.3 Regeln der Algebra... 29 1.4 Brüche... 34 1.5

Mehr

Optimale Steuerung 1

Optimale Steuerung 1 Optimale Steuerung 1 Kapitel 5: Eindimensionale Nichtlineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Optimierung des Rohrleitungsdurchmessers für den

Mehr

3. Grundlagen der Linearen Programmierung

3. Grundlagen der Linearen Programmierung 3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations

Mehr

Outline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel

Outline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel Outline 1 Funktionen von mehreren Veränderlichen 2 Grenzwert und Stetigkeit 3 Partielle Ableitungen 4 Die verallgemeinerte Kettenregel 5 Das totale Differential 6 Extremstellen Roman Wienands (Universität

Mehr

Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1

Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1 1 Funktionen Definition 1 (Funktion). Übungsblatt 1 Eine Funktion f(x) einer reellen Variable x mit Definitionsbereich D ist eine Regel, die jeder Zahl x in D eine reelle Zahl f(x) eindeutig zuordnet.

Mehr

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit) 3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände

Mehr

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei

Mehr

Approximation im Sinne der Analysis:

Approximation im Sinne der Analysis: 1 Approximation im Sinne der Analysis: Satz von Weierstrass: (1815-1897) Sei f eine stetige Funktion auf [a, b]. Dann gibt es zu jedem ε > 0 ein Polynom P ε mit: max x [a,b] f(x) P ε(x) < ε Numerische

Mehr

Übungsbuch Beschaffung, Produktion und Logistik

Übungsbuch Beschaffung, Produktion und Logistik Vahlens Übungsbücher der Wirtschafts- und Sozialwissenschaften Übungsbuch Beschaffung, Produktion und Logistik Aufgaben, Lösungen und Implementierung in Excel von Prof. Dr. Dr. h.c. Hans-Ulrich Küpper,

Mehr

Nichtlineare Gleichungen, mehrere Unbekannte

Nichtlineare Gleichungen, mehrere Unbekannte Dritte Vorlesung, 6. März 2008, Inhalt Aufarbeiten von Themen der letzten Vorlesung, und Nichtlineare Gleichungen, mehrere Unbekannte Systeme nichtlinearer Gleichungen Vektor- und Matrixnormen Fixpunkt-Iteration,

Mehr

Differenzialrechnung. Mathematik-Repetitorium

Differenzialrechnung. Mathematik-Repetitorium Differenzialrechnung 5.1 Die Ableitung 5.2 Differentiation elementarer Funktionen 5.3 Differentiationsregeln 5.4 Höhere Ableitungen 5.5 Partielle Differentiation 5.6 Anwendungen Differenzialrechnung 1

Mehr

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung

Mehr

4. Lösung linearer Gleichungssysteme

4. Lösung linearer Gleichungssysteme 4. Lösung linearer Gleichungssysteme a x + : : : + a m x m = b a 2 x + : : : + a 2m x m = b 2 : : : a n x + : : : + a nm x m = b n in Matrix-Form: A~x = ~ b (*) mit A 2 R n;m als Koe zientenmatrix, ~x

Mehr

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum. Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit

Mehr

Mathematik für Wirtschaftswissenschaftler Kapitel 4-6. Universität Trier Wintersemester 2013 / 2014

Mathematik für Wirtschaftswissenschaftler Kapitel 4-6. Universität Trier Wintersemester 2013 / 2014 Mathematik für Kapitel 4-6 Universität Trier Wintersemester 2013 / 2014 Kapitel 4 1. Extremwerte 2. Lokale Optimalpunkte 3. Wendepunkte 2 Kapitel 4.1 EXTREMWERTE 3 Extrempunkte und Extremwerte 4 Strikte

Mehr

Heuristiken Greedy-Algorithmen Lokale Suche Tabu Suche

Heuristiken Greedy-Algorithmen Lokale Suche Tabu Suche Seminar Ausgewählte Themen des Operations Research bei Prof. R. Schrader Heuristiken Greedy-Algorithmen Lokale Suche Tabu Suche Wintersemester 2007/2008 Eingereicht von: Florian Schuster Datum: 12.12.2007

Mehr

Lineare (Un-)Gleichungen und lineare Optimierung

Lineare (Un-)Gleichungen und lineare Optimierung Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik Universität Innsbruck Lehrer/innen/fortbildungstag Wien 2010 9. April 2010 Eine Maximumsaufgabe Eine Firma stellt aus

Mehr

Mathematik II. Kapitel III: Funktionen mit mehreren Variablen. 13. Mai 2015

Mathematik II. Kapitel III: Funktionen mit mehreren Variablen. 13. Mai 2015 13. Mai 2015 f(x,y) = sin(x 2 +y 2 ) f(x,y) = sin x 2 +y 2 x2 +y 2 +1 f(x,y) = x y x 2 +y 2 f(x,y) = x 2 y Niveaulinien von f(x,y) = 4 x 2 y 2 f(x,y) = 1 x2 y 2 x f(x,y) = x 2 +y 2 f(x,y) = x 2 +y 2 f(x,y)

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den

Mehr

Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler

Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler Wintersemester 2007/08 27.2.2008 Dr. Sascha Kurz Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler Bitte lesbar ausfüllen, Zutreffendes ankreuzen Herr Frau Name, Vorname: Anschrift:

Mehr

Mathematik 1 für Wirtschaftsinformatik

Mathematik 1 für Wirtschaftsinformatik Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration

Mehr

Teil II Optimierung. Peter Buchholz 2016. Modellgestützte Analyse und Optimierung Kap. 9 Einführung Optimierung

Teil II Optimierung. Peter Buchholz 2016. Modellgestützte Analyse und Optimierung Kap. 9 Einführung Optimierung Teil II Optimierung Gliederung 9 Einführung, Klassifizierung und Grundlagen 10 Lineare Optimierung 11 Ganzzahlige und kombinatorische Optimierung 12 Dynamische Optimierung Literatur: zu 10-12: Neumann,

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme

Mehr

7.1 Matrizen und Vektore

7.1 Matrizen und Vektore 7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit

Mehr

Lösungen zu den Hausaufgaben zur Analysis II

Lösungen zu den Hausaufgaben zur Analysis II Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin

Mehr

18.4 Das Newton-Verfahren

18.4 Das Newton-Verfahren 18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift

Mehr

Mathematik für. Wirtschaftswissenschaftler. Basiswissen mit Praxisbezug. 4., aktualisierte und erweiterte Auflage

Mathematik für. Wirtschaftswissenschaftler. Basiswissen mit Praxisbezug. 4., aktualisierte und erweiterte Auflage Mathematik für Wirtschaftswissenschaftler Basiswissen mit Praxisbezug 4., aktualisierte und erweiterte Auflage Knut Sydsaeter Peter Hammond mit Arne Strom Übersetzt und fach lektoriert durch Dr. Fred Böker

Mehr

Differenzial- und Integralrechnung II

Differenzial- und Integralrechnung II Differenzial- und Integralrechnung II Rainer Hauser Dezember 011 1 Einleitung 1.1 Ableitung Die Ableitung einer Funktion f: R R, x f(x) ist definiert als f (x) = df(x) dx = d f(x + h) f(x) f(x) = lim dx

Mehr

Mathematik I Prüfung Frühlingssemester 2014

Mathematik I Prüfung Frühlingssemester 2014 Mathematik I Prüfung Frühlingssemester 2014 Prof. Dr. Enrico De Giorgi 23. Juni 2014 Mathematik II: Prüfung Frühlingssemester 2014 1 Teil I: Offene Fragen (50 Punkte) Allgemeine Anweisungen für offene

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 5. Juni 2016 Definition 5.21 Ist a R, a > 0 und a 1, so bezeichnet man die Umkehrfunktion der Exponentialfunktion x a x als

Mehr

Operations Research für Logistik

Operations Research für Logistik Operations Research für Logistik Lineare Optimierung (170.202) Ao. Univ. - Prof. Norbert SEIFTER Dipl. - Ing. Stefanie VOLLAND Sommersemester 2012 Lehrstuhl Industrielogistik Lineare Optimierung Inhalte:

Mehr

Kurvendiskussion für Funktionen mit einer Variablen

Kurvendiskussion für Funktionen mit einer Variablen Kurvendiskussion für Funktionen mit einer Variablen Unter der Kurvendiskussion einer Funktionsgleichung versteht man die Zusammenstellung der wichtigsten Eigenschaften ihres Bildes mit anschließender Zeichnung.

Mehr

Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206

Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Kapitel 1 Unimodularität Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Inhalt 1 Unimodularität Total unimodulare Matrizen Inzidenzmatrix Optimierungsprobleme auf Graphen Peter

Mehr

Einführung in die Wirtschaftsinformatik VO WS 2008 / 2009

Einführung in die Wirtschaftsinformatik VO WS 2008 / 2009 Einführung in die Wirtschaftsinformatik VO WS 2008 / 2009 Daten Modelle Steuerung Wilfried Grossmann Teil 3: Steuerung Mathematische Modelle werden häufig dazu verwendet um ein optimales Verhalten zu bestimmen

Mehr

a n = 2a n n 1 IV = 2(n 1)2 n n 1 = (n 1)2 n n 1 = n2 n 1.

a n = 2a n n 1 IV = 2(n 1)2 n n 1 = (n 1)2 n n 1 = n2 n 1. Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL07 Aufgabe. Wir definieren die Folge {a n } n N rekursiv vermöge a 0 := 0, a n := a n + n für n. Zeigen Sie: a n = n n für

Mehr

Mathematik anschaulich dargestellt

Mathematik anschaulich dargestellt Peter Dörsam Mathematik anschaulich dargestellt für Studierende der Wirtschaftswissenschaften 15. überarbeitete Auflage mit zahlreichen Abbildungen PD-Verlag Heidenau Inhaltsverzeichnis 1 Lineare Algebra

Mehr