Optimierung Einführung in Computational Management Science. Prof. Dietmar Maringer FS WWZ, Universität Basel
|
|
- Meta Elsa Schuler
- vor 6 Jahren
- Abrufe
Transkript
1 Optimierung Einführung in Computational Management Science Prof. Dietmar Maringer WWZ, Universität Basel FS 2012 D Maringer, Einführung in Computational Management Science Optimierung (1)
2 Modellierung und Optimierung Beispiel: Eisverkäufer (Fortsetzung) Nachfragefunktion: q = p variable Kosten je Stück: c = 0.30 optimaler Preis: p =... Beispiel: Angebot und Nachfrage Nachfrage: q D = p Angebot: q S = 2000p variable Kosten je Stück: c = 0.30 optimaler Preis: p =... Beispiel: Einheitspreis für unterschiedliche Märkte Nachfrage auf Markt A: q A = 0.5p 0.2 Nachfrage auf Markt B: q B = 0.7p 0.3 variable Kosten je Stück: c = 0.30 optimaler Preis: p =... D Maringer, Einführung in Computational Management Science Optimierung (2)
3 Modellierung und Optimierung Produktionsprogramm 2 mögliche Produkte: Deckungsbeitrag maximale Produktions- Produkt je Stück Absatzmenge zeit je Stück A min B min Welche Menge soll von A und B produziert werden, falls 1 beliebig viel Zeit 2 6 Stunden 3 5 Stunden 4 4 Stunden zur Verfügung stehen? D Maringer, Einführung in Computational Management Science Optimierung (3)
4 Modellierung von Optimierungsproblemen Zutaten Zielfunktion z.b. Gewinn (max), Kosten (min) Entscheidungsvariable(n) z.b. Produktionsmengen, Investitionen, Preise, Nebenbedingungen z.b. Kapazitäten, Mindestmengen, Substitute D Maringer, Einführung in Computational Management Science Optimierung (4)
5 Formalisierung von Problemen ein einfaches Beispiel ein Unternehmen kann Stühle und Tische produzieren notwendige und vorhandene Ressourcen: pro Einheit Aufgabe Stuhl Tisch Verfügbarkeit (h) Werkbank Montage Malerei Gewinn D Maringer, Einführung in Computational Management Science Optimierung (5)
6 Formalisierung von Problemen mögliche Lösungsverfahren 1. und 2. Ableitung analytisch Gleichungssysteme Methoden deterministisch numerisch non-deterministisch D Maringer, Einführung in Computational Management Science Optimierung (6)
7 1-dimensionale Verfahren Problemstellung 1 Entscheidungsvariable gesucht: Extremum für Funktion typischerweise Suche in geschlossenem Intervall [a 0,b 0 ] Annahme: Funktion hat nur 1 Extremum (in diesem Intervall) mögliche numerische Vorgehensweisen bei 1 Entscheidungsvariable iterativ Werte testen ideal: möglichst wenige Versuche typische Ansätze Bisektionsverfahren Newtonsches Verfahren D Maringer, Einführung in Computational Management Science Optimierung (7)
8 Bisektionsverfahren (wiederholte Intervallhalbierung) Ausgangssituation konkaves Problem 1. Ableitung existiert Ziel: Finden des Extremums in vorgegebenem Intervall Verfahren aktuelles Intervall: [a 0,b 0 ] prüfe neue Lösung im Punkt c = a 0+b 0 2 if f (c) > 0 c muss grösser als c sein ersetze die Untergrenze: a 0 := c sonst: b 0 := c wiederhole die Schritte, bis Intervall ausreichend schmal f (c) > 0 a 0 c b 0 f (x) D Maringer, Einführung in Computational Management Science Optimierung (8) x
9 Newtonsches Verfahren Tests für die erste und zweite Ableitung first order condition (FOC) f (x) = df dx = 0 FOC notwendig, aber nicht hinreichend: konvexe / konkave Zielfunktion Wendepunkte second order conditions (SOC) f (x) f (x) 2 f (x) = d2 f dx 2 { > 0 Minimum < 0 Maximum D Maringer, Einführung in Computational Management Science Optimierung (9)
10 Newtonsches Verfahren Taylor Reihe und relatives Extremum: Methoden nach Newton lokale quadratische Approximation der Zielfunktion Taylor Reihe: [γ(s) ] φ(x 0 +s) φ(x 0 ) + φ (x 0 )s + φ (x 0 ) s 2 2 gesucht: jenes s, das φ(x 0 +s) minimiert: γ (s) = φ (x 0 ) + φ (x 0 )s = 0 = s = φ (x 0 ) φ (x 0 ) iterativ: x [k+1] = x [k] +s = x [k] φ (x [k] ) φ (x [k] ) D Maringer, Einführung in Computational Management Science Optimierung (10)
11 Newtonsches Verfahren Beispiel f (x) = x 3 3x +3 f (x) = 3x 2 3 f (x) = 6x q(x) = f (x [k] ) +f (x [k] ) (x x [k] ) f (x [k] )(x x [k] ) 2 f (x [0] ) q(x [0] ) f (x) x [2] x [1] x [0] x D Maringer, Einführung in Computational Management Science Optimierung (11)
12 Newtonsches Verfahren Numerische Annäherung f f (x + ε) f (x ε) (x) 2ε f (x) f (x + ε) f (x ε) f (x + ε) +f (x ε) 2f (x) 2ε ε 2 Beispiel mit anonymen Funktionen in Matlab: f x.ˆ2 + sin(x); fpnum (f(x+e)-f(x-e)) / (2*e); fppnum (f(x+e)+f(x-e) - 2*f(x)) / (e.ˆ2); x(k+1) = x(k) - fpnum(x,e) / fppnum(x,e); Hinweis: aus numerischen Gründen sollte ε (= e) nicht zu klein sein D Maringer, Einführung in Computational Management Science Optimierung (12)
13 Newtonsches Verfahren Beispiel f (x) = 3 2x +4x 2 f (x) = 2 +8x f (x) = 8 offensichtlich... f (x) = 0 = x = 1/4 Newtonsches Verfahren x [k] f (x [k] ) f (x [k] ) f (x [k] )/f (x [k] ) = D Maringer, Einführung in Computational Management Science Optimierung (13)
14 Newtonsches Verfahren Beispiel f (x) = x 2 +sin(x) f (x) = 2x +cos(x) f (x) = 2 sin(x) Newtonsches Verfahren x [k] f (x [k] ) f (x [k] ) f /f E E E E D Maringer, Einführung in Computational Management Science Optimierung (14)
15 Newtonsches Verfahren & Cie. worauf man achten sollte Beispiel funktioniert gut für Minimumsuche, falls allgemein gilt f (x) > 0 konvergiert nicht zum Minimum, falls abschnittsweise f (x) < 0 f (x) x [1] x [1] x [0] x [0] x [1] x [0] x D Maringer, Einführung in Computational Management Science Optimierung (15)
16 Variante: Gradientensuche Grundidee je stärker negativ die Tangente (f ), desto schneller nimmt die Funktion (f ) ab Vorgehensweise 1 wähle gute Startlösung 2 wiederhole bis zur Konvergenz: (a) bestimme Gradient der aktuellen Lösung, f (x [k] ) = f (x [k] ) (b) wähle neue { Versuchslösung x[k] + α f (x [k] ) für Maximierung Wahl von α x [k+1] = x [k] α f (x [k] ) für Minimierung beeinflusst die Geschwindigkeit (viele Iterationen überschrittenes Optimum) ist die Lösung für das Minimierungsproblem α [ ( = argmin f x[k] αf (x α [k] ) )] D Maringer, Einführung in Computational Management Science Optimierung (16)
17 Gradientenbasierte Verfahren & Cie. Probleme mit bisherigen gradientenbasierten Verfahren Zielfunktion muss ableitbar sein lokale quadratische Approximation Konvergenzverhalten mehrere Extrema (lokales globales Optimum) Auswahl der Startlösung D Maringer, Einführung in Computational Management Science Optimierung (17)
18 Deterministische Suche ohne Gradienten Nelder-Mead Verfahren, (downhill) simplex Grundprinzip für Minimierung mit n Entscheidungsvariablen wähle n +1 Testlösungen, x 1,...,x n+1 ( Simplex ) iterativ: erzeuge neue Lösungen unter Verwendung der aktuellen falls möglich, ersetze aktuell schlechteste mit besserer (gemäss Entscheidungsregeln), andernfalls schrumpfe den Simplex Erzeugung neuer Lösungen (vereinfacht gesagt... ): wähle aktuell schlechteste Lösung, x w ermittle durchschnittliche Position der anderen, x ziehe Verbindungslinie von x w und x und wähle den neuen Punkt hinter x, falls besser zwischen x w und x, falls besser oder schrumpfe Simple (d.h. bringe aktuelle Punkte näher zusammen) in Matlab: fminsearch D Maringer, Einführung in Computational Management Science Optimierung (18)
19 Lineare Programmierung Ausgangssituation mehrere Entscheidungsvariable: x 1,x 2,...x n wichtige Eigenschaften für lineare Programme in Standardform: lineare Zielfunktion: max c 1 x 1 +c 2 x 2 + +c n x n x 1,x 2,...,x n Nicht-Negativität der Entscheidungsvariablen: x i 0 i = 1...n m lineare Nebenbedingungen (Ungleichungen): a j1 x 1 +a j2 x 2 + +a jn x n b j j = 1...m oder, etwas kompakter geschrieben: maxc x x unter den Nebenbedingungen Ax b x 0 D Maringer, Einführung in Computational Management Science Optimierung (19)
20 Lineare Programmierung Standard und erweiterte Form Ungleichungen und Gleichungen Schlupfvariable: a ji x i b j a ji x i +y j = b j mit y j 0 i i a ji x i b j a ji x i y j = b j mit y j 0 i i freie Variable können jedes Vorzeichen haben: x k 0 durch nicht-negative Variable u k und v k ersetzen: x k := u k v k with u k 0,v k 0 mit Hilfe der Nebenbedingungen als lineare Kombination anderer Variablen aus NB j ausdrücken (a jk 0): ( a ji x i = b j x k = i b j ) a ji x i a jk i k D Maringer, Einführung in Computational Management Science Optimierung (20)
21 Lineare Programmierung Umwandlung in Standardform: Beispiel 1 ursprüngliches Problem min x 1 +3x 2 +4x 3 s.t. x 1 +2x 2 +x 3 = 5 2x 1 +3x 2 +x 3 = 6 x 2 0,x x 1 ist eine freie Variable, daher aus 1. NB: x 1 = 5 2x 2 x 3 3 Einsetzen in das ursprüngliche Problem: min x 2 +3x 3 s.t. x 2 +x 3 = 4 x 2 0,x 3 0 löse das reduzierte Problem für x 2 und x 3. (Optimale Lösung: x 2 = 4,x 3 = 0 = x 1 = 3) D Maringer, Einführung in Computational Management Science Optimierung (21)
22 Graphische Darstellung von Linearen Problemen Zielfunktion Z = 210 = 20x 1 +30x 2 7 Z = 180 = 20x 1 +30x 2 6 Z = 150 = 20x 1 +30x 2 5 Z = 120 = 20x 1 +30x 2 4 Z = 90 = 20x 1 +30x 2 3 Z = 60 = 20x 1 +30x 2 2 Z = 30 = 20x 1 +30x 2 1 x Beispiel max Z = 20x 1 +30x 2, u.d.n. x 1 4 2x x 1 + 2x 2 18 und x 1 0,x x 1 D Maringer, Einführung in Computational Management Science Optimierung (22)
23 Graphische Darstellung von Linearen Problemen Nebenbedingungen x 2 10 x x 1 0 x x x 1 +2x x 1 Beispiel max Z = 20x 1 +30x 2, u.d.n. x 1 4 2x x 1 + 2x 2 18 und x 1 0,x 2 0 D Maringer, Einführung in Computational Management Science Optimierung (23)
24 Graphische Darstellung von Linearen Problemen Gültige Eckpunkte (GEP) Z = Z = Z = Z = Z = 90 3 Z = 60 2 Z = 30 1 (0,0) x 2 (0,6) 1 2 (2,6) 3 4 (4,3) (4,0) Beispiel max Z = 20x 1 +30x 2, u.d.n. x 1 4 2x x 1 + 2x 2 18 und x 1 0,x 2 0 wichtige Eigenschaften falls ein Optimum existiert, muss es ein GEP sein (beinhalten) x 1 falls ein GEP keinen besseren benachbarten GEP hat, ist er das Optimum D Maringer, Einführung in Computational Management Science Optimierung (24)
25 Bestimmung des Optimums für ein Lineares Problem Gültige Eckpunkte (GEP) Z(0,0) = 0 x 2 Z(0,6) = 180 Z(2,6) = Z(4,3) = 170 Z(4,0) = x 1 Simplex Algorithmus untersucht nur GEPs iterativer Prozess: 1 wähle einen GEP als Startlösung: (x 1,x 2 ) := (0,0) 2 evaluiere alle unmittelbar benachbarten GEPs 3 gibt es (zumindest) einen besseren GEP? 1 falls ja: wähle besten GEP und gehe zu Schritt 2 2 falls nein: Abbruch; Optimum x ist aktueller GEP D Maringer, Einführung in Computational Management Science Optimierung (25)
26 Anwendung des Simplex-Verfahrens Standardform max Z = 20x 1 +30x 2, u.d.n. x 1 4 2x x 1 + 2x 2 18 und x 1 0,x 2 0 = Startlösung (in Tableauform) Start mit x 1 = 0, x 2 = 0 augmented form max Z = 20x 1 +30x 2, u.d.n. x 1 +x 3 = 4 2x 2 +x 4 =12 3x 1 + 2x 2 +x 5 =18 und x i 0,i = 1..5 Basisvariable (BV): x 3, x 4 und x 5 Umformung, sodass BV auf der linken Seite sind max Z =20x 1 +30x 2, BV x 1 x 2 x 3 x 4 x 5 u.d.n. x 3 = x tableau x x 4 = 2x = x x 5 = 3x 1 2x x und x i 0,i = 1..5 Z D Maringer, Einführung in Computational Management Science Optimierung (26)
27 Anwendung des Simplex-Verfahrens Bestimmung der neuen Basisvariable Ausgangstableau: BV x 1 x 2 x 3 x 4 x 5 x x x Z grösster Anstieg von Z durch Erhöhung von x 2 maximale Erhöhung von x 2 : min{ 12 2, 18 2 } = 6 neue Basisvariable: x 2 mit x 2 := x 2 +6 Umformung der Nebenbedingung (NB) und Einsetzen in andere NBen: x 2 = 1 2 x 4 +6 x 3 = x 1 +4 ( x 5 = 3x ) 2 x = 3x 1 +x 4 +6 ( Z = 20x ) 2 x 4 +6 = 20x 1 15x D Maringer, Einführung in Computational Management Science Optimierung (27)
28 Anwendung des Simplex-Verfahrens Bestimmung der neuen Basisvariable new tableau: BV x 1 x 2 x 3 x 4 x 5 x / x x Z maximaler Anstieg von Z durch Erhöhung von x 1 maximale Erhöhung von x 1 : min{ 4 1, 6 3 } = 2 neue Basisvariable: x 1 with x 1 := x 1 +2 Umformung der Nebenbedingung (NB) und Einsetzen in andere NBen: x 1 = 1 3 x x 5 +2 x 2 = 1 2 x 4 +6 ( 1 x 3 = 3 x 4 1 ) 3 x = 1 3 x x 5 +2 ( 1 Z = 20 3 x 4 1 ) 3 x x = 25 3 x x D Maringer, Einführung in Computational Management Science Optimierung (28)
29 Anwendung des Simplex-Verfahrens Bestimmung der neuen Basisvariable neues Tableau BV x 1 x 2 x 3 x 4 x 5 x / 3 1 / 3 2 x / x / 3 +1 / 3 2 Z / 3 20 / keine weitere Erhöhung von Z möglich Lösung: x (x 1,x 2 ) = (2,6) mit Z = 220 D Maringer, Einführung in Computational Management Science Optimierung (29)
30 Anwendung des Simplex-Verfahrens ein weiteres Beispiel max Z = 20x 1 +30x 2, u.d.n. x 1 + 6x x 1 + x 2 99 und x 1 0,x 2 0 Lösung optimale Lösung: x = (x 1,x 2 ) = (18,45) Z = 1710 D Maringer, Einführung in Computational Management Science Optimierung (30)
31 Dualität ursprüngliches ( primales ) Problem und duales Problem primales Problem duales Problem Ziel maxz = n j=1 c j x j minw = m i=1 b i y i u.d.n. nj=1 a ij x j b i i = 1..m m i=1 a ij y i c i j = 1..n x j 0 j = 1..n y i 0 i = 1..m Beispiel primales Problem Duales Problem max Z = 20x 1 +30x 2, min W = 4y 1 +12y 2 +18y 3, u.d.n. x 1 4 u.d.n. y 1 + 3y x y 2 + 2y x 1 + 2x 2 18 und x 1 0,x 2 0 und y 1 0,y 2 0,y 3 0 D Maringer, Einführung in Computational Management Science Optimierung (31)
32 Quadratische Programmierung Beispiel quadratische Zielfunktion: 1 2 x Qx +c x lineare Nebenbedingungen: Ax = b eine eindeutige Lösung existiert, falls A von vollem Rang und Q positiv definit ist im Teilraum M = {x : Ax = 0} Nachfragemengen und Deckungsbeiträge für Güter A und B: q A = 20 3p A q B = 40 4p B D A = 10 pro Stück A D B = 10 pro Stück B benötigtes Material: 10 je Stück A, 15 je Stück B insgesamt verfügbar: 350 Einheiten Arbeitszeit: 1h je Stück A, 3 4h je Stück B insgesamt verfügbar: 25 Stunden D Maringer, Einführung in Computational Management Science Optimierung (32)
33 Dynamische Programmierung Ausgangssituation Folge von abhängigen Entscheidungen typischerweise: mehrere Ebenen (Zeitpunkte) jede Ebene: mehrere Alternativen vorangegangene Entscheidungen beeinflussen, welche Alternativen verfügbar sind Problem: breite Problemklasse, unterschiedliche Versionen und Strukturen verschiedene Algorithmen für unterschiedliche typische Probleme D Maringer, Einführung in Computational Management Science Optimierung (33)
34 Dynamische Programmierung Beispiel: Postkutschenproblem Reise durch ein Netzwerk von Städten, nicht alle direkt verbunden Kosten für Reise von i nach j: c ij Ziel: Minimierung der Gesamtkosten Zahlenbeispiel gewünscht: Reise von A nach J Kosten: B C D E F G H I J A B E 1 4 H 4 C F 6 3 I 3 D G 3 3 greedy ( gierige ) Methoden funktionieren nicht immer: ermittle billigste Weiterreise vom aktueller Ebene zur nächsten hier: A B F I J tatsächlich: A D F ist billiger als A B F D Maringer, Einführung in Computational Management Science Optimierung (34)
35 Kombinatorische Optimierung Beispiel: Handlungsreisender ( Traveling Salesman ) Handlungsreisender muss eine Rundreise durch N Städte machen jede Stadt muss genau ein Mal besucht werden Ziel: möglichst niedrige Gesamtkosten falls alle Städte direkt verbunden sind: (N 1) (N 2) 1 = (N 1)! mögliche Reiserouten Beispiel: Rucksackproblem ( knapsack problem ) Wanderer findet auf seinem Ausflug viele wertvolle Steine nicht alle passen in seinen Rucksack Ziel: Auswahl der Steine, die den Gesamtwert des Rucksacks maximieren D Maringer, Einführung in Computational Management Science Optimierung (35)
36 Heuristiken Grundidee soft computing Kombination von einfachen Regeln und Zufallselementen nicht deterministisch typischerweise: favorisieren Verbesserungen, lassen aber auch Verschlechterungen zu (mit Einschränkungen) Vorteile sehr flexible Konzepte, können gut auf Problemstellung angepasst werden effizienter als reine Zufallssuche oder vollständige Enumeration Konvergenzverhalten Nachteile Auswahl der Methode manchmal: Implementierung manchmal: Laufzeit D Maringer, Einführung in Computational Management Science Optimierung (36)
37 Heuristiken Beispiel: Stochastic Differential Equations Gradient f gibt bevorzugte Richtung vor Zufallsterm ε verhindert Steckenbleiben in lokalem Optimum x [k+1] = x [k] + αf (x [k] ) + ε [k] mit E(ε) = 0 Beispiel: Evolutionäre Verfahren Population : mehrere Versuchslösungen gleichzeitig neue Lösungen erben Eigenschaften (guter) aktueller Lösungen survival of the fittest : gute (neue) Lösungen verdrängen schlechte (alte) D Maringer, Einführung in Computational Management Science Optimierung (37)
38 Zusammenfassend eine einfache Klassifikation Suchraum: beschränkt unbeschränkt Entscheidungsvariable: kontinuierlich diskret (ganzzahlig, binär) gemischt Zielfunktionen: linear nicht-linear konvex nicht-konvex ableitbar nicht-ableitbar ein Optimum mehrere Optima Methode analytisch numerisch deterministisch nicht-deterministisch Erweiterungen: einzelnes Ziel mehrere Ziele (anspruchsvolle) Nebenbedingungen D Maringer, Einführung in Computational Management Science Optimierung (38)
39 Hintergrundlektüre zur Vertiefung und für Interessierte Gilli, M., Maringer, D., and Schumann, E. (2011). Numerical Methods and Optimization in Finance. Academic Press. Hillier, F. S. and Lieberman, G. J. (2005). Introduction to Operations Research. McGraw-Hill, 8th edition. Luenberger, D. G. and Ye, Y. (2008). Linear and Nonlinear Programming. Springer, 3rd edition. Michalewicz, Z. and Fogel, D. B. (2005). How to Solve It: Modern Heuristics. Springer. D Maringer, Einführung in Computational Management Science Optimierung (39)
Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrVORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max
MehrOptimale Steuerung 1 Prozessoptimierung 1
Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
MehrKapitel 16 : Differentialrechnung
Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen
MehrOptimierung für Wirtschaftsinformatiker: Lineare Programme
Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen
MehrLösung allgemeiner linearer Programme
Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt
MehrOptimierung I. Dr. Ulf Lorenz F2.413
Optimierung I Dr. Ulf Lorenz F2.413 flulo@upb.de Organisation Dozent: Dr. Ulf Lorenz F2.413 Fürstenallee 11 email: flulo@upb.de WWW: http://www.upb.de/cs/flulo (hier auch aktuelle Infos + Ü-Zettel) Vorlesungen:
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
MehrFunktionen mehrerer Variabler
Vektoranalysis Funktionen mehrerer Variabler Wir untersuchen allgemein vektorwertige Funktionen von vektoriellen Argumenten, wobei zunächst nur reelle Vektoren zugelassen seien. Speziell betrachten wir:
MehrLineare Programmierung
Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in
Mehr6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme
6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6.1 Nullstellen reeller Funktionen Bemerkung 6.1 (Problemstellung) geg.: f C[a, b] ges.: x [a, b] mit f(x ) = 0 Lösungstheorie f linear
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
MehrStudientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrOptimierung in R. Michael Scholz
N Optimierung in R Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) Michael Scholz Institut für Statistik und Ökonometrie Georg-August-Universität Göttingen Fortgeschrittene Mathematik: Optimierung
MehrSimplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 4 Simplex-Verfahren Peter Becker (H-BRS) Operations Research I Sommersemester 24 86 / 298 Inhalt Inhalt 4 Simplex-Verfahren Dualer Simplexalgorithmus Vermeidung von Zyklen Peter Becker (H-BRS)
MehrMathematik 2 für Wirtschaftsinformatik
für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar
Mehr1 Der Simplex Algorithmus I
1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
MehrLineare Optimierungsmodelle
Lineare Optimierungsmodelle Simplex-Methode Vortragender: Michael Schneider Agenda Motivation Operations Research Aufbau linearer Optimierungsmodelle Simplex-Methode Ausblick 2 Problemstellung Futtermischung
MehrSchranken für zulässige Lösungen
Schranken für zulässige Lösungen Satz 5.9 Gegeben seien primales und duales LP gemäß der asymmetrischen Form der Dualität. Wenn x eine zulässige Lösung des primalen Programms und u eine zulässige Lösung
MehrMultivariate Analysis
Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle
Mehr(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung)
Lineare Optimierung Unterbestimmte LGS und Optimierung Bei lösbaren unterbestimmten linearen Gleichungssystemen haben wir die Qual der Wahl in Abhängigkeit von den freien Parametern (Anzahl = Anzahl Unbekannte
MehrWirtschaftsmathematik
Helge Röpcke Markus Wessler Wirtschaftsmathematik Methoden - Beispiele - Anwendungen Mit 84 Bildern, 113 durchgerechneten Beispielen und 94 Aufgaben mit ausführlichen Lösungen im Internet Fachbuchverlag
MehrExtremwerte von Funktionen mehrerer reeller Variabler
Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein
MehrLineare Programmierung Teil I
Seminar über Algorithmen Prof. Dr. Helmut Alt Lineare Programmierung Teil I Lena Schlipf, Benjamin Jankovic Lena Schlipf, Benjamin Jankovic Seminar über Algorithmen SS05 1 Struktur des Vortrags 1. Was
MehrModelle und Methoden der Linearen Optimierung (Die Thesen zur Vorlesung 1_Fallstudie)
(Die Thesen zur Vorlesung 1_Fallstudie) das Thema der Vorlesung Grundlagen der Methode der linearen Optimierung (Lineares Optimierungsmodell der Wahl der Produktionsstrategie des ) Prof. Dr. Michal Fendek
MehrLösungen zu Mathematik I/II
Prof. Dr. E. W. Farkas ETH Zürich, Februar 11 D BIOL, D CHAB Lösungen zu Mathematik I/II Aufgaben 1. 1 Punkte a Wir berechnen lim x x + x + 1 x + x 3 + x = 1. b Wir benutzen L Hôpital e x e x lim x sinx
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 11.12.2008 Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 1/ 18 Einführung Einführung Verfahren für
MehrKlausurlösung Einführung in Numerische Methoden und FEM Universität Siegen, Department Maschinenbau,
Universität Siegen, Department Maschinenbau, 7.7. Aufgabe y 3 l 3 3 F l l x Das dargestellte Fachwerk soll statisch mit Hilfe der FEM untersucht werden. Die Knoten und Elemente sind in der Abbildung nummeriert.
MehrAufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen
Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden
MehrOptimale Produktliniengestaltung mit Genetischen Algorithmen
Optimale Produktliniengestaltung mit Genetischen Algorithmen 1 Einleitung 2 Produktlinienoptimierung 3 Genetische Algorithmen 4 Anwendung 5 Fazit Seite 1 Optimale Produktliniengestaltung mit Genetischen
MehrOperations Research II (Nichtlineare und dynamische Optimierung)
Operations Research II (Nichtlineare und dynamische Optimierung) 5. April 007 Frank Köller,, Hans-Jörg von Mettenheim & Michael H. Breitner 8.4.007 # Nichtlineare Optimierung: Überblick Allgemeine Form:
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
Mehr3. Schnittebenenverfahren
3. Schnittebenenverfahren Themen 3. Schnittebenenverfahren Ganzzahlige lineare Programmierung Schnittebenenverfahren Konstruktion von Schnittebenen Auswahl von Schnittrestriktionen Operations Research
MehrAufgaben für die 6. Übung zur Vorlesung Mathematik 2 für Informatiker: Analysis Sommersemester 2010
Aufgaben für die 6. Übung zur Vorlesung Mathematik für Informatiker: Analysis Sommersemester 00 6. Wie hat man eine reelle Zahl α > 0 so in a b 3 positive Summanden x, y, z zu zerlegen, damit fx, y x y
MehrModelle und Methoden der Linearen Optimierung (Die Thesen zur Vorlesung 1)
(Die Thesen zur Vorlesung 1) das Thema der Vorlesung Grundlagen der Methode der linearen Optimierung (Grundlegende Annahmen der linearen Programmierung) Prof. Dr. Michal Fendek Institut für Operations
MehrTaylor-Entwicklung der Exponentialfunktion.
Taylor-Entwicklung der Exponentialfunktion. Betrachte die Exponentialfunktion f(x) = exp(x). Zunächst gilt: f (x) = d dx exp(x) = exp(x). Mit dem Satz von Taylor gilt um den Entwicklungspunkt x 0 = 0 die
MehrTeil I. Lineare Optimierung
Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,
MehrAufgabe 5.3 Duale Simplexverfahren
Aufgabe 5.3 Knut Krause Thomas Siwczyk Stefan Tittel Technische Universität Dortmund Fakultät für Informatik Algorithmen und Datenstrukturen 15. Januar 2009 Gliederung 1 Aufgabenstellung und Motivation
MehrInhalt. Problemstellung und Überblick. Allgemeine Problemstellung und Terminologie. Überblick über spezielle Klassen von Optimierungsproblemen
Inhalt Problemstellung und Überblick Allgemeine Problemstellung und Terminologie Überblick über spezielle Klassen von Optimierungsproblemen 40: 40 [40,40] 2.1 Das Optimierungsproblem in allgemeiner Form
MehrInhalt Kapitel I: Nichtlineare Gleichungssysteme
Inhalt Kapitel I: Nichtlineare Gleichungssysteme I Nichtlineare Gleichungssysteme I. Nullstellenbestimmung von Funktionen einer Veränderlichen I.2 I.3 Newton-Verfahren Kapitel I (UebersichtKapI) 3 Bisektionsverfahren
Mehr2. Optimierungsprobleme 6
6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen
MehrWirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra
MehrIterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
MehrLeibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber
Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Sitzplatznr.: Wiederholungsklausur zur Vorlesung Operations Research im Wintersemester
Mehr4.3.3 Simplexiteration
7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige
Mehr6. Softwarewerkzeuge für die Lineare Programmierung
6. Softwarewerkzeuge für die Lineare Programmierung Inhalt 6. Softwarewerkzeuge für die Lineare Programmierung GNU Linear Programming Kit Operations Research I Hochschule Bonn-Rhein-Sieg, SS 2013 314 GNU
MehrNichtlineare Gleichungen
Nichtlineare Gleichungen Ein wichtiges Problem in der Praxis ist die Bestimmung einer Lösung ξ der Gleichung f(x) =, () d.h. das Aufsuchen einer Nullstelle ξ einer (nicht notwendig linearen) Funktion f.
MehrRückblick auf die letzte Vorlesung. Bemerkung
Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D
MehrMathematik für Wirtschaftswissenschaftler II (Analysis) 2. Klausur Sommersemester
Mathematik für Wirtschaftswissenschaftler II (Analysis) 2. Klausur Sommersemester 2011 30.09.2011 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN Nachname:...................................................................
MehrSeminaraufgabensammlung zur Lehrveranstaltung. Prozessoptimierung 1. 1 Formulieren und Lösen linearer Optimierungsprobleme
Fachgebiet Simulation und Optimale Prozesse Fakultät für Informatik und Automatisierung Institut für Automatisierungsund Systemtechnik Seminaraufgabensammlung zur Lehrveranstaltung Prozessoptimierung Vorlesender:
MehrNumerische Ableitung
Numerische Ableitung Die Ableitung kann angenähert werden durch den Differentenquotient: f (x) f(x + h) f(x) h oder f(x + h) f(x h) 2h für h > 0, aber h 0. Beim numerischen Rechnen ist folgendes zu beachten:
MehrLineare Optimierung Ergänzungskurs
Lineare Optimierung Ergänzungskurs Wintersemester 2015/16 Julia Lange, M.Sc. Literatur Werner, F.; Sotskov, Y.N. (2006): Mathematics of Economics and Business; Routledge; London Bemerkungen Diese Unterlagen
MehrOPERATIONS-RESEARCH (OR)
OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:
MehrFolgerungen aus dem Auflösungsatz
Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und
MehrHöhere Mathematik für Physiker II
Universität Heidelberg Sommersemester 2013 Wiederholungsblatt Übungen zur Vorlesung Höhere Mathematik für Physiker II Prof Dr Anna Marciniak-Czochra Dipl Math Alexandra Köthe Fragen Machen Sie sich bei
MehrC. Eicher Analysis Study Center ETH Zürich HS Extremwerte
C. Eicher Analysis Study Center ETH Zürich HS 05 Extremwerte Gelöste Aufgabenbeispiele:. Bestimme die lokalen und globalen Extrema der Funktion f(x) = x x + x auf dem Intervall [ 4, ]. a. Bestimmung der
MehrKapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester
Mehr1 Lineare Optimierung, Simplex-Verfahren
1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und
MehrNEXTLEVEL im WiSe 2011/12
Fachbereich Mathematik der Universität Hamburg Dr. H. P. Kiani NEXTLEVEL im WiSe 2011/12 Vorlesung 5, Teil 2 Linearisierung, einige Eigenschaften differenzierbarer Funktionen Die ins Netz gestellten Kopien
MehrInhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57
Vorwort... 13 Vorwort zur 3. deutschen Auflage... 17 Kapitel 1 Einführung, I: Algebra... 19 1.1 Die reellen Zahlen... 20 1.2 Ganzzahlige Potenzen... 23 1.3 Regeln der Algebra... 29 1.4 Brüche... 34 1.5
MehrOptimale Steuerung 1
Optimale Steuerung 1 Kapitel 5: Eindimensionale Nichtlineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Optimierung des Rohrleitungsdurchmessers für den
Mehr3. Grundlagen der Linearen Programmierung
3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations
MehrOutline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel
Outline 1 Funktionen von mehreren Veränderlichen 2 Grenzwert und Stetigkeit 3 Partielle Ableitungen 4 Die verallgemeinerte Kettenregel 5 Das totale Differential 6 Extremstellen Roman Wienands (Universität
MehrMikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1
1 Funktionen Definition 1 (Funktion). Übungsblatt 1 Eine Funktion f(x) einer reellen Variable x mit Definitionsbereich D ist eine Regel, die jeder Zahl x in D eine reelle Zahl f(x) eindeutig zuordnet.
Mehr3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)
3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände
MehrOptimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg
Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei
MehrApproximation im Sinne der Analysis:
1 Approximation im Sinne der Analysis: Satz von Weierstrass: (1815-1897) Sei f eine stetige Funktion auf [a, b]. Dann gibt es zu jedem ε > 0 ein Polynom P ε mit: max x [a,b] f(x) P ε(x) < ε Numerische
MehrÜbungsbuch Beschaffung, Produktion und Logistik
Vahlens Übungsbücher der Wirtschafts- und Sozialwissenschaften Übungsbuch Beschaffung, Produktion und Logistik Aufgaben, Lösungen und Implementierung in Excel von Prof. Dr. Dr. h.c. Hans-Ulrich Küpper,
MehrNichtlineare Gleichungen, mehrere Unbekannte
Dritte Vorlesung, 6. März 2008, Inhalt Aufarbeiten von Themen der letzten Vorlesung, und Nichtlineare Gleichungen, mehrere Unbekannte Systeme nichtlinearer Gleichungen Vektor- und Matrixnormen Fixpunkt-Iteration,
MehrDifferenzialrechnung. Mathematik-Repetitorium
Differenzialrechnung 5.1 Die Ableitung 5.2 Differentiation elementarer Funktionen 5.3 Differentiationsregeln 5.4 Höhere Ableitungen 5.5 Partielle Differentiation 5.6 Anwendungen Differenzialrechnung 1
MehrWiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b
Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung
Mehr4. Lösung linearer Gleichungssysteme
4. Lösung linearer Gleichungssysteme a x + : : : + a m x m = b a 2 x + : : : + a 2m x m = b 2 : : : a n x + : : : + a nm x m = b n in Matrix-Form: A~x = ~ b (*) mit A 2 R n;m als Koe zientenmatrix, ~x
Mehrf(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.
Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit
MehrMathematik für Wirtschaftswissenschaftler Kapitel 4-6. Universität Trier Wintersemester 2013 / 2014
Mathematik für Kapitel 4-6 Universität Trier Wintersemester 2013 / 2014 Kapitel 4 1. Extremwerte 2. Lokale Optimalpunkte 3. Wendepunkte 2 Kapitel 4.1 EXTREMWERTE 3 Extrempunkte und Extremwerte 4 Strikte
MehrHeuristiken Greedy-Algorithmen Lokale Suche Tabu Suche
Seminar Ausgewählte Themen des Operations Research bei Prof. R. Schrader Heuristiken Greedy-Algorithmen Lokale Suche Tabu Suche Wintersemester 2007/2008 Eingereicht von: Florian Schuster Datum: 12.12.2007
MehrLineare (Un-)Gleichungen und lineare Optimierung
Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik Universität Innsbruck Lehrer/innen/fortbildungstag Wien 2010 9. April 2010 Eine Maximumsaufgabe Eine Firma stellt aus
MehrMathematik II. Kapitel III: Funktionen mit mehreren Variablen. 13. Mai 2015
13. Mai 2015 f(x,y) = sin(x 2 +y 2 ) f(x,y) = sin x 2 +y 2 x2 +y 2 +1 f(x,y) = x y x 2 +y 2 f(x,y) = x 2 y Niveaulinien von f(x,y) = 4 x 2 y 2 f(x,y) = 1 x2 y 2 x f(x,y) = x 2 +y 2 f(x,y) = x 2 +y 2 f(x,y)
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den
MehrKlausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler
Wintersemester 2007/08 27.2.2008 Dr. Sascha Kurz Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler Bitte lesbar ausfüllen, Zutreffendes ankreuzen Herr Frau Name, Vorname: Anschrift:
MehrMathematik 1 für Wirtschaftsinformatik
Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration
MehrTeil II Optimierung. Peter Buchholz 2016. Modellgestützte Analyse und Optimierung Kap. 9 Einführung Optimierung
Teil II Optimierung Gliederung 9 Einführung, Klassifizierung und Grundlagen 10 Lineare Optimierung 11 Ganzzahlige und kombinatorische Optimierung 12 Dynamische Optimierung Literatur: zu 10-12: Neumann,
MehrDer CG-Algorithmus (Zusammenfassung)
Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine
MehrDas Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering
Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme
Mehr7.1 Matrizen und Vektore
7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit
MehrLösungen zu den Hausaufgaben zur Analysis II
Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin
Mehr18.4 Das Newton-Verfahren
18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift
MehrMathematik für. Wirtschaftswissenschaftler. Basiswissen mit Praxisbezug. 4., aktualisierte und erweiterte Auflage
Mathematik für Wirtschaftswissenschaftler Basiswissen mit Praxisbezug 4., aktualisierte und erweiterte Auflage Knut Sydsaeter Peter Hammond mit Arne Strom Übersetzt und fach lektoriert durch Dr. Fred Böker
MehrDifferenzial- und Integralrechnung II
Differenzial- und Integralrechnung II Rainer Hauser Dezember 011 1 Einleitung 1.1 Ableitung Die Ableitung einer Funktion f: R R, x f(x) ist definiert als f (x) = df(x) dx = d f(x + h) f(x) f(x) = lim dx
MehrMathematik I Prüfung Frühlingssemester 2014
Mathematik I Prüfung Frühlingssemester 2014 Prof. Dr. Enrico De Giorgi 23. Juni 2014 Mathematik II: Prüfung Frühlingssemester 2014 1 Teil I: Offene Fragen (50 Punkte) Allgemeine Anweisungen für offene
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 5. Juni 2016 Definition 5.21 Ist a R, a > 0 und a 1, so bezeichnet man die Umkehrfunktion der Exponentialfunktion x a x als
MehrOperations Research für Logistik
Operations Research für Logistik Lineare Optimierung (170.202) Ao. Univ. - Prof. Norbert SEIFTER Dipl. - Ing. Stefanie VOLLAND Sommersemester 2012 Lehrstuhl Industrielogistik Lineare Optimierung Inhalte:
MehrKurvendiskussion für Funktionen mit einer Variablen
Kurvendiskussion für Funktionen mit einer Variablen Unter der Kurvendiskussion einer Funktionsgleichung versteht man die Zusammenstellung der wichtigsten Eigenschaften ihres Bildes mit anschließender Zeichnung.
MehrUnimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206
Kapitel 1 Unimodularität Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Inhalt 1 Unimodularität Total unimodulare Matrizen Inzidenzmatrix Optimierungsprobleme auf Graphen Peter
MehrEinführung in die Wirtschaftsinformatik VO WS 2008 / 2009
Einführung in die Wirtschaftsinformatik VO WS 2008 / 2009 Daten Modelle Steuerung Wilfried Grossmann Teil 3: Steuerung Mathematische Modelle werden häufig dazu verwendet um ein optimales Verhalten zu bestimmen
Mehra n = 2a n n 1 IV = 2(n 1)2 n n 1 = (n 1)2 n n 1 = n2 n 1.
Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL07 Aufgabe. Wir definieren die Folge {a n } n N rekursiv vermöge a 0 := 0, a n := a n + n für n. Zeigen Sie: a n = n n für
MehrMathematik anschaulich dargestellt
Peter Dörsam Mathematik anschaulich dargestellt für Studierende der Wirtschaftswissenschaften 15. überarbeitete Auflage mit zahlreichen Abbildungen PD-Verlag Heidenau Inhaltsverzeichnis 1 Lineare Algebra
Mehr