(Lineare) stochastische Optimierung



Ähnliche Dokumente
(Lineare) stochastische Optimierung

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Lineare Optimierung Ergänzungskurs

R ist freie Software und kann von der Website.

Optimierung und Simulation ökonomischer Problemlagen privater Haushalte 3. Vorlesung

4. Dynamische Optimierung

Bestimmung einer ersten

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Lineare Gleichungssysteme

Einfache Varianzanalyse für abhängige

W-Rechnung und Statistik für Ingenieure Übung 11

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = ,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

LINGO: Eine kleine Einführung

Einführung in. Logische Schaltungen

Melanie Kaspar, Prof. Dr. B. Grabowski 1

Einführung in die Algebra

Kevin Caldwell. 18.April 2012

Versuch 3. Frequenzgang eines Verstärkers

Im Jahr t = 0 hat eine Stadt Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

TECHNISCHE UNIVERSITÄT MÜNCHEN

Mikroökonomik 9. Vorlesungswoche

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

4. Versicherungsangebot

BONUS MALUS SYSTEME UND MARKOV KETTEN

MORE Profile. Pass- und Lizenzverwaltungssystem. Stand: MORE Projects GmbH

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip. KLAUSUR Statistik B

Lernmaterial für die Fernuni Hagen effizient und prüfungsnah

11.AsymmetrischeInformation

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR)

R. Brinkmann Seite Schriftliche Übung Mathematik Stochastik II (Nachschreiber) Jan. 2007

Definition und Begriffe

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Technische Informatik Basispraktikum Sommersemester 2001

Statistische Thermodynamik I Lösungen zur Serie 1

Lineare Gleichungssysteme I (Matrixgleichungen)

Kosten-Leistungsrechnung Rechenweg Optimales Produktionsprogramm

Abschlussprüfung Realschule Bayern II / III: 2009 Haupttermin B 1.0 B 1.1

15.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Nichtlineare Optimierung ohne Nebenbedingungen

1. Wie viel Zinsen bekommt man, wenn man 7000,00 1 Jahr lang mit 6 % anlegt?


Plotten von Linien ( nach Jack Bresenham, 1962 )

Bewertung des Blattes

Beispiel Zusammengesetzte Zufallsvariablen

Lösung. Prüfungsteil 1: Aufgabe 1

Bundesverband Flachglas Großhandel Isolierglasherstellung Veredlung e.v. U g -Werte-Tabellen nach DIN EN 673. Flachglasbranche.

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme

Linearen Gleichungssysteme Anwendungsaufgaben

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50, ,5 51,7 48,8

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II Thomas Brox, Fabian Kuhn

Transaktionsempfehlungen im ebase Online nutzen

Prozentrechnung. Wir können nun eine Formel für die Berechnung des Prozentwertes aufstellen:

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Codierungstheorie Rudolf Scharlau, SoSe

B 2. " Zeigen Sie, dass die Wahrscheinlichkeit, dass eine Leiterplatte akzeptiert wird, 0,93 beträgt. (genauerer Wert: 0,933).!:!!

Schleswig-Holstein Kernfach Mathematik

Lineare Gleichungssysteme

Vorlesung. Informationsökonomik und die Theorie der Firma

Lösungsmethoden gewöhnlicher Differentialgleichungen (Dgl.)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

Mathematik 1 für Wirtschaftsinformatik

Woraus besteht ein Bild? (c) Winfried Heinkele

Lineare Funktionen. 1 Proportionale Funktionen Definition Eigenschaften Steigungsdreieck 3

Übungsklausur. Bitte wählen Sie fünf Aufgaben aus! Aufgabe 1. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr.

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Statistik I für Betriebswirte Vorlesung 11

Forschungsstatistik I

Professionelle Seminare im Bereich MS-Office

Erfahrungen mit Hartz IV- Empfängern

Wir machen neue Politik für Baden-Württemberg

Stackelberg Scheduling Strategien

Markovketten. Bsp. Page Ranking für Suchmaschinen. Wahlfach Entscheidung unter Risiko und stat. Datenanalyse

Primzahlen und RSA-Verschlüsselung

Materialverflechtung

y P (Y = y) 1/6 1/6 1/6 1/6 1/6 1/6

Bruchrechnung Wir teilen gerecht auf

15 Optimales Kodieren

Beweisbar sichere Verschlüsselung

Abituraufgabe zur analytischen Geometrie, Hessen 2013, B2, Grundkurs (TR)

Einführung. Kapitel 1. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Erfüllbarkeit und Allgemeingültigkeit

Rente = laufende Zahlungen, die in regelmäßigen Zeitabschnitten (periodisch) wiederkehren Rentenperiode = Zeitabstand zwischen zwei Rentenzahlungen

Mathematik I für Wirtschaftswissenschaftler

Tutorial: Homogenitätstest

Feiertage in Marvin hinterlegen

Historical Viewer. zu ETC5000 Benutzerhandbuch 312/15

sondern alle Werte gleich behandelt. Wir dürfen aber nicht vergessen, dass Ergebnisse, je länger sie in der Vergangenheit

CAQ Software für Ihr Qualitätsmanagement. Ablauf für die Erfassung der Fehler in der Fertigung

Die Optimalität von Randomisationstests

Mathematik-Klausur vom 2. Februar 2006

Korrelation (II) Korrelation und Kausalität

Kapitel 4 Die Datenbank Kuchenbestellung Seite 1

Darstellende Geometrie Übungen. Tutorial. Übungsblatt: Perspektive - Rekonstruktion

6.2 Scan-Konvertierung (Scan Conversion)

Skript und Aufgabensammlung Terme und Gleichungen Mathefritz Verlag Jörg Christmann Nur zum Privaten Gebrauch! Alle Rechte vorbehalten!

Transkript:

(Lineare) stochastische Optimierung Bsp: Aus zwei Sorten Rohöl wird Benzin und Heizöl erzeugt. Die Produktivität sowie der Mindestbedarf (pro Woche) und die Kosten sind in folgender Tabelle angegeben: Rohöl 1 Rohöl 2 Bedarf Benzin 2 6 180 Heizöl 3 3 162 Kosten 2 3 Weiters besteht eine Kapazitätsbeschränkung, dass maximal 100 Einheiten Rohöl pro Woche verarbeitet werden können. Man ist also mit folgendem linearen Optimierungsproblem konfrontiert: 2x 1 +3x 2 min 2x 1 +6x 2 180 3x 1 +3x 2 162 Als kostengünstigsten Produktionsplan erhält man x 1 =36,x 2 = 18 und die minimalen Kosten betragen 126 GE. Angenommen, sowohl der Mindestbedarf als auch die Produktivitäten unterliegen Zufallsschwankungen und sind bei Erstellung des Produktionsplans noch nicht bekannt. Rohöl 1 Rohöl 2 Bedarf Benzin 2+ η 1 6 180 + ζ 1 Heizöl 3 3.4 η 2 162 + ζ 2 Kosten 2 3 wobei ζ 1 N(0, 12), ζ 2 N(0, 9), η 1 U( 0.8, 0.8), η 2 EXP(λ =2.5). Weiters wird angenommen, dass die unbeschränkten Zufallsvariablen ζ 1, ζ 2 und η 2 nur Werte innerhalb folgender 99% Konfidenzintervalle annehmen: ζ 1 [ 30.91, 30.91], ζ 2 [ 23.18, 23.18], η 2 [0.0, 1.84] Man ist also mit folgendem stochastischen linearen Optimierungsproblem konfrontiert: 2x 1 + 3x 2 min (2 + η 1 )x 1 + 6x 2 180 + ζ 1 3x 1 + (3.4 η 2 )x 2 162 + ζ 2 1

Dieses Optimierungsproblem ist nicht wohldefiniert, da völlig unklar ist, was eine optimale Lösung bedeuten soll, solang die Realisierungen der Zufallsvariablen unbekannt sind. Änderung von ζ i bewirkt eine Parallelverschiebung der Begrenzungsgeraden des zulässigen Bereichs. Änderung von η i bewirkt eine Drehung. Fat Solution: Eine Lösung, die für alle Realisierungen der Zufallsvariablen (in den oben angegebenen Intervallen) zulässig ist. In unserem Beispiel tritt der schlechteste Fall für ζ 1 =30.91,ζ 2 =23.18,η 1 = 0.8,η 2 = 1.84 ein. Als Fat Solution erhält man: x 1 =48.49,x 2 =25.45 und die Kosten betragen 173.34 GE. Andere Möglichkeit: Für nicht erfüllte Nachfrage sind von der Raffinerie Strafzahlungen zu entrichten, und zwar 7 bzw. 12 Geldeinheiten je nicht gelieferter Mengeneinheit Benzin bzw. Heizöl. Gesucht ist ein Produktionsplan, der die Summe aus Produktionskosten und erwarteten Regress-kosten minimiert. Notation: ξ := ( ζ 1, ζ 2, η 1, η 2 ) t y i ( ξ) Regress-variable, gibt die nicht-erfüllte Nachfrage an. Weiters: α( ξ) :=2+ η 1, β( ξ) :=3.4 η 2 h 1 ( ξ) := 180 + ζ 1, h 2 ( ξ) := 162 + ζ 2. Man erhält folgendes stochastisches Optimierungsproblem: Probleme: 2x 1 + 3x 2 + E ξ[7y 1 ( ξ) + 12y 2 ( ξ)] min α( ξ)x 1 + 6x 2 + y 1 ( ξ) h 1 ( ξ) 3x 1 + β( ξ)x 2 + y 2 ( ξ) h 2 ( ξ) multivariate Integration bei Erwartungswertberechnung Funktionen y i (ξ) sind implizit gegeben. Falls die Zufallsvariable ξ eine endliche diskrete Verteilung besitzt, i.e. ξ nimmt mit Wahrscheinlichkeiten p i die Werte ξ i an, i =1,,r,soerhält man das folgende lineare Optimierungsproblem 2

2x 1 + 3x 2 + r i=1 p i [7y 1 (ξ i ) + 12y 2 (ξ i )] min α(ξ i )x 1 + 6x 2 + y 1 (ξ i ) h 1 (ξ i ) i =1, r 3x 1 + β(ξ i )x 2 + y 2 (ξ i ) h 2 (ξ i ) i =1, r x 1 0 x 2 0 y 1 (ξ i ) 0 i =1,,r y 2 (ξ i ) 0 i =1,,r d.h. man erhält ein lineares Optimierungsproblem mit 2r + 2 Variablen (x 1,x 2,y 1 (ξ 1 ),y 2 (ξ i )) und 2r + 1 Nebenbedingungen. Approximation stetiger Verteilungen Die Verteilung der stetigen Zufallsvariable ξ kann folgendermaßen durch eine diskrete endliche Zufallsvariable approximiert werden: generiere eine große (z.b. K = 10000) Zufallsstichprobe ξ i,i=1,,k Zerlege das 99%-Intervall in r Teil- Intervalle I j,j =1,,r. Wähle als mögliche Ausprägungen ξ j dieser Teilintervalle der disketen Approximation die Mittelpunkte Schätze die Wahrscheinlichkeit p j der Ausprägung ξ j durch die relative Häufigkeit der Elemente der Zufallsstichprobe, die im Intervall I j liegen. Duale Dekompositionsmethode Betrachten das Problem Annahmen: Das Problem ist lösbar { c t x + q t y} min T x + W y = h x 0, y 0 Die Menge { x A x = b, x 0} ist beschränkt. Dieses Problem kann zu folgendem äquivalenten Problem umformuliert werden: { c t x + f( x)} min x 0 3

wobei f( x) =min{ q t y W y = h T x, y 0.} Weiters kann dieses Problem umformuliert werden zu Dualer Dekompositions-Algorithmus { c t x + θ} min θ f( x) 0 x 0 Schritt 1: Sei θ 0 eine untere Schranke für Löse das Problem min{ q t y A x = b, T x + W y = h, x 0, y 0} min{ c t x + θ A x = b, θ θ 0, x 0} Dies führt zu einer Lösung (ˆ x, ˆθ). Sei B 1 := {IR n {θ} θ θ 0 }. Schritt 2: Evaluiere die Regress Funktion f(ˆ x) = min{ q t y W y = h T ˆ x, y 0} = = max{( h T ˆ x) t u W t u q} Man muss nun zwischen den folgenden zwei Fällen unterscheiden: f(ˆ x) =+ dann ist ˆ x nicht zulässig bezüglich aller Nebenbedingungen des Optimierungsproblems. Es existiert ein u sodass W t u 0 und ( h T ˆ x) t u >0ist. Andererseits muss für jedes zulässige x ein y existieren, sodass gilt. Skalarmultiplikation von (1) mit u ergibt W y = h T x (1) u t ( h T x) = u t } {{ W } 0 y }{{} 0 Daher kann durch die zusätzliche Nebenbedingung u( h T x) 0 0. die unzulässige Lösung ˆ x weggeschnitten werden (feasibility cut). Schrenken nun den Parameterraum ein zu B 1 = B 1 {( x t,θ) u t ( h T x) 0}. Gehe zu Schritt 3. 4

f(ˆ x) ist endlich. Dann gibt es zu ˆ x eine primale Lösung ˆ y und eine duale Lösung ˆũ. Die Dualität ergibt: für alle anderen Vektoren x gilt jedoch f(ˆ x) =( h T ˆ x) tˆ u, f( x) = sup{( h T x) t u W t u q} ( h T x) tˆ u = ˆ u t ( h T x} Falls die aktuelle Lösung (ˆ x, ˆθ) die Nebenbedingung f( x) θ erfüllt, (i.e. falls f(ˆ x) ˆθ) hat man eine optimale Lösung gefunden. Anderenfalls impliziert die Nebenbedingung θ f( x) die lineare Nebenbedingung Durch die zusätzliche Nebenbedingung θ ˆ u t ( h T x) θ ˆ u t ( h T x) wird die sub-optimale Lösung (ˆ x, ˆθ) weggeschnitten (optimality cut) Schrenken nun den Parameterraum ein zu B 1 = B 1 {( x t,θ) ˆ u t ( h T x) θ}. Gehe zu Schritt 3. Schritt 3: Löse das modifizierte Problem min{ c t x + θ ( x t,θ) B 1 } Dies ergibt eine Lösung ( x, θ). Setze nun (ˆ x, ˆθ) :=( x, θ) und gehe zu Schritt 2. Unter den obigen Voraussetzungen führt dieser Algorithmus in endlich vielen Schritten zur optimalen Lösung. References [1] Kall, Peter und Wallace, Stein W., Stochastic Programming, J. Wiley and Sons, Chichester, 1995. 5