Technische Universität München. Grundlagen der konvexen Optimierung
|
|
- Wilfried Lichtenberg
- vor 5 Jahren
- Abrufe
Transkript
1 Technische Universität München Fakultät für Mathematik Lehrstuhl für Mathematische Optimierung Grundlagen der konveen Optimierung Michael Ulbrich April 2012
2
3 Gliederung der Vorlesung 1. Einführung Konvee Analysis 2. Grundlagen 3. Konvee Funktionen 4. Metrische Projektion und Trennungssätze 5. Stützfunktional und Normalkegel 6. Minimaldarstellungen konveer Mengen 7. Subdifferential konveer Funktionen Lineare Optimierung 8. Grundlagen der linearen Optimierung 9. Dualität 10. Duales Simpleverfahren 11. Revidiertes Simpleverfahren 12. Kompleitätsbetrachtungen und weitere Verfahren
4
5 M. Ulbrich: Grundlagen der konveen Optimierung 1 1 Problemstellung und Beispiele 1.1 Einführung Konvee Optimierungsprobleme sowie die zugrundeliegenden Begriffe der konveen Analysis bilden den Inhalt dieser Vorlesung. Der Begriff der Konveität von Mengen und Funktionen ist sowohl im Hinblick auf geometrische Aspekte als auch in Bezug auf das Berechnen globaler Lösungen von Minimierungsproblemen von zentraler Bedeutung. Ein Fokus dieser Vorlesung wird auf linearen Optimierungsproblemen liegen, für die eine sehr vollständige und abgerundete Theorie und Numerik eistiert, aus der sich viele grundlegende Einblicke in die konvee Analysis und die konvee Optimierung bieten. Wir wiederholen zunächst den Begriff der Konveität Definition Die Menge X R n heißt konve, wenn gilt: (1 λ) + λy X, y X, λ [0, 1]. 2. Die Funktion f : X R heißt konve auf der konveen Menge X R n, wenn gilt: f((1 λ) + λy) (1 λ)f() + λf(y), y X, λ [0, 1]. 3. Die Funktion f : X R heißt konkav auf der konveen Menge X R n, wenn f auf X konve ist, d.h. wenn gilt: f((1 λ) + λy) (1 λ)f() + λf(y), y X, λ [0, 1]. Im Folgenden heben wir einige wichtige Aspekte der konveen Optimierung, mit denen wir uns beschäftigen werden, kurz hervor: Notwendige und zugleich hinreichende Bedingungen für globale Minima einer konveen Funktion f : X R auf einer abgeschlossenen konveen Menge X R n : f() u.d.n. X. Rn Hierbei spielt eine wichtige Rolle, dass die Richtungsableitung konveer Funktionen stets eistiert und dass der Tangentialkegel einer konveen Menge der Abschluss der Menge aller zulässigen Richtungen ist. Eistenz einer eindeutigen Projektionsabbildung P : R n X, P () 2 y 2 y X, auf die konvee, abgeschlossene, nichtleere Menge X R n.
6 2 Trennung disjunkter konveer Mengen X 1, X 2 durch eine Hyperebene H(a, b) := { R n ; a T = b }, a R n \ {0}, b R, d.h. X 1 H (a, b) und X 2 H + (a.b) mit den Halbräumen H (a, b) := { R n ; a T b }, a R n \ {0}, b R, (1) H + (a, b) := { R n ; a T b }, a R n \ {0}, b R. (2) Hier besteht eine enge Verbindung zur Projektionsabbildung, denn die Normale a einer Hyperebene H(a, b), die die abgeschlossene konvee Menge X und den Punkt / X trennt (also X 1 = X, X 2 = {}), lässt sich durch a := P () bestimmen. Es eistieren reichhaltige Dualitätsbeziehungen. Einige Beispiele: a) f : X R ist konve genau dann, wenn der Epigraph {( ) } epi(f) := ; X, y R, f() y y konve ist. R n+1 b) Eine abgeschlossene Menge X R n ist konve genau dann, wenn sie als Durchschnitt der sie enthaltenden Halbräume H (a, b) X geschrieben werden kann: X = H (a, b). c) Zu Optimierungsproblemen der Form X H (a,b) f() u.d.n. g i () 0 (1 i m), h j () = 0 (1 j p), X 0 mit f, g i, h j : X 0 R und X 0 R n kann stets ein duales Optimierungsproblem angegeben werden, das ein konkaves Maimierungsproblem und somit äquivalent zu einem konveen Minimierungsproblem ist. Dieses ist eng verknüpft mit dem Ausgangsproblem (Primalproblem) und liefert insbesondere Unterschranken für den Optimalwert des Primalproblems. Ist das Primalproblem konve, dann ist unter sehr allgemeinen Voraussetzungen das Dualproblem äquivalent zum Problemproblem in dem Sinne, dass sich Lösungen des Primalproblem aus Lösungen des Dualproblems berechnen lassen. Eine zentrale Rolle spielt das lineare Optimierungsproblem (linear program, LP), dessen allgemeine Form wie folgt aussieht: c T u.d.n. A b, D = e mit c R n, A R m n, b R m, D R p n, e R p. Hierbei ist A b komponentenweise gemeint. Wie wir sehen werden, lässt sich für das LP eine sehr runde und vollständige Theorie und Numerik entwickeln.
7 M. Ulbrich: Grundlagen der konveen Optimierung 3 Die konvee Analysis ermöglicht eine elegante und vollständige Behandlung nichtglatter (d.h. nicht überall differenzierbarer) Funktionen und Optimierungsprobleme. 1.2 Beispiele Standardform konveer Optimierungsprobleme Sehr häufig hat der zulässige Bereich die Form Seien g i : R n R konve, 1 i m, dann ist die Menge X = { R n ; g() 0, h() = 0, X 0 } mit X 0 R n und Funktionen g : X 0 R m und h : X 0 R p. Hierbei ist g() 0 komponentenweise gemeint. Wie man unmittelbar nachprüft ist dann X konve, falls folgendes gilt: X 0 konve. g i : X 0 R konve, 1 i m, h : X 0 R p linear, d.h. h() = D + e, X 0, mit D R p n, e R p Produktionsplanung Wir betrachten die Produktionsplanung einer Fabrik, die zwei Produkte P 1 und P 2 herstellt. Hierzu werden pro hergestellter Einheit produktabhängige Mengen zweier Materialien M 1 und M 2 sowie Herstellungs- und Maschinenbearbeitungszeiten benötigt. Die Produktionsbedingungen ergeben sich aus der folgenden Tabelle. P 1 P 2 verfügbar Herstellungszeit [] Maschinenbearbeitungszeit [] Bedarf Material M Bedarf Material M Reingewinn [Euro] Unter der Annahme, dass keine Absatzschwierigkeiten bestehen, soll berechnet werden, wieviele Einheiten der beiden Produkttypen hergestellt werden müssen, damit der Gewinn optimal wird, natürlich unter Einhaltung obiger Restriktionen. Mathematische Formulierung: Sei 1 die Menge der produzierten Einheiten von P 1, 2 die Menge der produzierten Einheiten von P 2.
8 4 Dann lauten die Produktionsbedingungen: (i) (ii) (iii) (iv) 1 0 (v) 2 0 (vi) Gesucht sind Zahlen ( 1, 2 ), die diesen Ungleichungen genügen und den Gewinn f( 1, 2 ) := maimieren. Es handelt sich hier um ein lineares Optimierungsproblem (die Lösung ist 1 = 80, 2 = 300) L - und L 1 -Approimation Wir betrachten Approimationsprobleme der folgenden Form: mit 1 p, A b p v = ma 1 i m v i, v p = ( m ) 1/p v i p i=1 (1 p < ). Hierbei geht es darum, ein überbestimmtes oder inkompatibles lineares Gleichungssystem A = b, A R m n, Rang A = n, b R m, das üblicherweise keine Lösung besitzt, falls m > n gilt, mit kleinstem L p -Residuum zu lösen. Zunächst stellen wir fest, dass für jede beliebige Norm auf R m die Funktion f() := A b wegen der Dreiecksungleichung konve ist: Für alle, y R n und alle λ [0, 1] gilt A[(1 λ) + λy] b = (1 λ)(a b) + λ(ay b) (1 λ)(a b) + λ(ay b) = (1 λ) A b + λ Ay b. Zudem sind alle Normen bei v = 0 nicht differenzierbar. Denn für beliebiges festes w R m \ {0} ist die Funktion φ(t) := tw = t w, t R,
9 M. Ulbrich: Grundlagen der konveen Optimierung 5 bei t = 0 nicht differenzierbar. Manche Normen, insbesondere 1 und, sind auch an anderen Stellen als v = 0 nicht differenzierbar. In der Numerik bilden lineare Kleinste-Quadrate-Probleme, d.h. der Fall p = 2, A b 2, eine wichtige Problemklasse. Beim Kleinste-Quadrate-Problem kann man durch Quadrieren der zunächst nichtdifferenzierbaren Zielfunktion A b 2 erreichen, dass die Zielfunktion konve und quadratisch (und somit insbesondere C ) wird: A b 2 2 = (A b) T (A b) = b T b 2b T A + T A T A. In manchen Anwendungen ist es aber günstiger, mit den Normen oder 1 zu arbeiten: m v = ma v i, v 1 = v i. 1 i m Wir erhalten im ersten Fall i=1 A b, (3) d.h. gesucht ist hier ein, für das der maimale Defekt aller Gleichungen imal ist. Der im Fall p = 2 verwendete Trick des Quadrierens würde bei den Normen und 1 zwar die Nichtdifferenzierbarkeit bei 0 beseitigen, aber nicht an anderen Stellen. Man muss daher mit der Nichtglattheit leben. Als Alternative kann jedoch die folgende äquivalente Formulierung von (3) vorgenommen werden: u.d.n. at i t b i, a T i t b i (i i m) (4) t R, R n Dies ist ein lineares Programm und kann somit effizient gelöst werden. Der Konstruktion liegt zugrunde, dass das i-te Nebenbedingungspaar offensichtlich äquivalent ist zu a T i b i t. Alle Nebenbedingungen zusammen sind daher äquivalent zu Wir zeigen nun: A b t. 1. Ist eine Lösung von (3) und setzen wir t = A b, so ist ( t, ) eine Lösung von (4). 2. Ist ( t, ) eine Lösung von (4), so ist eine Lösung von (3) und es gilt t = A b.
10 6 Zum Nachweis von 1. stellen wir zunächst fest, dass ( t, ) nach Wahl von t zulässig für (4) ist. Ist nun (t, ) ein beliebiger weiterer zulässiger Punkt, dann gilt t A b A b = t. Damit ist ( t, ) eine optimale Lösung von (4). Zum Nachweis von 2. sei umgekehrt ( t, ) eine optimale Lösung von (4). Ist dann R n beliebig und setzen wir t := A b, dann ist (t, ) ebenfalls zulässig und wir erhalten A b = t t A b. Somit ist Lösung von (3). Für die spezielle Wahl = folgt A b t A b. Mit der Theorie zur linearen Optimierung, die wir später entwickeln werden, lässt sich zeigen, dass das LP (4) eine optimale Ecke ( t, ) besitzt. In dieser sind destens so viele Nebenbedingungen aktiv (d.h. mit = erfüllt), wie das Problem Variablen hat, also destens n + 1. Daraus folgt, dass a T i b i = A b für destens n + 1 Indizes 1 i m gilt. Der Spielraum [ t, t] mit t = A b wird also von destens n + 1 Zeilen von A b voll ausgeschöpft. Man kann auf ähnliche Weise auch das L 1 -Approimationsproblem A b 1 als LP reformulieren (Übung). L 1 -imale Vektoren haben die Tendenz, dünn besetzt zu sein. Dies kann man ebenfalls durch LP-Theorie begründen, denn die gängige Reformulierung hat m + n Variablen und 2m Nebenbedingungen: a T i b i t i, a T i + b i t i, 1 i m. In einer optimalen Ecke sind destens m + n Nebenbedingungen aktiv. Daraus folgt, dass es destens n Indizes i gibt mit a T i b i = t i = 0. Der Residuenvektor A b ist also in destens n Komponenten gleich Null. Man sieht am Beispiel der L 1 - und L -Approimation, dass häufig mehr als eine Formulierung desselben Problems eistiert und dass Nichtglattheiten manchmal durch Nebenbedingungen beseitigt werden können. Umgekehrt kann man häufig Nebenbedingungen in Form von nichtglatten Termen in die Zielfunktion aufnehmen und dadurch beseitigen (eakte Penalisierung) Netzwerkflüsse und kürzeste Wege Bei Routenplanern, Boardcomputern und ähnlichem ist die Aufgabenstellung, kürzeste Wege zu finden, von zentraler Bedeutung. Auch die verkehrs- oder umweltplanerisch möglichst günstige Verkehrssteuerung ist von Bedeutung. Wir betrachten zunächst ein Problem der optimalen Verkehrsplanung:
11 M. Ulbrich: Grundlagen der konveen Optimierung 7 Gegeben seien m 2 Städte s 1,..., s m, die durch gerichtete (d.h. Einbahn-) Straßen w 1,..., w n verbunden sind (aber nicht notwendig jede Stadt mit jeder anderen). Die Straße (im Folgenden: Kante) w j führe von der Stadt a j S := {s 1,..., s m } zur Stadt b j S and habe die Länge l j > 0 (Einheit km). Häufig verwendet man hierfür die suggestive Schreibweise w j = (a j, b j ). Der Verkehrsfluss j auf der Straße w j (gemessen in Personen/Stunde) sei der Unterschranke 0 und der Oberschranke u j > 0 unterworfen, j = 1,..., n. Als Nettoverkehrsfluss N i in die Stadt s i bezeichnen wir die Differenz aus dem gesamten Verkehrzufluss und dem gesamten Verkehrsabfluss: N i = j j., b j =s i, a j =s i Der Schadstoffausstoß pro Stunde auf der Straße w j ist proportional zu ihrer Länge und dem auf ihr herrschenden Verkehr, also gleich γ j l j j, wobeit γ j > 0 eine Konstante ist (diese könnte den Typ der Straße widerspiegeln). Wir wollen einen möglichst umweltfreundlichen Nettoverkehrsfluss f R (Personen/Stunde) von der Stadt s 1 zur Stadt s m bestimmen. Gesucht sind also Verkehrsflüsse j, j = 1,..., n, so dass gilt: N 1 = f, N 2 = = N m 1 = 0, N m = f. Die Kapazitätsgrenzen auf allen Straßen werden eingehalten. Der Gesamtschadstoffausstoß ist imal. Wir erhalten das lineare Optimierungsproblem R n u.d.n. n γ j l j j j=1 b j =s 1 b j =s i j j j b j =s m a j =s 1 j = f, j = 0, i = 2,..., m 1, a j =s i j = f, a j =s m 0 j u j, 1 j n. (5)
Die Lagrange-duale Funktion
Die Lagrange-duale Funktion Gregor Leimcke 21. April 2010 1 Die Lagrangefunktion Wir betrachten das allgemeine Optimierungsproblem wobei minimiere f 0 über D sodass f i 0, i = 1,..., m 1.1 D = h i = 0,
Mehr1 Lineare Optimierung, Simplex-Verfahren
1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und
MehrKombinatorische Optimierung
Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
MehrKonvexe Mengen und Funktionen
Konvexe Mengen und Funktionen von Corinna Alber Seminararbeit Leiter: Prof. Jarre im Rahmen des Seminars Optimierung III am Lehrstuhl für Mathematische Optimierung an der Heinrich-Heine-Universität Düsseldorf
MehrWirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg Sätze PLUS Es gilt für A, B R n n : det(ab) = det A det B (Determinantenmultiplikationssatz)
MehrKLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen)
Mathematisches Institut WS 2012/13 der Heinrich-Heine-Universität 7.02.2013 Düsseldorf Prof. Dr. Achim Schädle KLAUSUR zu Einführung in die Optimierung Bitte folgende Angaben ergänzen und DEUTLICH LESBAR
MehrOptimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung
Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze
MehrProseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner
Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1 Vortrag: Lineare Gleichungen am 11. März 2009 von Maximilian Wahner Technische Universität Dortmund Fakultät für Mathematik Proseminar Lineare
MehrOperations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung
Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden
Mehr(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge
ÜBUNGSBLATT 0 LÖSUNGEN MAT/MAT3 ANALYSIS II FRÜHJAHRSSEMESTER 0 PROF DR CAMILLO DE LELLIS Aufgabe Finden Sie für folgende Funktionen jene Punkte im Bildraum, in welchen sie sich lokal umkehren lassen,
Mehr11 Optimierung von Funktionen einer Veränderlichen
11 Optimierung von Funktionen einer Veränderlichen In diesem Kapitel werden die bis hier behandelten Grundlagen der Analysis genutzt, um Methoden aus der Optimierungstheorie für eindimensionale Entscheidungsmengen
MehrKuhn-Tucker Bedingung
Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,
Mehr7.1 Matrizen und Vektore
7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit
MehrKAPITEL 3. Konvexe Funktionen
KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn
MehrLineare Optimierung: Simplexverfahren Phase Ⅰ
Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrKonvexe Optimierungsprobleme
von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel
MehrWirtschaftsmathematik für International Management (BA)
Wirtschaftsmathematik für International Management (BA) Wintersemester 2012/13 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Lineare Algebra 4 Lineare Programme 5 Folgen und Reihen 6
Mehr1 Der Simplex Algorithmus I
1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier
MehrDas Lagrange-duale Problem
Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h
Mehr6 Lineare Optimierung
6 Lineare Optimierung Um die Aufgabenstellung deutlich zu machen, beginnen wir mit einem (natürlich sehr vereinfachten) Beispiel: Produtionsplan einer (zugegebenermaßen sehr leinen) Schuhfabri. Hergestellt
MehrOptimale Steuerung 1 Prozessoptimierung 1
Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung
MehrOptimierung für Wirtschaftsinformatiker: Lineare Programme
Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)
MehrAufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen
Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden
MehrMaximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge)
Beispiel: Produktionsplanung Maximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge) Produktionskapazität Ressourcenmenge bei als fest angenommenem
Mehr3.2.5 Dualität der linearen Optimierung I
3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem
MehrKapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:
Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten
MehrFK WMS: Wirtschaftsmathematik 2, Einheit 7/8
FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 markus.sinnl@univie.ac.at http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.
MehrÜber- und unterbestimmte
Über- und unterbestimmte Systeme (verallgemeinerte Lösungen) Über- und unterbestimmte Systeme Ax = b ist genau dann für alle b R m eindeutig lösbar, wenn m = n und rk A = n. Falls m n oder rk A < min{m,
MehrOptimierung unter Nebenbedingungen
Optimierung unter Nebenbedingungen Kapitel 7: Optimierung unter Nebenbedingungen Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 1. Juli 2009 1 / 18 7.1 Bemerkung
Mehr(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung)
Lineare Optimierung Unterbestimmte LGS und Optimierung Bei lösbaren unterbestimmten linearen Gleichungssystemen haben wir die Qual der Wahl in Abhängigkeit von den freien Parametern (Anzahl = Anzahl Unbekannte
MehrOptimierungstheorie Scheinklausur Sommersemester Juli 2007
Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur
Mehr4.4 Quadratische Optimierungsprobleme
4.4 Quadratische Optimierungsprobleme 1. Quadratische Programme (QP) 1 2 xt P x + q T x + r s.t. Gx h (4.34) wobei P S n +, G R (m n) und A R (p n) Zielfunktion (ZF) ist (konvex) quadratisch Nebenbedingungen
Mehr7. Vorlesung. 21. November 2006 Guido Schäfer
LETZTE ÄNDERUNG: 21. NOVEMBER 2006 Vorlesung: Einführung in die Spieltheorie WS 2006/2007 7. Vorlesung 21. November 2006 Guido Schäfer Wenn die Latenzfunktionen (c e ) e E differenzierbar und schwach monoton
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
Mehr12. Trennungssätze für konvexe Mengen 83
12. Trennungssätze für konvexe Mengen 83 C_1 C_2 a Abbildung 12.4. Trennung konvexer Mengen durch eine Hyperebene mit Normalenvektor a Dann ist int(c) nicht leer (warum?) und [als Minkowski-Summe von C
Mehr3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)
3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände
MehrKAPITEL 10 DIE INNERE-PUNKTE-METHODE
KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach
MehrÜbungsblatt 6 Lösungsvorschläge
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 6 Lösungsvorschläge Vorlesung Algorithmentechnik im WS 09/10 Problem 1: Größter Kreis in konvexem Polygon [vgl. Kapitel 6
MehrMusterlösung der 1. Klausur zur Vorlesung
Prof. Dr. M. Röger Dipl.-Math. C. Zwilling Fakultät für Mathematik TU Dortmund Musterlösung der. Klausur zur Vorlesung Analysis II 6.7.6) Sommersemester 6 Aufgabe. i) Die Folge f n ) n N konvergiert genau
MehrGeometrische Interpretation
Geometrische Interpretation Stefanie Riedel 10. Mai 2010 1 Starke und schwache Dualität über Wertemengen Wir betrachten eine einfache geometrische Interpretation dualer Funktionen aus der Menge G: G =
MehrKonvexe Mengen und konvexe Funktionen
Technische Universität Dortmund Fakultät für Mathematik Lehrstuhl I: Analysis Ausarbeitung Analysis III Seminar Konvexe Mengen und konvexe Funktionen Name: Jessica Prang Datum: 14.04.2015 Seminarleiter:
MehrWirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg Beispiel: Graphische Darstellung Zulässigkeitsbereich Ungleichung (1) mit
Mehr10 Der Satz über implizite Funktionen und Umkehrfunktionen
Vorlesung SS 9 Analsis Prof. Dr. Siegfried Echterhoff SATZ ÜBER IMPLIZITE FKT UND UMKEHRFKT Der Satz über implizite Funktionen und Umkehrfunktionen Motivation: Sei F : U R R eine differenzierbare Funktion
MehrKontinuierliche Optimierung
Kontinuierliche Optimierung Markus Herrich Wintersemester 2018/19 ii Inhaltsverzeichnis 2 Optimalitäts- und Regularitätsbedingungen 1 2.1 Einleitung und Wiederholung.................... 1 2.2 Optimalitätsbedingungen
MehrSchnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005
Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung
Mehr10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen
10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie
MehrLösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =
Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls
MehrVORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung
MehrKonvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.
Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,
MehrAnwendungen der Differentialrechnung
KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle
MehrComputer Science Department - High Performance and Web Computing Group. Optimierungsprobleme
Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter
MehrWiederholung von Linearer Algebra und Differentialrechnung im R n
Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:
MehrTeil I. Lineare Optimierung
Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,
MehrMathematik für Informationsmanagement WiSe 2017/2018 Übungsblatt 9. Zur Bearbeitung in der Übung am 10./
Mathematik für Informationsmanagement WiSe 2017/2018 Übungsblatt 9 Zur Bearbeitung in der Übung am 10./11.01.2018 Vorlesung: Dr. Mark Steinhauer Übungen: Marco Böhm Mirjam Schön Thomas Senkowski Kevin
MehrÜbung 5, Analytische Optimierung
Übung 5, 5.7.2011 Analytische Optimierung Aufgabe 5.1 Bei der Herstellung von Konserven werden für Boden und Deckel bzw. für den Konservenmantel verschiedene Materialien verwendet, die g 1 = bzw. g 2 =
Mehr2 Extrema unter Nebenbedingungen
$Id: lagrange.tex,v 1.6 2012/11/06 14:26:21 hk Exp hk $ 2 Extrema unter Nebenbedingungen 2.1 Restringierte Optimierungsaufgaben Nachdem wir jetzt die bereits bekannten Techniken zur Bestimmung der lokalen
MehrGrundlagen der Optimierung. Übung 6
Technische Universität Chemnitz Chemnitz, 2. November 24 Prof. Dr. R. Herzog, J. Blechschmidt, A. Schäfer Abgabe am 28. November 24 Grundlagen der Optimierung Übung 6 Aufgabe 2: Verschiedene Verfahren
MehrMonotonie, Konkavität und Extrema
Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
MehrDer Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.
Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x
Mehr10. Übung zur Linearen Algebra I -
. Übung zur Linearen Algebra I - en Kommentare an Hannes.Klarner@FU-Berlin.de FU Berlin. WS 29-. Aufgabe 37 i Für welche α R besitzt das lineare Gleichungssystem 4 αx + αx 2 = 4x + α + 2x 2 = α genau eine,
MehrInhalt der Vorlesung. 1 Einführung 2 Konvexe Mengen 3 Konvexe Funktionen 4 Konvexe Optimierung 5 Lösungsverfahren (6 Anwendungen)
Inhalt der Vorlesung 1 Einführung 2 Konvexe Mengen 3 Konvexe Funktionen 4 Konvexe Optimierung 5 Lösungsverfahren (6 Anwendungen) 1 S-M. Grad - Optimierung II / Universität Leipzig, SS2018 Beispiel 1.1
MehrPropädeutik Klausur in Analysis für Wirtschaftswissenschaftler
Universität Mannheim SS 998 Dr. Matthias Blonski Propädeutik Klausur in Analysis für Wirtschaftsissenschaftler Man beachte folgende Hineise:. Die Klausur umfaßt 5 Aufgaben (jeeils auf einem Blatt) zuzüglich
MehrKlausurrepetitorium ABWL
Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches
MehrMathematik 1 für Wirtschaftsinformatik
Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg Berechnung von Eigenwerten und Eigenvektoren Mathematik 1 Bestimmung von Eigenwerten und Eigenvektoren Jedes λ, das det(a
MehrVORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max
MehrKlausur zu Analysis II - Lösungen
Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Dr. Axel Grünrock WS 1/11 11..11 Klausur zu Analysis II - Lösungen 1. Entscheiden Sie, ob die folgenden Aussagen richtig oder falsch sind.
MehrÜbung 3, Simplex-Algorithmus
Übung 3, 21.6.2011 Simplex-Algorithmus Aufgabe 3.1 Lösen Sie das folgende Optimierungsproblem (von Aufgabe 2.3) graphisch. Substituieren Sie dazu z = 5 y um ein 2-dimensionales Problem zu erhalten. Rechnung
MehrInhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung
8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen
MehrMathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018
(Analysis und lineare Algebra) im Sommersemester 2018 5. April 2018 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html
Mehrzul. Kurve g 1 C zul dθ (0) y = dϕ dθ (0) =
2. Grundlagen der nicht-linearen konvexen Optimierung 2.1. Die Karush-Kuhn-Tucker Bedingungen. Unser Basisproblem (NLO) sei geben durch min f(x) NLO g i (x) 0, i I = {1,..., m} x R n f, g i stetig differenzierbar.
MehrInhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1
Inhaltsverzeichnis 1 Inhaltsverzeichnis Innere-Punkte-Verfahren 3 1 Theoretische Grundlagen 3 1.1 Die KKT-Bedingungen........................... 3 1.2 Der zentrale Pfad.............................. 4
MehrTeil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v.
Teil I Lineare Algebra I Vorlesung Sommersemester 2 Olga Holtz MA 378 Sprechstunde Fr 4-6 und nv holtz@mathtu-berlinde Sadegh Jokar MA 373 Sprechstunde, Do 2-4 und nv jokar@mathtu-berlinde Kapitel 4 Der
MehrSerie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015
Analysis D-BAUG Dr. Cornelia Busch FS 05 Serie 4. Finden Sie die lokalen Extrema der Funktionen f : R R auf dem Einheitskreis S = {x, y R : x + y = } und geben Sie an, ob es sich um ein lokales Minimum
MehrF u n k t i o n e n Lineare Optimierung
F u n k t i o n e n Lineare Optimierung Das Simplex-Verfahren läuft die Ecken des Polyeders ab, bis es an einer Optimallösung angekommen ist. 1. Einführung Während des 2. Weltkrieges und in den darauf
MehrVorkurs Mathematik. Christoph Hindermann. Funktionen, Ableitungen und Optimierung
Kapitel 3 Funktionen, Ableitungen und Optimierung Christoph Hindermann Vorkurs Mathematik 1 Vorkurs Mathematik 2 3.1 Funktionen Motivation Funktionen reeller Veränderlicher gehören zu den wichtigsten Untersuchungs-
Mehr6. Vorlesung. Rechnen mit Matrizen.
6. Vorlesung. Rechnen mit Matrizen. In dieser Vorlesung betrachten wir lineare Gleichungs System. Wir betrachten lineare Gleichungs Systeme wieder von zwei Gesichtspunkten her: dem angewandten Gesichtspunkt
MehrProbeklausur Optimierung
Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften Dr. Nico Düvelmeyer Hamburg, 4. Juli 2011 Probeklausur Optimierung Bitte selber ausfüllen: Name: (darf anonymisiert werden)
MehrHöhere Mathematik für die Fachrichtung Physik
Karlsruher Institut für Technologie Institut für Analysis Dr. Christoph Schmoeger Michael Hott, M. Sc. WS 5/.. Höhere Mathematik für die Fachrichtung Physik Lösungsvorschläge zum 4. Übungsblatt Aufgabe
MehrOperations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.
Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme
MehrAusgewählte Lösungen zu den Übungsblättern 9-10
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt
MehrOutline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel
Outline 1 Funktionen von mehreren Veränderlichen 2 Grenzwert und Stetigkeit 3 Partielle Ableitungen 4 Die verallgemeinerte Kettenregel 5 Das totale Differential 6 Extremstellen Roman Wienands (Universität
Mehr1 Analytische Geometrie und Grundlagen
Mathematische Probleme, SS 208 Dienstag 0.4 $Id: vektor.tex,v.30 207/07/7 08:09:23 hk Exp hk $ Analytische Geometrie und Grundlagen In dieser Vorlesung wollen wir uns mit Fragen der sogenannten Elementargeometrie
MehrModelle und Methoden der Linearen Optimierung (Die Thesen zur Vorlesung 4)
Modelle und Methoden der Linearen Optimierung (Die Thesen zur Vorlesung 4) das Thema der Vorlesung Die Anwendung der Methoden der Mehrkriterienoptimierung bei der Lösung der ökonomischen Entscheidungsprobleme
MehrNICHTRESTRINGIERTE OPTIMIERUNG
3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene
MehrOptimierung I. Dr. Ulf Lorenz F2.413
Optimierung I Dr. Ulf Lorenz F2.413 flulo@upb.de Organisation Dozent: Dr. Ulf Lorenz F2.413 Fürstenallee 11 email: flulo@upb.de WWW: http://www.upb.de/cs/flulo (hier auch aktuelle Infos + Ü-Zettel) Vorlesungen:
MehrOptimierung mit Matlab
Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof. Dr. L. Cromme Optimierung mit Matlab 1 Optimierungsaufgaben Die allgemeine Aufgabenstellung der Optimierung besteht darin,
MehrLösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { }
Zur Einleitung: Lineare Gleichungssysteme Wir untersuchen zunächst mit Methoden, die Sie vermutlich aus der Schule kennen, explizit einige kleine lineare Gleichungssysteme. Das Gleichungssystem I wird
MehrÜbungen zur Vorlesung. Einführung in Dynamische Systeme. Musterlösungen zu Aufgabenblatt 1
Prof. Roland Gunesch Sommersemester 00 Übungen zur Vorlesung Einführung in Dnamische Ssteme Musterlösungen zu Aufgabenblatt Aufgabe : Sei A 0 4. a Bestimmen Sie für jeden Anfangswert 0 R das Verhalten
Mehr1 Einführung Gleichungen und 2 Unbekannte Gleichungen und 3 Unbekannte... 4
Wirtschaftswissenschaftliches Zentrum 3 Universität Basel Mathematik 2 Dr Thomas Zehrt Lineare Gleichungssysteme Inhaltsverzeichnis Einführung 2 2 Gleichungen und 2 Unbekannte 2 2 3 Gleichungen und 3 Unbekannte
MehrSeminar Optimierung - Approximation and fitting. Christian Bretzke
Seminar Optimierung - Approximation and fitting Christian Bretzke 1 Inhaltsverzeichnis 1 Norm Approximation 3 1.1 Verschiedene Interpretation.................................. 3 1.2 Gewichtete NAP........................................
MehrVorkurs: Mathematik für Informatiker
Vorkurs: Mathematik für Informatiker Teil 4 Wintersemester 2017/18 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2017 Steven Köhler Wintersemester 2017/18 Inhaltsverzeichnis Teil 1 Teil
MehrLineare Gleichungssysteme
Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare
MehrVorkurs: Mathematik für Informatiker
Vorkurs: Mathematik für Informatiker Teil 4 Wintersemester 2018/19 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2018 Steven Köhler Wintersemester 2018/19 Inhaltsverzeichnis Teil 1 Teil
MehrD-ITET Analysis II FS 13 Prof. Horst Knörrer. Musterlösung 1. 3xy 2 = 2 x 2. y y. 3 y y. 3 x v x + v = 2 3 v v.
D-ITET Analysis II FS 3 Prof. Horst Knörrer Musterlösung. a) Es gilt: dy d 3 + y 3 3y 3 y + y 3. Dies ist eine homogene Differentialgleichung, das heisst y hängt nur von y ab. Setze v : y y() v() y v +
MehrMusterlösung - Aufgabenblatt 7. Aufgabe 1
Musterlösung - Aufgabenblatt 7 Aufgabe Sei C R n eine nicht-leere abgeschlossene und konvexe Menge. Wir wollen zeigen, dass C als der Durchschnitt ihrer stützenden Halbräume dargestellt werden kann, d.h.
MehrDie Lagrange - duale Optimierungsaufgabe und ihre geometrische Interpretation
und ihre geometrische Interpretation Vortrag von Elisabeth Zschorlich 09.12.2008 Inhaltsverzeichnis 1 Die Lagrange - duale Optimierungsaufgabe 2 1.1 Einführung...................................... 2 1.2
Mehr