Optimierung in R. Michael Scholz

Größe: px
Ab Seite anzeigen:

Download "Optimierung in R. Michael Scholz"

Transkript

1 N Optimierung in R Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) Michael Scholz Institut für Statistik und Ökonometrie Georg-August-Universität Göttingen Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 1 / 27

2 : N 1 Lineare Programmierung () simplex solve 2 Nichtlineare Optimierung (N) optimize optim constroptim nlm Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 2 / 27

3 Lineare Programmierung N package: boot Befehl: simplex Die Funktion simplex optimiert lineare Funkionen a x unter den Nebenbedingungen A 1 x b 1, A 2 x b 2 und/oder A 3 x = b 3 sowie x 0. Example 1.1 (17.8, Beispiel 1) max 700x x 2 unter Matrixformulierung: 3x 1 + 5x x 1 + 3x x 1 + 2x x 1, x 2 0. max a x unter Ax b und x 0 mit ( ) a =, A = , b = Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 3 / 27

4 Die R-Funktion simplex N 1 > library(boot) 2 > A <- matrix( c(3, 5, 1, 3, 2, 2), nrow = 3, 3 > ncol = 2, byrow = TRUE) 4 > b <- c(3900, 2100, 2200) 5 > a <- c(700, 1000) 6 > simplex(a = a, A1 = A, b1 = b, maxi = TRUE) Lade Paket boot Matrix A Vektor b Koeff.vektor der Zielfkt. Funktionsaufruf Linear Programming Results Call : simplex(a = a, A1 = A1, b1 = b1, maxi = TRUE) Maximization Problem with Objective Function Coefficients x1 x Optimal solution has the following values x1 x The optimal value of the objective function is Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 4 / 27

5 Die R-Funktion simplex N Example 1.2 ( mit weiterer NB) 4x 1 + 5x 2 20 max 2x 1 + 7x 2 unter 3x 1 + 7x 2 21 x 1 + x 2 1 x 1, x 2 0. Matrixformulierung: max a x unter A 1 x b 1, A 2 x b 2 und x 0 mit ( ) ( ) ( ) a =, A 1 =, b 1 =, A 2 = ( ) 1 1, b 2 = ( ) Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 5 / 27

6 Die R-Funktion simplex N 1 > library(boot) 2 > A1 <- matrix( c(4, 5, 3, 7), nrow = 2, 3 > ncol = 2, byrow = TRUE) 4 > b1 <- c(20, 21) 5 > A2 <- matrix( c(1, 1), nrow = 1, 6 > ncol = 2, byrow = TRUE) 7 > b2 <- c(1) 8 > a <- c(2, 7) 9 > simplex(a = a, A1 = A1, b1 = b1, A2 = A2, 10 > b2 = b2, maxi = TRUE) kleiner-gleich NB größer-gleich NB Funktionsaufruf Linear Programming Results Call : simplex(a = a, A1 = A1, b1 = b1, A2 = A2, b2 = b2, maxi = TRUE) Maximization Problem with Objective Function Coefficients x1 x2 2 7 Optimal solution has the following values x1 x2 0 3 The optimal value of the objective function is 21. Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 6 / 27

7 Die R-Funktion simplex N Example 1.3 ( mit weiterer NB und Minimum) 4x 1 + 5x 2 20 min 2x 1 + 7x 2 unter 3x 1 + 7x 2 21 x 1, x 2 0. x 1 + x 2 = 1 Matrixformulierung: min a x unter A 1 x b 1, A 3 x = b 3 und x 0 mit ( ) ( ) ( ) a =, A 1 =, b 1 =, A 3 = ( ) 1 1, b 3 = ( ) Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 7 / 27

8 Die R-Funktion simplex N 1 > library(boot) 2 > A1 <- matrix( c(4, 5, 3, 7), nrow = 2, 3 > ncol = 2, byrow = TRUE) 4 > b1 <- c(20, 21) 5 > A3 <- matrix( c(1, 1), nrow = 1, 6 > ncol = 2, byrow = TRUE) 7 > b3 <- c(1) 8 > a <- c(2, 7) 9 > simplex(a = a, A1 = A1, b1 = b1, A3 = A3, 10 > b3 = b3) kleiner-gleich NB gleichheits NB Funktionsaufruf Linear Programming Results Call : simplex(a = a, A1 = A1, b1 = b1, A3 = A3, b3 = b3) Minimization Problem with Objective Function Coefficients x1 x2 2 7 Optimal solution has the following values x1 x2 1 0 The optimal value of the objective function is 2. Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 8 / 27

9 Die R-Funktion simplex N Nur für relativ kleine Systeme empfehlenswert. NB, wie x i b i > 0, sollten durch Einführen von x i := x i b i 0 im gesamten System ersetzt werden. (Rücktranfsformation nachdem Lösung gefunden wurde.) Duale Lösung nicht ablesbar. Keine Sensitivitätsanalyse. Zwei-Phasen Simplex-Verfahren, falls x = 0 nicht zum Zulässigen Bereich gehört, dann wird versucht eine zulässige Startlösung zu finden. Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 9 / 27

10 Die R-Funktion solve N package: linprog Befehl: solve Die Funktion solve optimiert lineare Funkionen a x unter den Nebenbedingungen Ax b sowie x 0. Example 1.4 (17.5.2) max 15x 1 +5x 2 5x 3 20x 4 unter x 1 + x 2 x 3 + x 4 1 6x 1 + x 2 + x 3 2x 4 2 x 1,..., x 4 0. Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 10 / 27

11 Die R-Funktion solve N Matrixformulierung: max a x unter Ax b und x 0 mit 15 ( ) ( ) a =, A =, b = > library( linprog) 2 > A <- matrix( c(1, 1, -1, 1, 6, 1, 1, -2), 3 > nrow = 2, ncol = 4, byrow = TRUE) 4 > b <- c(1, 2) 5 > a <- c(15, 5, -5, -20) 6 > solve(a, b, A, maximum = TRUE) Lade Paket linprog Matrix A Vektor b Koeff.vektor der Zielfkt. Funktionsaufruf Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 11 / 27

12 Die R-Funktion solve N Results of Linear Programming / Linear Optimization Objective function (Maximum): [1] 7 Iterations in phase 1: 0 Iterations in phase 2: 2 Basic Variables opt Constraints max actual diff dual price dual.reg All Variables (including slack variables) opt c min c max c marg. marg.reg NA NA NA NA Inf Inf S NA NA S NA NA Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 12 / 27

13 Die R-Funktion solve N Ausgabe von: optimaler Wert der Zielfkt. Anzahl Iterationen in Phase 1/2 Vektor der von Null verschiedenen Variablen im Optimum. Informationen über NB: 1. Spalte = b 2. Spalte = NB-Werte ( linke Seite ) im Optimum 3. Spalte = Differenz von Spalte 1 und 2 4. Spalte = duale Lösung (Schattenpreise) Resultate aller Variablen (inklusive Schlupfvariablen) 1. Spalte = Optimalwerte 2. Spalte = Koeffizienten der Zielfkt. 3. Spalte = Minimum von 2. Spalte, dass Lösung nicht ändert 4. Spalte = Maximum von 2. Spalte, dass Lösung nicht ändert 5. Spalte = Koeffizienten der Zielfuntion nach letzter Iteration Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 13 / 27

14 Die R-Funktion solve N 1 > res <- solve(a, b, A, maximum = TRUE) 2 > res$tab Abspeichern der Lösung Anzeigen des letzten Tableaus S 1 S 2 P Z-C Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 14 / 27

15 Die R-Funktion solve N Example 1.5 ( mit weiterer NB) 4x 1 + 5x 2 20 max 2x 1 + 7x 2 unter 3x 1 + 7x 2 21 x 1 + x 2 1 x 1, x 2 0. Matrixformulierung: max a x unter Ax b und x 0 mit ( ) a =, A = 3 7 7, b = > library( linprog) 2 > A <- matrix( c(4, 5, 3, 7, -1, -1), 3 > nrow = 3, ncol = 2, byrow = TRUE) 4 > b <- c(20, 21, -1) 5 > a <- c(2, 7) 6 > solve(a, b, A, maximum = TRUE) Lade Paket linprog Matrix A Vektor b Koeff.vektor der Zielfkt. Funktionsaufruf Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 15 / 27

16 Die R-Funktion solve Results of Linear Programming / Linear Optimization N Objective function (Maximum): [1] 21 Iterations in phase 1: 1 Iterations in phase 2: 2 Basic Variables opt 2 3 S 1 5 S 3 2 Constraints max actual diff dual price dual.reg All Variables (including slack variables) opt c min c max c marg. marg.reg Inf Inf NA NA S S NA NA S Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 16 / 27

17 Die R-Funktion solve N Letztes Tableau kann ausgegeben werden, d.h. Sensitivitätsanalyse möglich. Duale Lösung direkt ablesbar. Zwei-Phasen Simplex-Verfahren, falls x = 0 nicht zum Zulässigen Bereich gehört, dann wird versucht eine zulässige Startlösung zu finden. Keine Gleichheits-NB implementiert. Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 17 / 27

18 Nichtlineare Programmierung N package: stats Befehl: optimize Univariate Optimierung einer Fkt. f(x) in einem gegebenen Intervall [a, b]. Example 2.1 (8.2, Beispiel 2) min f(x) = e 2x 5e x + 4 im Intervall [ 3.0, 1.5] 1 > fkt <- function(x){ 2 > exp(2 * x) - 5 * exp(x) + 4} 3 > interval <- c(-3,1.5) 4 > optimize(fkt, interval) Definiere zu optimierende Funktion zu untersuchendes Intervall Funktionsaufruf $minimum [1] $objective [1] Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 18 / 27

19 Die R-Funktion optimize N Example 2.2 (8.4, Beispiel 2) max f(x) = 1 4 x4 5 6 x x2 1 im Intervall [ 1, 3] 1 > fkt <- function(x){ 1 / 4 * x ^ 4-2 > 5 / 6 * x ^ / 2 * x ^ 2-1} 3 > interval <- c(-1,3) 4 > optimize(fkt, interval, maximum = TRUE) Definiere zu optimierende Funktion zu untersuchendes Intervall Funktionsaufruf $maximum [1] $objective [1] ACHTUNG: Findet nicht den richtigen globalen MAX-Wert f(3) = 1.25, sondern hier nur lokales Maximum! Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 19 / 27

20 Nichtlineare Programmierung N package: stats Befehl: optim Multivariate Optimierung einer Fkt. f : R n R. Example 2.3 (13.1, Beispiel 1) max f(x, y) = 2x 2 2xy 2y x + 42y > fkt <- function(x){-2 * x[1]^2-2 * x[1] * x[2] 2 > -2 * x[2]^ * x[1] + 42 * x[2] - 158} 3 > optim(c(1,1), fkt, control = list( fnscale = -1)) Definiere zu optimierende Funktion Funktionsaufruf Benötigt werden Startpunkt, da iteratives Optimierungsverfahren, hier: x 0 = (1, 1) zu optimierende Funktion falls maximiert werden soll, explizite Angabe: control = list(fnscale = -1) Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 20 / 27

21 Die R-Funktion optim N Ausgabe: Optimalpunkt Funktionswert im Optimalpunkt Anzahl der Funktionsaufrufe Status-Information (0 = Erfolg, 1 = max. Anzahl Iterationen,... ) zusätzliche Informationen $par [1] $value [1] 100 $counts function gradient 87 NA $convergence [1] 0 $message NULL Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 21 / 27

22 Die R-Funktion optim N weitere Optionen: Angabe des Gradienten (wenn nötig) Auswahl verschiedener Verfahren (z. B. CG, BFGS, Nelder-Mead) Ausgabe der Hesse-Matrix 1 > gr <- function(x){c(-4 * x[1] - 2 * x[2] + 36, 2 > -2 * x[1] - 4 * x[2] + 42)} 3 > res <- optim(c(1,1), fkt, gr, method = "CG", 4 > control = list( fnscale = -1), 5 > hessian = TRUE) 6 > res$ hessian Definiere Gradienten Funktionsaufruf Aufruf der Hesse-Matrix [,1] [,2] [1,] -4-2 [2,] > eigen(res$ hessian) Eigenwerte und Vektoren $values [1] -2-6 $vectors [,1] [,2] [1,] [2,] Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 22 / 27

23 Die R-Funktion constroptim N package: stats Befehl: constroptim Minimierung einer Fkt. f : R n R unter linearen Ungleichheitsnebenbedingungen der Form Ax b. Example 2.4 (14.8, Beispiel 2) max f(x, y) = x + y unter 3x + 5y 10 1 > fkt <- function(x){sqrt(x[1]) + sqrt(x[2])} 2 > A <- matrix(c(-3,-5), nrow = 1, ncol = 2, 3 > byrow = TRUE) 4 > b <- c(-10) 5 > constroptim(c(1,1), fkt, NULL, ui = A, ci = b, 6 > control = list( fnscale = -1)) Funktion Matrix A rechte Seite b Funktionsaufruf Benötigt werden: Startpunkt (muss im Inneren des zul. Bereichs liegen), Funktion, Gradient (kann NULL gesetzt werden), Nebenbedingungungen, Info für Maximierung Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 23 / 27

24 Die R-Funktion constroptim N Ausgabe analog zu optim $par [1] $value [1] $counts function gradient 81 NA $convergence [1] 0 $message NULL $outer.iterations [1] 1 $barrier.value [1] Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 24 / 27

25 Die R-Funktion nlm N package: stats Befehl: nlm Minimierung einer Fkt. f : R n R mittels line-search (Algorithmus vom Newton-Typ). Example 2.5 (13.1, Beispiel 1) min f(x, y) = 2x 2 + 2xy 2y 2 36x 42y > fkt <- function(x){-1 * (-2 * x[1]^2-2 * 2 > x[1] * x[2] -2 * x[2]^ * x[1] + 3 > 42 * x[2] - 158)} 4 > nlm(fkt, c(1,1)) Benötigt werden Definiere zu minimierende Funktion Funktionsaufruf Startpunkt, da iteratives Optimierungsverfahren, hier: x 0 = (1, 1) zu optimierende Funktion Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 25 / 27

26 Die R-Funktion nlm N Ausgabe: Funktionswert im Minimum Optimalpunkt Gradient der Lösung Status-Information (1 = Gradient in der Nähe von Null,... ) Anzahl Iterationen $minimum [1] -100 $estimate [1] $gradient [1] e e-09 $code [1] 1 $iterations [1] 3 Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 26 / 27

27 Die R-Funktion nlm N weitere Optionen: Angabe des Gradienten Ausgabe der Hesse-Matrix 1 > gr <- function(x){c(4 * x[1] + 2 * x[2] - 36, 2 > 2 * x[1] + 4 * x[2] - 42)} 3 > res <- nlm(fkt, c(1,1), gr, hessian = TRUE) 4 > res$ hessian Definiere Gradienten Funktionsaufruf Aufruf der Hesse-Matrix [,1] [,2] [1,] [2,] > eigen(res$ hessian)$ values Eigenwerte [1] 6 2 Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 27 / 27

Die MATLAB-Funktionen (Beschreibung : Siehe MATLAB-Hilfen)

Die MATLAB-Funktionen (Beschreibung : Siehe MATLAB-Hilfen) Fachbereich Grundlagenwissenschaften Prof. Dr. H. Dathe Numerische Mathematik/Optimierung Eine Einführung in Theorie und Verfahren Die MATLAB-Funktionen (Beschreibung : Siehe MATLAB-Hilfen) linprog Lineare

Mehr

Hochschule RheinMain SS 2018 Prof. Dr. D. Lehmann. Lösungen 11. Übungsblatt Lineare Optimierung

Hochschule RheinMain SS 2018 Prof. Dr. D. Lehmann. Lösungen 11. Übungsblatt Lineare Optimierung Hochschule RheinMain SS 2018 Prof. Dr. D. Lehmann Lösungen 11. Übungsblatt Lineare Optimierung 1.Aufgabe: a) Phase-I-Methode: Wir betrachten das Hilfs-LOP unter den Nebenbedingungen HF (v 1, v 2 ) = HF

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Operations Research für Logistik

Operations Research für Logistik Operations Research für Logistik Lineare Optimierung (170.202) Ao. Univ. - Prof. Norbert SEIFTER Dipl. - Ing. Stefanie VOLLAND Sommersemester 2012 Lehrstuhl Industrielogistik Lineare Optimierung Inhalte:

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

Innere-Punkt-Methoden

Innere-Punkt-Methoden Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction

Mehr

Optimierung mit Matlab

Optimierung mit Matlab Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof. Dr. L. Cromme Optimierung mit Matlab 1 Optimierungsaufgaben Die allgemeine Aufgabenstellung der Optimierung besteht darin,

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005 Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag

Mehr

3.2.5 Dualität der linearen Optimierung I

3.2.5 Dualität der linearen Optimierung I 3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem

Mehr

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter

Mehr

12. Potentialflächen und Optimierung

12. Potentialflächen und Optimierung Dr. Jens Döbler Computeranwendung in der Chemie Informatik für Chemiker(innen) 12. Potentialflächen und Optimierung Jens Döbler 2004 "Computer in der Chemie", WS 2003-04, Humboldt-Universität VL12 Folie

Mehr

Dipl.-Math. Robert Offinger Wintersemester 2006/07 Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik

Dipl.-Math. Robert Offinger Wintersemester 2006/07 Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Dipl.-Math. Robert Offinger Wintersemester 6/7 Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Materialien zur Vorlesung Mathematik III für Ingenieure Ergänzungen zur Einführung in Matlab

Mehr

14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert

14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert 14 Optimierung unter Nebenbedingungen 14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert [1] Lösen sie die folgenden Probleme, indem Sie diese auf ein univariates Problem zurückführen. Zeigen

Mehr

Inhaltsverzeichnis Grundlagen der Linearen Optimierung

Inhaltsverzeichnis Grundlagen der Linearen Optimierung Inhaltsverzeichnis 4 Grundlagen der Linearen Optimierung 1 4.1 Grundbegriffe............................. 1 4.1.1 Lineare Optimierung..................... 1 4.1.2 Das Grundmodell eines linearen Optimierungsproblems

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind

Mehr

Die Tangentialebene. {(x, y, z) z = f(x 0, y 0 )+ f x (x 0, y 0 )(x x 0 )+ f. y (x 0, y 0 )(y y 0 )}

Die Tangentialebene. {(x, y, z) z = f(x 0, y 0 )+ f x (x 0, y 0 )(x x 0 )+ f. y (x 0, y 0 )(y y 0 )} Die Tangentialebene Der Graph der linearen Approximation ist Tangentialebene an den Graph der Funktion. In Symbolen: Es sei D R 2. Es sei f : D R, (x, y) f(x, y) differenzierbar. Dann ist {(x, y, z) z

Mehr

Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn Optimierung Vorlesung 5 Optimierung mit Nebenbedingungen 1 Minimierung mit Gleichheitsrestriktionen Gegeben: Funktion,,,, : Ziel:,,, Unrestringierter Fall: Notwendige Bedingung für lokales Minimum keine

Mehr

Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung

Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen Kapitel IV: Grundlagen der Linearen Optimierung Inhaltsverzeichnis Abschnitt 3-5 3 Der Simplexalgorithmus 58 3.1 Grundlagen..............................

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max

Mehr

4.3.3 Simplexiteration

4.3.3 Simplexiteration 7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige

Mehr

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2 Kapitel 12 Lagrange-Funktion Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28 Optimierung unter Nebenbedingungen Aufgabe: Berechne die Extrema der Funktion unter der Nebenbedingung

Mehr

Lineare Optimierung Teil 2

Lineare Optimierung Teil 2 Lineare Optimierung Teil 2 Primale Degeneration Duale Degeneration = Mehrdeutigkeit Normalform kanonische Form Duale Simplexmethode HTW-Berlin FB3 Prof. Dr.F. Hartl 1 Primale Degeneration/1 Besitzt eine

Mehr

Extrema multivariater Funktionen

Extrema multivariater Funktionen Extrema multivariater Funktionen Ist f (x ) ein Minimum (Maximum) einer stetig differenzierbaren skalaren Funktion f auf einer Umgebung U von x, so gilt grad f (x ) = (0,..., 0) t. Extrema multivariater

Mehr

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,

Mehr

Übung 3, Simplex-Algorithmus

Übung 3, Simplex-Algorithmus Übung 3, 21.6.2011 Simplex-Algorithmus Aufgabe 3.1 Lösen Sie das folgende Optimierungsproblem (von Aufgabe 2.3) graphisch. Substituieren Sie dazu z = 5 y um ein 2-dimensionales Problem zu erhalten. Rechnung

Mehr

MATLAB Optimization Toolbox Inhaltsverzeichnis

MATLAB Optimization Toolbox Inhaltsverzeichnis Inhaltsverzeichnis Inhaltsverzeichnis 0 Deckblatt: Optimization Toolbox 1 Was ist Optimierung? 2 Behandelte Themen der Optimization TB 3 Darstellung der Funktionen in Matlab 4 Inline Objects 5 Algorithmensteuerung

Mehr

Optimierung. Vorlesung 02

Optimierung. Vorlesung 02 Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j

Mehr

Einführung in Softwaretools zur Nichtlinearen Optimierung

Einführung in Softwaretools zur Nichtlinearen Optimierung Einführung in Softwaretools zur Nichtlinearen Optimierung 3. April 2017 5. April 2017 Sebastian Garreis, M. Sc. (hons) Johannes Haubner, M. Sc. Technische Universität München Fakultät für Mathematik Lehrstuhl

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)

Mehr

Multivariate Analysis

Multivariate Analysis Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle

Mehr

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Das Nelder Mead Verfahren Sei f : R n R eine (nicht

Mehr

1 Kodierung kategorialer Einflussgrößen

1 Kodierung kategorialer Einflussgrößen Übung zur Vorlesung Generalisierte Regressionsmodelle Blatt 1 Christiane Fuchs, Moritz Berger, Micha Schneider WiSe 16/17 1 Kodierung kategorialer Einflussgrößen Lösung zu Aufgabe 3 Einlesen der Daten:

Mehr

Optimierung Einführung in Computational Management Science. Prof. Dietmar Maringer FS WWZ, Universität Basel

Optimierung Einführung in Computational Management Science. Prof. Dietmar Maringer FS WWZ, Universität Basel Optimierung 21275-01 Einführung in Computational Management Science Prof. Dietmar Maringer WWZ, Universität Basel FS 2012 D Maringer, 21275-01 Einführung in Computational Management Science Optimierung

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur

Mehr

Inhalt. Problemstellung und Überblick. Allgemeine Problemstellung und Terminologie. Überblick über spezielle Klassen von Optimierungsproblemen

Inhalt. Problemstellung und Überblick. Allgemeine Problemstellung und Terminologie. Überblick über spezielle Klassen von Optimierungsproblemen Inhalt Problemstellung und Überblick Allgemeine Problemstellung und Terminologie Überblick über spezielle Klassen von Optimierungsproblemen 40: 40 [40,40] 2.1 Das Optimierungsproblem in allgemeiner Form

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09 ................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 Obige Angaben sind richtig: Unterschrift der Kandidatin/des Kandidaten 3 TECHNISCHE UNIVERSITÄT

Mehr

Optimierungstheorie Scheinklausur Sommersemester Juli 2007

Optimierungstheorie Scheinklausur Sommersemester Juli 2007 Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur

Mehr

Rechnerpraktikum zur Nichtlinearen Optimierung

Rechnerpraktikum zur Nichtlinearen Optimierung Rechnerpraktikum zur Nichtlinearen Optimierung 9. März 2016 11. März 2016 Sebastian Garreis, B. Sc. Philipp Jarde, M. Sc. Technische Universität München Fakultät für Mathematik Lehrstuhl für Mathematische

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel

Mehr

Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung

Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung TU Bergakademie Freiberg Sommersemester Dr. Gunter Semmler Dr. Anja Kohl Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung Differentialrechnung für Funktionen

Mehr

Inhaltsübersicht für heute:

Inhaltsübersicht für heute: Inhaltsübersicht für heute: Dualität Anwendung: Spieltheorie Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann? Inhaltsübersicht für heute: Dualität

Mehr

Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung

Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung 18.3.14-20.3.14 Dr. Florian Lindemann Moritz Keuthen, M.Sc. Technische Universität München Garching, 19.3.2014 Kursplan Dienstag, 18.3.2014

Mehr

Wertetabelle für eine Gleichung

Wertetabelle für eine Gleichung 1 Wertetabelle für eine Gleichung Wie läßt sich für eine gegebene Gleichung eine Wertetabelle erstellen? - um die Daten zu exportieren - um die Daten in einem Plot darzustellen Wir betrachten diese SigmaPlot-Funktionen

Mehr

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h. Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,

Mehr

Teil 6. Differentialrechnung mehrerer Veränderlicher

Teil 6. Differentialrechnung mehrerer Veränderlicher Teil 6 Differentialrechnung mehrerer Veränderlicher 95 96 6.1 Topologie von Mengen Umgebung ε-umgebung eines Punktes x R n : B ε (x) = {y : y x < ε} Umgebung U von x: Menge, die eine ε-umgebung von x enthält

Mehr

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp Optimal-trennende Hyperebenen und die Support Vector Machine Volker Tresp 1 (Vapnik s) Optimal-trennende Hyperebenen (Optimal Separating Hyperplanes) Wir betrachten wieder einen linearen Klassifikator

Mehr

KAPITEL 10 DIE INNERE-PUNKTE-METHODE

KAPITEL 10 DIE INNERE-PUNKTE-METHODE KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach

Mehr

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung 8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen

Mehr

Lagrange-Multiplikatoren

Lagrange-Multiplikatoren Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i

Mehr

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. Aufgabe 1. Zeigen Sie, dass für alle k, n N gilt: 6 Punkte

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. Aufgabe 1. Zeigen Sie, dass für alle k, n N gilt: 6 Punkte Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL4 6 Punkte Aufgabe. Zeigen Sie, dass für alle k, n N gilt: (k + ) teilt ((k + ) n ). Wir zeigen Sie Behauptung per Induktion

Mehr

Modulprüfung Numerische Mathematik 1

Modulprüfung Numerische Mathematik 1 Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel

Mehr

Kuhn-Tucker Bedingung

Kuhn-Tucker Bedingung Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,

Mehr

Rechnerpraktikum zur Optimierung III

Rechnerpraktikum zur Optimierung III TU München Lehrstuhl Mathematische Optimierung Prof. Dr. M. Ulbrich Dipl.-Math. Florian Lindemann Sommersemester 007 Teil II Rechnerpraktikum zur Optimierung III Für die Bearbeitung des Aufgabenzettels

Mehr

Einführung in Python Teil II Bibliotheken für wissenschaftliches Rechnen

Einführung in Python Teil II Bibliotheken für wissenschaftliches Rechnen Einführung in Python Teil II Bibliotheken für wissenschaftliches Rechnen Valentin Flunkert Institut für Theoretische Physik Technische Universität Berlin Fr. 28.5.2010 Nichtlineare Dynamik und Kontrolle

Mehr

Eine Einführung in R: Grundlagen I

Eine Einführung in R: Grundlagen I Eine Einführung in R: Grundlagen I Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig http://www.uni-leipzig.de/ zuber/teaching/ws11/r-kurs/

Mehr

Optimierung 1 Zwischenklausur

Optimierung 1 Zwischenklausur Optimierung Zwischenlausur Tobias Breiten und Laurent Pfeiffer, Universität Graz 8. Mai 8 Lösung der Aufgabe. Wir führen Schlupfvariablen ein (positiv und negativ), um das Problem auf Standardform zu bringen

Mehr

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle

Mehr

Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1)

Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Anna Raaz 21.12.2007 Einführung Die Relaxierung von Lagrange wird in der stochastischen Optimierung meistens

Mehr

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 = Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls

Mehr

Tipps zur Anwendung des Excel-Solvers. Vom Solver verwendete Algorithmen und Methoden

Tipps zur Anwendung des Excel-Solvers. Vom Solver verwendete Algorithmen und Methoden Installieren und Laden von Solver 1. Klicken Sie im Menü Extras auf Add-Ins-Manager. Wenn Solver nicht im Dialogfeld Add-Ins-Manager aufgeführt wird, führen Sie Setup erneut aus, und vergewissern Sie sich,

Mehr

Fortgeschrittene Ökonometrie: Maximum Likelihood

Fortgeschrittene Ökonometrie: Maximum Likelihood Universität Regensburg, Lehrstuhl für Ökonometrie Sommersemester 202 Fortgeschrittene Ökonometrie: Maximum Likelihood Poissonverteilung Man betrachte die poisson-verteilten Zufallsvariablen y t, t =, 2,...,

Mehr

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen 10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie

Mehr

Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) =

Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) = Karlsruher Institut für Technologie (KIT Institut für Analysis Priv-Doz Dr P C Kunstmann Dipl-Math D Roth SS 0 7060 Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8 Übungsblatt

Mehr

Lineare Algebra mit dem Statistikprogramm R

Lineare Algebra mit dem Statistikprogramm R SEITE 1 Lineare Algebra mit dem Statistikprogramm R 1. Verwendung von Variablen Variablen werden in R definiert, indem man einem Variablennamen einen Wert zuweist. Bei Variablennamen wird zwischen Groß

Mehr

Programmieren mit statistischer Software

Programmieren mit statistischer Software Programmieren mit statistischer Software Eva Endres, M.Sc. Institut für Statistik Ludwig-Maximilians-Universität München Vektorwertiges Programmieren Programmieren ohne explizite Schleife I Vektorisierung

Mehr

Probeklausur Optimierung

Probeklausur Optimierung Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften Dr. Nico Düvelmeyer Hamburg, 4. Juli 2011 Probeklausur Optimierung Bitte selber ausfüllen: Name: (darf anonymisiert werden)

Mehr

1 Umkehrfunktionen und implizite Funktionen

1 Umkehrfunktionen und implizite Funktionen Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

Eine Einführung in R: Grundlagen I

Eine Einführung in R: Grundlagen I Eine Einführung in R: Grundlagen I Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 14. Oktober 2009 Bernd Klaus, Verena Zuber Grundlagen

Mehr

Lösung allgemeiner linearer Programme

Lösung allgemeiner linearer Programme Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

Klaus Schliep. 16. Februar 2004

Klaus Schliep. 16. Februar 2004 Einführung in R Klaus Schliep 16. Februar 2004 Allgemeines R besteht ausschließlich aus Objekten. Die meisten Objekte sind entweder Daten oder Funktionen. Alle Funktionen werden mit runden Klammern geschrieben,

Mehr

Nichtlineare Gleichungen, mehrere Unbekannte

Nichtlineare Gleichungen, mehrere Unbekannte Dritte Vorlesung, 6. März 2008, Inhalt Aufarbeiten von Themen der letzten Vorlesung, und Nichtlineare Gleichungen, mehrere Unbekannte Systeme nichtlinearer Gleichungen Vektor- und Matrixnormen Fixpunkt-Iteration,

Mehr

Kuhn-Tucker-Bedingung

Kuhn-Tucker-Bedingung Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann

Mehr

Optimale Steuerung 1

Optimale Steuerung 1 Optimale Steuerung 1 Kapitel 7: Nichtlineare Optimierung beschränkter Probleme Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Optimierungsprobleme mit Nebenbedingungen: Allgemeine

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrange.tex,v 1.6 2012/11/06 14:26:21 hk Exp hk $ 2 Extrema unter Nebenbedingungen 2.1 Restringierte Optimierungsaufgaben Nachdem wir jetzt die bereits bekannten Techniken zur Bestimmung der lokalen

Mehr

2. Optimierungsprobleme 6

2. Optimierungsprobleme 6 6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen

Mehr

UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl. Sommersemester 2009

UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl. Sommersemester 2009 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz Dr P C Kunstmann Dipl-Math M Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive Komplexe

Mehr

Optimalitätsbedingungen

Optimalitätsbedingungen Optimalitätsbedingungen Nadja Irmscher 28. Mai 2010 1 Nachweis von Suboptimalität und Abbruchkriterien Über das gegebene Programm minimiere f 0 (x) über x D sodass f i (x) 0, i = 1,..., m h i (x) = 0,

Mehr

Optimale Steuerung 1

Optimale Steuerung 1 Optimale Steuerung 1 Kapitel 6: Nichtlineare Optimierung unbeschränkter Probleme Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Parameteranpassung für Phasengleichgewicht

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

Eigenschaften von LPs

Eigenschaften von LPs 2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört

Mehr

Inhaltsübersicht für heute:

Inhaltsübersicht für heute: Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen Relaxation Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen

Mehr

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

Kuhn-Tucker-Bedingung

Kuhn-Tucker-Bedingung Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann

Mehr

Mathematik für Ökonomen L i n e a r e A l g e b r a (Sommersemester 2006)

Mathematik für Ökonomen L i n e a r e A l g e b r a (Sommersemester 2006) RUHR - UNIVERSITÄT BOCHUM Fakultät für Wirtschaftswissenschaft KLAUSUR Mathematik für Ökonomen L i n e a r e A l g e b r a 19.5.2006 (Sommersemester 2006) Name Vorname Teilnehmer-Nr. Unterschrift Zur Beachtung

Mehr

Programmieren mit statistischer Software

Programmieren mit statistischer Software Programmieren mit statistischer Software Eva Endres, M.Sc. Institut für Statistik Ludwig-Maximilians-Universität München Funktionen Definition von Funktionen I Eine Funktion hat einen Namen benötigt Argumente

Mehr

Lineare Klassifikatoren. Volker Tresp

Lineare Klassifikatoren. Volker Tresp Lineare Klassifikatoren Volker Tresp 1 Einführung Lineare Klassifikatoren trennen Klassen durch eine lineare Hyperebene (genauer: affine Menge) In hochdimensionalen Problemen trennt schon eine lineare

Mehr

18.2 Implizit definierte Funktionen

18.2 Implizit definierte Funktionen 18.2 Implizit definierte Funktionen Ziel: Untersuche Lösungsmengen von nichtlinearen Gleichungssystemen g(x) = 0 mit g : D R m, D R n, d.h. betrachte m Gleichungen für n Unbekannte mit m < n, d.h. wir

Mehr

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006 Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden

Mehr

Lineare Optimierung. Volker Kaibel Fakultät für Mathematik Institut für Mathematische Optimierung Otto-von-Guericke Universität Magdeburg

Lineare Optimierung. Volker Kaibel Fakultät für Mathematik Institut für Mathematische Optimierung Otto-von-Guericke Universität Magdeburg Lineare Optimierung Volker Kaibel Fakultät für Mathematik Institut für Mathematische Optimierung Otto-von-Guericke Universität Magdeburg VL 1: Einführung 10. April 2007 Überblick Optimierung unter Nebenbedingungen

Mehr

Grundlagen der Programmierung in C Funktionen

Grundlagen der Programmierung in C Funktionen Der erste Mechanismus für Code-Reuse! Grundlagen der Programmierung in C Funktionen Wintersemester 2005/2006 G. Zachmann Clausthal University, Germany zach@in.tu-clausthal.de Ältester Mechanismus für Code-Reuse:

Mehr