Optimierung in R. Michael Scholz
|
|
- Hans Böhm
- vor 7 Jahren
- Abrufe
Transkript
1 N Optimierung in R Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) Michael Scholz Institut für Statistik und Ökonometrie Georg-August-Universität Göttingen Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 1 / 27
2 : N 1 Lineare Programmierung () simplex solve 2 Nichtlineare Optimierung (N) optimize optim constroptim nlm Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 2 / 27
3 Lineare Programmierung N package: boot Befehl: simplex Die Funktion simplex optimiert lineare Funkionen a x unter den Nebenbedingungen A 1 x b 1, A 2 x b 2 und/oder A 3 x = b 3 sowie x 0. Example 1.1 (17.8, Beispiel 1) max 700x x 2 unter Matrixformulierung: 3x 1 + 5x x 1 + 3x x 1 + 2x x 1, x 2 0. max a x unter Ax b und x 0 mit ( ) a =, A = , b = Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 3 / 27
4 Die R-Funktion simplex N 1 > library(boot) 2 > A <- matrix( c(3, 5, 1, 3, 2, 2), nrow = 3, 3 > ncol = 2, byrow = TRUE) 4 > b <- c(3900, 2100, 2200) 5 > a <- c(700, 1000) 6 > simplex(a = a, A1 = A, b1 = b, maxi = TRUE) Lade Paket boot Matrix A Vektor b Koeff.vektor der Zielfkt. Funktionsaufruf Linear Programming Results Call : simplex(a = a, A1 = A1, b1 = b1, maxi = TRUE) Maximization Problem with Objective Function Coefficients x1 x Optimal solution has the following values x1 x The optimal value of the objective function is Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 4 / 27
5 Die R-Funktion simplex N Example 1.2 ( mit weiterer NB) 4x 1 + 5x 2 20 max 2x 1 + 7x 2 unter 3x 1 + 7x 2 21 x 1 + x 2 1 x 1, x 2 0. Matrixformulierung: max a x unter A 1 x b 1, A 2 x b 2 und x 0 mit ( ) ( ) ( ) a =, A 1 =, b 1 =, A 2 = ( ) 1 1, b 2 = ( ) Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 5 / 27
6 Die R-Funktion simplex N 1 > library(boot) 2 > A1 <- matrix( c(4, 5, 3, 7), nrow = 2, 3 > ncol = 2, byrow = TRUE) 4 > b1 <- c(20, 21) 5 > A2 <- matrix( c(1, 1), nrow = 1, 6 > ncol = 2, byrow = TRUE) 7 > b2 <- c(1) 8 > a <- c(2, 7) 9 > simplex(a = a, A1 = A1, b1 = b1, A2 = A2, 10 > b2 = b2, maxi = TRUE) kleiner-gleich NB größer-gleich NB Funktionsaufruf Linear Programming Results Call : simplex(a = a, A1 = A1, b1 = b1, A2 = A2, b2 = b2, maxi = TRUE) Maximization Problem with Objective Function Coefficients x1 x2 2 7 Optimal solution has the following values x1 x2 0 3 The optimal value of the objective function is 21. Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 6 / 27
7 Die R-Funktion simplex N Example 1.3 ( mit weiterer NB und Minimum) 4x 1 + 5x 2 20 min 2x 1 + 7x 2 unter 3x 1 + 7x 2 21 x 1, x 2 0. x 1 + x 2 = 1 Matrixformulierung: min a x unter A 1 x b 1, A 3 x = b 3 und x 0 mit ( ) ( ) ( ) a =, A 1 =, b 1 =, A 3 = ( ) 1 1, b 3 = ( ) Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 7 / 27
8 Die R-Funktion simplex N 1 > library(boot) 2 > A1 <- matrix( c(4, 5, 3, 7), nrow = 2, 3 > ncol = 2, byrow = TRUE) 4 > b1 <- c(20, 21) 5 > A3 <- matrix( c(1, 1), nrow = 1, 6 > ncol = 2, byrow = TRUE) 7 > b3 <- c(1) 8 > a <- c(2, 7) 9 > simplex(a = a, A1 = A1, b1 = b1, A3 = A3, 10 > b3 = b3) kleiner-gleich NB gleichheits NB Funktionsaufruf Linear Programming Results Call : simplex(a = a, A1 = A1, b1 = b1, A3 = A3, b3 = b3) Minimization Problem with Objective Function Coefficients x1 x2 2 7 Optimal solution has the following values x1 x2 1 0 The optimal value of the objective function is 2. Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 8 / 27
9 Die R-Funktion simplex N Nur für relativ kleine Systeme empfehlenswert. NB, wie x i b i > 0, sollten durch Einführen von x i := x i b i 0 im gesamten System ersetzt werden. (Rücktranfsformation nachdem Lösung gefunden wurde.) Duale Lösung nicht ablesbar. Keine Sensitivitätsanalyse. Zwei-Phasen Simplex-Verfahren, falls x = 0 nicht zum Zulässigen Bereich gehört, dann wird versucht eine zulässige Startlösung zu finden. Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 9 / 27
10 Die R-Funktion solve N package: linprog Befehl: solve Die Funktion solve optimiert lineare Funkionen a x unter den Nebenbedingungen Ax b sowie x 0. Example 1.4 (17.5.2) max 15x 1 +5x 2 5x 3 20x 4 unter x 1 + x 2 x 3 + x 4 1 6x 1 + x 2 + x 3 2x 4 2 x 1,..., x 4 0. Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 10 / 27
11 Die R-Funktion solve N Matrixformulierung: max a x unter Ax b und x 0 mit 15 ( ) ( ) a =, A =, b = > library( linprog) 2 > A <- matrix( c(1, 1, -1, 1, 6, 1, 1, -2), 3 > nrow = 2, ncol = 4, byrow = TRUE) 4 > b <- c(1, 2) 5 > a <- c(15, 5, -5, -20) 6 > solve(a, b, A, maximum = TRUE) Lade Paket linprog Matrix A Vektor b Koeff.vektor der Zielfkt. Funktionsaufruf Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 11 / 27
12 Die R-Funktion solve N Results of Linear Programming / Linear Optimization Objective function (Maximum): [1] 7 Iterations in phase 1: 0 Iterations in phase 2: 2 Basic Variables opt Constraints max actual diff dual price dual.reg All Variables (including slack variables) opt c min c max c marg. marg.reg NA NA NA NA Inf Inf S NA NA S NA NA Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 12 / 27
13 Die R-Funktion solve N Ausgabe von: optimaler Wert der Zielfkt. Anzahl Iterationen in Phase 1/2 Vektor der von Null verschiedenen Variablen im Optimum. Informationen über NB: 1. Spalte = b 2. Spalte = NB-Werte ( linke Seite ) im Optimum 3. Spalte = Differenz von Spalte 1 und 2 4. Spalte = duale Lösung (Schattenpreise) Resultate aller Variablen (inklusive Schlupfvariablen) 1. Spalte = Optimalwerte 2. Spalte = Koeffizienten der Zielfkt. 3. Spalte = Minimum von 2. Spalte, dass Lösung nicht ändert 4. Spalte = Maximum von 2. Spalte, dass Lösung nicht ändert 5. Spalte = Koeffizienten der Zielfuntion nach letzter Iteration Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 13 / 27
14 Die R-Funktion solve N 1 > res <- solve(a, b, A, maximum = TRUE) 2 > res$tab Abspeichern der Lösung Anzeigen des letzten Tableaus S 1 S 2 P Z-C Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 14 / 27
15 Die R-Funktion solve N Example 1.5 ( mit weiterer NB) 4x 1 + 5x 2 20 max 2x 1 + 7x 2 unter 3x 1 + 7x 2 21 x 1 + x 2 1 x 1, x 2 0. Matrixformulierung: max a x unter Ax b und x 0 mit ( ) a =, A = 3 7 7, b = > library( linprog) 2 > A <- matrix( c(4, 5, 3, 7, -1, -1), 3 > nrow = 3, ncol = 2, byrow = TRUE) 4 > b <- c(20, 21, -1) 5 > a <- c(2, 7) 6 > solve(a, b, A, maximum = TRUE) Lade Paket linprog Matrix A Vektor b Koeff.vektor der Zielfkt. Funktionsaufruf Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 15 / 27
16 Die R-Funktion solve Results of Linear Programming / Linear Optimization N Objective function (Maximum): [1] 21 Iterations in phase 1: 1 Iterations in phase 2: 2 Basic Variables opt 2 3 S 1 5 S 3 2 Constraints max actual diff dual price dual.reg All Variables (including slack variables) opt c min c max c marg. marg.reg Inf Inf NA NA S S NA NA S Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 16 / 27
17 Die R-Funktion solve N Letztes Tableau kann ausgegeben werden, d.h. Sensitivitätsanalyse möglich. Duale Lösung direkt ablesbar. Zwei-Phasen Simplex-Verfahren, falls x = 0 nicht zum Zulässigen Bereich gehört, dann wird versucht eine zulässige Startlösung zu finden. Keine Gleichheits-NB implementiert. Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 17 / 27
18 Nichtlineare Programmierung N package: stats Befehl: optimize Univariate Optimierung einer Fkt. f(x) in einem gegebenen Intervall [a, b]. Example 2.1 (8.2, Beispiel 2) min f(x) = e 2x 5e x + 4 im Intervall [ 3.0, 1.5] 1 > fkt <- function(x){ 2 > exp(2 * x) - 5 * exp(x) + 4} 3 > interval <- c(-3,1.5) 4 > optimize(fkt, interval) Definiere zu optimierende Funktion zu untersuchendes Intervall Funktionsaufruf $minimum [1] $objective [1] Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 18 / 27
19 Die R-Funktion optimize N Example 2.2 (8.4, Beispiel 2) max f(x) = 1 4 x4 5 6 x x2 1 im Intervall [ 1, 3] 1 > fkt <- function(x){ 1 / 4 * x ^ 4-2 > 5 / 6 * x ^ / 2 * x ^ 2-1} 3 > interval <- c(-1,3) 4 > optimize(fkt, interval, maximum = TRUE) Definiere zu optimierende Funktion zu untersuchendes Intervall Funktionsaufruf $maximum [1] $objective [1] ACHTUNG: Findet nicht den richtigen globalen MAX-Wert f(3) = 1.25, sondern hier nur lokales Maximum! Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 19 / 27
20 Nichtlineare Programmierung N package: stats Befehl: optim Multivariate Optimierung einer Fkt. f : R n R. Example 2.3 (13.1, Beispiel 1) max f(x, y) = 2x 2 2xy 2y x + 42y > fkt <- function(x){-2 * x[1]^2-2 * x[1] * x[2] 2 > -2 * x[2]^ * x[1] + 42 * x[2] - 158} 3 > optim(c(1,1), fkt, control = list( fnscale = -1)) Definiere zu optimierende Funktion Funktionsaufruf Benötigt werden Startpunkt, da iteratives Optimierungsverfahren, hier: x 0 = (1, 1) zu optimierende Funktion falls maximiert werden soll, explizite Angabe: control = list(fnscale = -1) Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 20 / 27
21 Die R-Funktion optim N Ausgabe: Optimalpunkt Funktionswert im Optimalpunkt Anzahl der Funktionsaufrufe Status-Information (0 = Erfolg, 1 = max. Anzahl Iterationen,... ) zusätzliche Informationen $par [1] $value [1] 100 $counts function gradient 87 NA $convergence [1] 0 $message NULL Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 21 / 27
22 Die R-Funktion optim N weitere Optionen: Angabe des Gradienten (wenn nötig) Auswahl verschiedener Verfahren (z. B. CG, BFGS, Nelder-Mead) Ausgabe der Hesse-Matrix 1 > gr <- function(x){c(-4 * x[1] - 2 * x[2] + 36, 2 > -2 * x[1] - 4 * x[2] + 42)} 3 > res <- optim(c(1,1), fkt, gr, method = "CG", 4 > control = list( fnscale = -1), 5 > hessian = TRUE) 6 > res$ hessian Definiere Gradienten Funktionsaufruf Aufruf der Hesse-Matrix [,1] [,2] [1,] -4-2 [2,] > eigen(res$ hessian) Eigenwerte und Vektoren $values [1] -2-6 $vectors [,1] [,2] [1,] [2,] Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 22 / 27
23 Die R-Funktion constroptim N package: stats Befehl: constroptim Minimierung einer Fkt. f : R n R unter linearen Ungleichheitsnebenbedingungen der Form Ax b. Example 2.4 (14.8, Beispiel 2) max f(x, y) = x + y unter 3x + 5y 10 1 > fkt <- function(x){sqrt(x[1]) + sqrt(x[2])} 2 > A <- matrix(c(-3,-5), nrow = 1, ncol = 2, 3 > byrow = TRUE) 4 > b <- c(-10) 5 > constroptim(c(1,1), fkt, NULL, ui = A, ci = b, 6 > control = list( fnscale = -1)) Funktion Matrix A rechte Seite b Funktionsaufruf Benötigt werden: Startpunkt (muss im Inneren des zul. Bereichs liegen), Funktion, Gradient (kann NULL gesetzt werden), Nebenbedingungungen, Info für Maximierung Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 23 / 27
24 Die R-Funktion constroptim N Ausgabe analog zu optim $par [1] $value [1] $counts function gradient 81 NA $convergence [1] 0 $message NULL $outer.iterations [1] 1 $barrier.value [1] Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 24 / 27
25 Die R-Funktion nlm N package: stats Befehl: nlm Minimierung einer Fkt. f : R n R mittels line-search (Algorithmus vom Newton-Typ). Example 2.5 (13.1, Beispiel 1) min f(x, y) = 2x 2 + 2xy 2y 2 36x 42y > fkt <- function(x){-1 * (-2 * x[1]^2-2 * 2 > x[1] * x[2] -2 * x[2]^ * x[1] + 3 > 42 * x[2] - 158)} 4 > nlm(fkt, c(1,1)) Benötigt werden Definiere zu minimierende Funktion Funktionsaufruf Startpunkt, da iteratives Optimierungsverfahren, hier: x 0 = (1, 1) zu optimierende Funktion Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 25 / 27
26 Die R-Funktion nlm N Ausgabe: Funktionswert im Minimum Optimalpunkt Gradient der Lösung Status-Information (1 = Gradient in der Nähe von Null,... ) Anzahl Iterationen $minimum [1] -100 $estimate [1] $gradient [1] e e-09 $code [1] 1 $iterations [1] 3 Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 26 / 27
27 Die R-Funktion nlm N weitere Optionen: Angabe des Gradienten Ausgabe der Hesse-Matrix 1 > gr <- function(x){c(4 * x[1] + 2 * x[2] - 36, 2 > 2 * x[1] + 4 * x[2] - 42)} 3 > res <- nlm(fkt, c(1,1), gr, hessian = TRUE) 4 > res$ hessian Definiere Gradienten Funktionsaufruf Aufruf der Hesse-Matrix [,1] [,2] [1,] [2,] > eigen(res$ hessian)$ values Eigenwerte [1] 6 2 Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) 27 / 27
Die MATLAB-Funktionen (Beschreibung : Siehe MATLAB-Hilfen)
Fachbereich Grundlagenwissenschaften Prof. Dr. H. Dathe Numerische Mathematik/Optimierung Eine Einführung in Theorie und Verfahren Die MATLAB-Funktionen (Beschreibung : Siehe MATLAB-Hilfen) linprog Lineare
MehrHochschule RheinMain SS 2018 Prof. Dr. D. Lehmann. Lösungen 11. Übungsblatt Lineare Optimierung
Hochschule RheinMain SS 2018 Prof. Dr. D. Lehmann Lösungen 11. Übungsblatt Lineare Optimierung 1.Aufgabe: a) Phase-I-Methode: Wir betrachten das Hilfs-LOP unter den Nebenbedingungen HF (v 1, v 2 ) = HF
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrOperations Research für Logistik
Operations Research für Logistik Lineare Optimierung (170.202) Ao. Univ. - Prof. Norbert SEIFTER Dipl. - Ing. Stefanie VOLLAND Sommersemester 2012 Lehrstuhl Industrielogistik Lineare Optimierung Inhalte:
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
MehrOptimierung für Wirtschaftsinformatiker: Lineare Programme
Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen
MehrInnere-Punkt-Methoden
Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction
MehrOptimierung mit Matlab
Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof. Dr. L. Cromme Optimierung mit Matlab 1 Optimierungsaufgaben Die allgemeine Aufgabenstellung der Optimierung besteht darin,
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
MehrSchnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005
Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag
Mehr3.2.5 Dualität der linearen Optimierung I
3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem
MehrComputer Science Department - High Performance and Web Computing Group. Optimierungsprobleme
Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter
Mehr12. Potentialflächen und Optimierung
Dr. Jens Döbler Computeranwendung in der Chemie Informatik für Chemiker(innen) 12. Potentialflächen und Optimierung Jens Döbler 2004 "Computer in der Chemie", WS 2003-04, Humboldt-Universität VL12 Folie
MehrDipl.-Math. Robert Offinger Wintersemester 2006/07 Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik
Dipl.-Math. Robert Offinger Wintersemester 6/7 Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Materialien zur Vorlesung Mathematik III für Ingenieure Ergänzungen zur Einführung in Matlab
Mehr14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert
14 Optimierung unter Nebenbedingungen 14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert [1] Lösen sie die folgenden Probleme, indem Sie diese auf ein univariates Problem zurückführen. Zeigen
MehrInhaltsverzeichnis Grundlagen der Linearen Optimierung
Inhaltsverzeichnis 4 Grundlagen der Linearen Optimierung 1 4.1 Grundbegriffe............................. 1 4.1.1 Lineare Optimierung..................... 1 4.1.2 Das Grundmodell eines linearen Optimierungsproblems
MehrKombinatorische Optimierung
Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
MehrVORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind
MehrDie Tangentialebene. {(x, y, z) z = f(x 0, y 0 )+ f x (x 0, y 0 )(x x 0 )+ f. y (x 0, y 0 )(y y 0 )}
Die Tangentialebene Der Graph der linearen Approximation ist Tangentialebene an den Graph der Funktion. In Symbolen: Es sei D R 2. Es sei f : D R, (x, y) f(x, y) differenzierbar. Dann ist {(x, y, z) z
MehrOptimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 5 Optimierung mit Nebenbedingungen 1 Minimierung mit Gleichheitsrestriktionen Gegeben: Funktion,,,, : Ziel:,,, Unrestringierter Fall: Notwendige Bedingung für lokales Minimum keine
MehrVorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung
Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen Kapitel IV: Grundlagen der Linearen Optimierung Inhaltsverzeichnis Abschnitt 3-5 3 Der Simplexalgorithmus 58 3.1 Grundlagen..............................
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrVORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max
Mehr4.3.3 Simplexiteration
7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige
MehrKapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2
Kapitel 12 Lagrange-Funktion Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28 Optimierung unter Nebenbedingungen Aufgabe: Berechne die Extrema der Funktion unter der Nebenbedingung
MehrLineare Optimierung Teil 2
Lineare Optimierung Teil 2 Primale Degeneration Duale Degeneration = Mehrdeutigkeit Normalform kanonische Form Duale Simplexmethode HTW-Berlin FB3 Prof. Dr.F. Hartl 1 Primale Degeneration/1 Besitzt eine
MehrExtrema multivariater Funktionen
Extrema multivariater Funktionen Ist f (x ) ein Minimum (Maximum) einer stetig differenzierbaren skalaren Funktion f auf einer Umgebung U von x, so gilt grad f (x ) = (0,..., 0) t. Extrema multivariater
MehrOptimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn
Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,
MehrÜbung 3, Simplex-Algorithmus
Übung 3, 21.6.2011 Simplex-Algorithmus Aufgabe 3.1 Lösen Sie das folgende Optimierungsproblem (von Aufgabe 2.3) graphisch. Substituieren Sie dazu z = 5 y um ein 2-dimensionales Problem zu erhalten. Rechnung
MehrMATLAB Optimization Toolbox Inhaltsverzeichnis
Inhaltsverzeichnis Inhaltsverzeichnis 0 Deckblatt: Optimization Toolbox 1 Was ist Optimierung? 2 Behandelte Themen der Optimization TB 3 Darstellung der Funktionen in Matlab 4 Inline Objects 5 Algorithmensteuerung
MehrOptimierung. Vorlesung 02
Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j
MehrEinführung in Softwaretools zur Nichtlinearen Optimierung
Einführung in Softwaretools zur Nichtlinearen Optimierung 3. April 2017 5. April 2017 Sebastian Garreis, M. Sc. (hons) Johannes Haubner, M. Sc. Technische Universität München Fakultät für Mathematik Lehrstuhl
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)
MehrMultivariate Analysis
Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle
MehrNumerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben
Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Das Nelder Mead Verfahren Sei f : R n R eine (nicht
Mehr1 Kodierung kategorialer Einflussgrößen
Übung zur Vorlesung Generalisierte Regressionsmodelle Blatt 1 Christiane Fuchs, Moritz Berger, Micha Schneider WiSe 16/17 1 Kodierung kategorialer Einflussgrößen Lösung zu Aufgabe 3 Einlesen der Daten:
MehrOptimierung Einführung in Computational Management Science. Prof. Dietmar Maringer FS WWZ, Universität Basel
Optimierung 21275-01 Einführung in Computational Management Science Prof. Dietmar Maringer WWZ, Universität Basel FS 2012 D Maringer, 21275-01 Einführung in Computational Management Science Optimierung
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
MehrKap. 4.3: Das Dualitätstheorem der linearen Optimierung
Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur
MehrInhalt. Problemstellung und Überblick. Allgemeine Problemstellung und Terminologie. Überblick über spezielle Klassen von Optimierungsproblemen
Inhalt Problemstellung und Überblick Allgemeine Problemstellung und Terminologie Überblick über spezielle Klassen von Optimierungsproblemen 40: 40 [40,40] 2.1 Das Optimierungsproblem in allgemeiner Form
MehrTECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09
................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 Obige Angaben sind richtig: Unterschrift der Kandidatin/des Kandidaten 3 TECHNISCHE UNIVERSITÄT
MehrOptimierungstheorie Scheinklausur Sommersemester Juli 2007
Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur
MehrRechnerpraktikum zur Nichtlinearen Optimierung
Rechnerpraktikum zur Nichtlinearen Optimierung 9. März 2016 11. März 2016 Sebastian Garreis, B. Sc. Philipp Jarde, M. Sc. Technische Universität München Fakultät für Mathematik Lehrstuhl für Mathematische
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel
MehrHöhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung
TU Bergakademie Freiberg Sommersemester Dr. Gunter Semmler Dr. Anja Kohl Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung Differentialrechnung für Funktionen
MehrInhaltsübersicht für heute:
Inhaltsübersicht für heute: Dualität Anwendung: Spieltheorie Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann? Inhaltsübersicht für heute: Dualität
MehrRechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung
Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung 18.3.14-20.3.14 Dr. Florian Lindemann Moritz Keuthen, M.Sc. Technische Universität München Garching, 19.3.2014 Kursplan Dienstag, 18.3.2014
MehrWertetabelle für eine Gleichung
1 Wertetabelle für eine Gleichung Wie läßt sich für eine gegebene Gleichung eine Wertetabelle erstellen? - um die Daten zu exportieren - um die Daten in einem Plot darzustellen Wir betrachten diese SigmaPlot-Funktionen
MehrKonvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.
Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,
MehrTeil 6. Differentialrechnung mehrerer Veränderlicher
Teil 6 Differentialrechnung mehrerer Veränderlicher 95 96 6.1 Topologie von Mengen Umgebung ε-umgebung eines Punktes x R n : B ε (x) = {y : y x < ε} Umgebung U von x: Menge, die eine ε-umgebung von x enthält
MehrOptimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp
Optimal-trennende Hyperebenen und die Support Vector Machine Volker Tresp 1 (Vapnik s) Optimal-trennende Hyperebenen (Optimal Separating Hyperplanes) Wir betrachten wieder einen linearen Klassifikator
MehrKAPITEL 10 DIE INNERE-PUNKTE-METHODE
KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach
MehrInhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung
8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen
MehrLagrange-Multiplikatoren
Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i
MehrLösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. Aufgabe 1. Zeigen Sie, dass für alle k, n N gilt: 6 Punkte
Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL4 6 Punkte Aufgabe. Zeigen Sie, dass für alle k, n N gilt: (k + ) teilt ((k + ) n ). Wir zeigen Sie Behauptung per Induktion
MehrModulprüfung Numerische Mathematik 1
Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel
MehrKuhn-Tucker Bedingung
Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,
MehrRechnerpraktikum zur Optimierung III
TU München Lehrstuhl Mathematische Optimierung Prof. Dr. M. Ulbrich Dipl.-Math. Florian Lindemann Sommersemester 007 Teil II Rechnerpraktikum zur Optimierung III Für die Bearbeitung des Aufgabenzettels
MehrEinführung in Python Teil II Bibliotheken für wissenschaftliches Rechnen
Einführung in Python Teil II Bibliotheken für wissenschaftliches Rechnen Valentin Flunkert Institut für Theoretische Physik Technische Universität Berlin Fr. 28.5.2010 Nichtlineare Dynamik und Kontrolle
MehrEine Einführung in R: Grundlagen I
Eine Einführung in R: Grundlagen I Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig http://www.uni-leipzig.de/ zuber/teaching/ws11/r-kurs/
MehrOptimierung 1 Zwischenklausur
Optimierung Zwischenlausur Tobias Breiten und Laurent Pfeiffer, Universität Graz 8. Mai 8 Lösung der Aufgabe. Wir führen Schlupfvariablen ein (positiv und negativ), um das Problem auf Standardform zu bringen
MehrKapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:
Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten
MehrAnwendungen der Differentialrechnung
KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle
MehrSeminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1)
Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Anna Raaz 21.12.2007 Einführung Die Relaxierung von Lagrange wird in der stochastischen Optimierung meistens
MehrLösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =
Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls
MehrTipps zur Anwendung des Excel-Solvers. Vom Solver verwendete Algorithmen und Methoden
Installieren und Laden von Solver 1. Klicken Sie im Menü Extras auf Add-Ins-Manager. Wenn Solver nicht im Dialogfeld Add-Ins-Manager aufgeführt wird, führen Sie Setup erneut aus, und vergewissern Sie sich,
MehrFortgeschrittene Ökonometrie: Maximum Likelihood
Universität Regensburg, Lehrstuhl für Ökonometrie Sommersemester 202 Fortgeschrittene Ökonometrie: Maximum Likelihood Poissonverteilung Man betrachte die poisson-verteilten Zufallsvariablen y t, t =, 2,...,
Mehr10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen
10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie
MehrHöhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) =
Karlsruher Institut für Technologie (KIT Institut für Analysis Priv-Doz Dr P C Kunstmann Dipl-Math D Roth SS 0 7060 Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8 Übungsblatt
MehrLineare Algebra mit dem Statistikprogramm R
SEITE 1 Lineare Algebra mit dem Statistikprogramm R 1. Verwendung von Variablen Variablen werden in R definiert, indem man einem Variablennamen einen Wert zuweist. Bei Variablennamen wird zwischen Groß
MehrProgrammieren mit statistischer Software
Programmieren mit statistischer Software Eva Endres, M.Sc. Institut für Statistik Ludwig-Maximilians-Universität München Vektorwertiges Programmieren Programmieren ohne explizite Schleife I Vektorisierung
MehrProbeklausur Optimierung
Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften Dr. Nico Düvelmeyer Hamburg, 4. Juli 2011 Probeklausur Optimierung Bitte selber ausfüllen: Name: (darf anonymisiert werden)
Mehr1 Umkehrfunktionen und implizite Funktionen
Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
MehrEine Einführung in R: Grundlagen I
Eine Einführung in R: Grundlagen I Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 14. Oktober 2009 Bernd Klaus, Verena Zuber Grundlagen
MehrLösung allgemeiner linearer Programme
Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
MehrKlaus Schliep. 16. Februar 2004
Einführung in R Klaus Schliep 16. Februar 2004 Allgemeines R besteht ausschließlich aus Objekten. Die meisten Objekte sind entweder Daten oder Funktionen. Alle Funktionen werden mit runden Klammern geschrieben,
MehrNichtlineare Gleichungen, mehrere Unbekannte
Dritte Vorlesung, 6. März 2008, Inhalt Aufarbeiten von Themen der letzten Vorlesung, und Nichtlineare Gleichungen, mehrere Unbekannte Systeme nichtlinearer Gleichungen Vektor- und Matrixnormen Fixpunkt-Iteration,
MehrKuhn-Tucker-Bedingung
Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann
MehrOptimale Steuerung 1
Optimale Steuerung 1 Kapitel 7: Nichtlineare Optimierung beschränkter Probleme Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Optimierungsprobleme mit Nebenbedingungen: Allgemeine
Mehr2 Extrema unter Nebenbedingungen
$Id: lagrange.tex,v 1.6 2012/11/06 14:26:21 hk Exp hk $ 2 Extrema unter Nebenbedingungen 2.1 Restringierte Optimierungsaufgaben Nachdem wir jetzt die bereits bekannten Techniken zur Bestimmung der lokalen
Mehr2. Optimierungsprobleme 6
6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen
MehrUNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl. Sommersemester 2009
UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz Dr P C Kunstmann Dipl-Math M Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive Komplexe
MehrOptimalitätsbedingungen
Optimalitätsbedingungen Nadja Irmscher 28. Mai 2010 1 Nachweis von Suboptimalität und Abbruchkriterien Über das gegebene Programm minimiere f 0 (x) über x D sodass f i (x) 0, i = 1,..., m h i (x) = 0,
MehrOptimale Steuerung 1
Optimale Steuerung 1 Kapitel 6: Nichtlineare Optimierung unbeschränkter Probleme Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Parameteranpassung für Phasengleichgewicht
MehrRückblick auf die letzte Vorlesung. Bemerkung
Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D
MehrEigenschaften von LPs
2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört
MehrInhaltsübersicht für heute:
Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen Relaxation Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen
MehrOptimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung
Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
MehrKuhn-Tucker-Bedingung
Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann
MehrMathematik für Ökonomen L i n e a r e A l g e b r a (Sommersemester 2006)
RUHR - UNIVERSITÄT BOCHUM Fakultät für Wirtschaftswissenschaft KLAUSUR Mathematik für Ökonomen L i n e a r e A l g e b r a 19.5.2006 (Sommersemester 2006) Name Vorname Teilnehmer-Nr. Unterschrift Zur Beachtung
MehrProgrammieren mit statistischer Software
Programmieren mit statistischer Software Eva Endres, M.Sc. Institut für Statistik Ludwig-Maximilians-Universität München Funktionen Definition von Funktionen I Eine Funktion hat einen Namen benötigt Argumente
MehrLineare Klassifikatoren. Volker Tresp
Lineare Klassifikatoren Volker Tresp 1 Einführung Lineare Klassifikatoren trennen Klassen durch eine lineare Hyperebene (genauer: affine Menge) In hochdimensionalen Problemen trennt schon eine lineare
Mehr18.2 Implizit definierte Funktionen
18.2 Implizit definierte Funktionen Ziel: Untersuche Lösungsmengen von nichtlinearen Gleichungssystemen g(x) = 0 mit g : D R m, D R n, d.h. betrachte m Gleichungen für n Unbekannte mit m < n, d.h. wir
MehrTeil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006
Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden
MehrLineare Optimierung. Volker Kaibel Fakultät für Mathematik Institut für Mathematische Optimierung Otto-von-Guericke Universität Magdeburg
Lineare Optimierung Volker Kaibel Fakultät für Mathematik Institut für Mathematische Optimierung Otto-von-Guericke Universität Magdeburg VL 1: Einführung 10. April 2007 Überblick Optimierung unter Nebenbedingungen
MehrGrundlagen der Programmierung in C Funktionen
Der erste Mechanismus für Code-Reuse! Grundlagen der Programmierung in C Funktionen Wintersemester 2005/2006 G. Zachmann Clausthal University, Germany zach@in.tu-clausthal.de Ältester Mechanismus für Code-Reuse:
Mehr