Optimale Steuerung 1
|
|
- Lieselotte Brinkerhoff
- vor 6 Jahren
- Abrufe
Transkript
1 Optimale Steuerung 1 Kapitel 7: Nichtlineare Optimierung beschränkter Probleme Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP)
2 Optimierungsprobleme mit Nebenbedingungen: Allgemeine Darstellung: 2 mit wobei x: n Zustandsvariablen (abhängige Variablen) u: m Steuervariablen (unabhängige Variablen) g: n Modellgleichungen h: l Beschränkungen Simultane Betrachtung: Das Problem wird in dieser Form betrachtet und direkt mit einem Lösungsverfahren gelöst. Bei der Lösung sind alle Variablen (x und u) zu optimieren.
3 Sequentielle Betrachtung: Die Zustandsvariablen hängen von den Steuervariablen ab. 3 Man kann durch u g(x,u) = 0 1. Umformung und Ersetzung 2. Simulation die Zustandsvariablen x und die Gleichungen g eliminieren. Also gibt es und nun ist das Problem x mit Da nur die Steuervariablen auftauchen, stellt es ein kleines Optimierungsproblem dar. Es gibt keine Gleichungsnebenbedingungen.
4 Wenn das originale Problem keine Ungleichungsnebenbedingungen hat, ist das Problem, 4 das mit dem Newton-, dem Gradienten- oder dem Quasi-Newton-Verfahren gelöst werden kann. Bei Umformung/Ersetzung muss man aufpassen, manchmal werden Gleichungen nicht erfüllt! Beispiel: Die Lösung des Problems ist. Aber wenn man die Gleichung umformt, d. h. und diese in die Zielfunktion einsetzt, erhält man.
5 Nichtlineare Optimierung: zwei Variablen mit einer Nebenbedingung 5 mit Bei der Lösung gibt es: weil, ergibt sich d. h.
6 dann 6 Es bedeutet die Defínition der Lagrange-Funktion: heißt Lagrange-Multiplikator. Zusätzlich: Bei der Lösung sind die zwei Vektoren parallel und entgegengesetzt gerichtet.
7 NLP ohne Nebenbedingungen: 7 Es ergibt sich: NLP mit einer Gleichungsnebenbedingung: Dann
8 NLP mit einer Gleichungs- und einer Ungleichungsnebenbedingung: 8 und sind aktiv, NLP mit einer Gleichungs- und zwei Ungleichungsnebenbedingungen: und sind aktiv,
9 Minimierung mit einer Gleichungsnebenbedingung 9 mit dann Der Lösungspunkt: D. h. also Aber man kann auch schreiben, damit.. Der Lösungspunkt bleibt, daher.
10 Grafische Darstellung:
11 Problemdarstellung: Die Zielfunktion und die Nebenbedingungen sind nichtlineare Funktionen des Variablenvektors. 11 mit (I) (II) Kuhn-Tucker-Bedingungen: An der Lösung müssen die folgenden Bedingungen erfüllt werden: (I) (II) (II) voneinander unabhängig
12 Quadratische Programmierung mit linearen Gleichungsnebenbedingungen 12 Das QPE-Problem mit wobei und: eine positiv definite Hesse-Matrix ist n : Variablen m: Gleichungen
13 Analytische Lösung 13 Lagrange-Funktion: Kuhn-Tucker-Bedingungen: Hieraus folgt d. h. Wenn positiv definit ist und
14 Beispiel: Messdatenvalidierung 14 Anlage 1 Anlage 3 Anlage 2 Probleme: Lösung: 1) Die Daten sind nicht konsistent. 2) Es führt zu Streit. Optimierung (Messwertvalidierung) mit wobei die Standardabweichung der Messgeräte:
15 Die Lagrange-Funktion: 15 Nach der Optimalitätsbedingung:
16 Die validierte Messung: 16 Erwartungswert dieser Variablen:
17 Varianz der Variablen: 17 Daraus ergibt sich: dann ist die validierte Standardabweichung:
18 Quadratische Programmierung mit linearen Gleichungsund Ungleichungsnebenbedingungen 18 Das QP-Problem: mit Lagrange-Funktion: Da das Problem auch Ungleichungsnebenbedingungen besitzt, kann es nicht analytisch gelöst werden. Es wird mit dem sog. Aktive-Restriktionen-Verfahren (active set method) numerisch iterativ gelöst. Man fängt mit an, berechnet die Änderung und dann
19 Definition 1: Ein Punkt ist zulässig, wenn er für die beiden Nebenbedingungen gültig ist. 19 Definition 2: Die aktive Menge der Restriktionen in der Iteration k ist Taylor-Entwicklung von mit der Änderung d. h. Das neue Optimierungsproblem: mit
20 Die Zielfunktion: 20 Die Nebenbedingungen: Das Optimierungsproblem: mit
21 Der Algorithmus (aktive set method) 21 1) Einen zulässigen Punkt auswählen. Die entsprechende Menge der aktiven Restriktionen identifizieren, 2) Das folgende QPE-Problem lösen mit wenn, GOTO 3) wenn, GOTO 4) 3) Lagrange-Multiplikatoren prüfen:
22 22 wenn, dann, STOP wenn, dann, GOTO 2) 4) Modifikation des berechneten Änderungsschritts Für die nicht aktiven Nebenbedingungen wird benötigt: weil zulässig ist, dann. Wenn, braucht nicht zu modifizieren. Wenn, dann d. h.
23 wenn, dann und wenn, dann 23 Eine neue Ungleichungsnebenbedingung ist aktiv. 5), GOTO 2) Beispiel: mit (1) (2) (3)
24 Standardform der Zielfunktion: 24 Die Nebenbedingungen: Gradienten der Zielfunktion:
25 Gradienten der Nebenbedingungen: 25 Lösung des Problems: Step 1: Ein zulässiger Schätzpunkt: Step 2: mit Die Nebenbedingungen: d. h.
26 Step 3: prüfen durch 26 d. h. Ergibt sich dann Step 2: Die Nebenbedingung: Das Optimierungsproblem:
27 Die Lösung und dann 27 Step 4: dann
28 Step 5: 28 GOTO Step 2 Die Lösung des Problems: Grafische Darstellung der Lösung: mit (1) (2) (3)
29 Grafische Darstellung: 29
30 Optimale Betriebsplanung eines Wasserwerks für 24 Stunden Diskrete Formulierung : 30 Wasserbedarf ist bekannt. Betriebskosten sind eine Funktion der Zeit, d. h. sie sind unterschiedlich am Tag und in der Nacht. Was ist die optimale Fahrweise für?
31 Problemformulierung: 31 mit Parameter im Problem: Wasserbedarf (m 3 /h): Kostenfunktion ($/m 3 ): Tankfläche (m 2 ): Initialfüllstand (m): Grenze des Füllstands (m): Stromgrenze (m 3 /h): Gewichtsfaktor:
32 Variablen: Steuervariablen: Zustandsvariablen: 32 Restriktionen: Gleichungsnebenbedingungen: Ungleichungsnebenbedingungen:
33 Das Ergebnis Optimierung: 33 Kostenfaktor (EURO/m3) 1 0,8 0,6 0,4 0, Zeit (h) Wasserstrom (m3/h) Zeit (h) Wasserstrom (m3/h) Füllstand (m) Zeit (h) Zeit (h) Kosten beim optimalen Fahrplan: Kosten beim konventionellen Fahrplan: $ $
34 Das SQP-Verfahren 34 Mit Gleichungsnebenbedingungen Lagrange-Funktion: Kuhn-Tucker-Bedingungen: Taylor-Entwicklung erster Ordnung von:
35 d. h. 35 und d. h. Die Lösung des Gleichungssystems ist die Lösung des folgenden QPE-Problems mit mit
36 Die Lagrange-Funktion des Problems: 36 Kuhn-Tucker-Bedingungen: nun setzt man dann
37 und 37 d. h. beim Problem mit Gleíchungsnebenbedingungen kann man eine Änderung d durch Lösung des folgenden Problems erhalten: mit Beispiel: mit Die Lagrange-Funktion:
38 Die Hesse-Matrix von der Lagrange-Funktion und der Gradientenvektor von der Zielfunktion: 38 Das QPE-Problem: mit Die Lagrange-Funktion dieses Problems:
39 Nach Kuhn-Tucker-Bedingungen: 39 Fängt man mit an:
40 Merit Function Die Suchrichtung in jeder Iteration zur Reduktion der Zielfunktion, aber beim neuen Punkt werden die Nebenbedingungen verletzt. Wie groß soll die Schrittlänge sein? Ein Kompromiss zwischen dem Zielfunktionsabstieg und der Zulässigkeit wird durch Line-Search gefunden. 40 Man definiert sog. Merit Function (Straffunktion): oder Problem: der Gewichtungsfaktor ist schwer zu definieren.
41 Algorithmus Line-Search-SQP (Sequentielle Quadratische Programmierung) 41 Nur mit Gleichungsnebenbedingungen Schritt 1:, Vorgabe Schätzwerte ( nicht unbedingt zulässig). Schritt 2: In Iteration k, Berechnung des Gradientenvektors und Approximation der Hesse-Matrix BFGS-Formel. mit der Schritt 3: Lösung des QPE-Problems mit Durch analytische Lösung erhält man.
42 42 Schritt 4: Wenn die Optimalitätsbedingungen erfüllt sind, STOP. Ansonsten geht zu Schritt 5. Schritt 5: Line Search zur Ermittlung. Schritt 6: Schritt 7:, Fortschritt mit Schritt 2.
43 Sequentielle quadratische Programmierung (das SQP-Verfahren) 43 Problemdarstellung: mit sind nichtlineare Funktionen, zusätzlich Lagrange-Funktion:
44 Lösungsverfahren: 44 Taylor-Entwicklung von von. ist eine positive definite Approximation der Hesse-Matrix Nun sieht das Optimierungsproblem wie folgt aus: mit
45 45 Dieses Problem kann mit dem active set Verfahren gelöst werden. In Iteration k werden mit für Iteration berechnet. Die Hesse-Matrix der Langrange-Funktion wird mit dem BFGS-Ansatz approximiert. Das SQP-Verfahren: mit einer quadratischen Funktion annähern mit linearen Funktionen annähern Das Problem mit dem active set Verfahren lösen. Aufgrund der Annäherung treten Konvergenzprobleme auf.
46 Algorithmus Active-Set-SQP (Sequentielle Quadratische Programmierung) 46 Mit Gleichungs- und Ungleichungsnebenbedingungen Schritt 1: Schritt 2: Schritt 3:, Vorgabe Schätzwerte, muss zulässig sein. Identifikation Active-Set. In Iteration k, Berechnung des Gradientenvektors und Approximation der Hesse-Matrix BFGS-Formel. Iterative Lösung des QP-Problems mit der mit mit dem Active-Set-Verfahren. Man erhält.
47 47 Schritt 4: Schritt 5: Schritt 6: Überprüfung der nicht aktiven Ungleichungen. Ermittlung der Schrittlänge., Update Active-Set. Wenn die Optimalitätsbedingungen erfüllt sind, STOP. Ansonsten zu Schritt 7. Schritt 7:, Fortschritt mit Schritt 2.
48 48 Computation strategy for solving NLP problems x 0 SQP x k f, g x k df, dg function evaluation gradients computation
49 Vorhandene NLP Software 49 NLPQL, Schittkowski (1986), Annals of Operations Research, Vol. 5, S MINOS, Murtagh und Saunders (1978), Mathematical Programming, Vol. 14, S GINO, Lieman et al. (1986), Modelling and Optimization with GINO, Redwood City, Scientific Press. GAMS, Brooke et al. (1988), GAMS-A User Guide, Redwood City, Scientific Press. IMSL, (1987) Math/Library, IMSL User`s Manual. SNOPT, Gill, Stanford University IPOPT, Biegler, Carnegie Mellon University Anwendungsbeispiele: Morari und Grossmann (1991), Chemical Engineering Optimization Problems with GAMS, CACHE Design Case Studies, Vol. 6. Biegler et al. (1997), Systematic Methods of Chemical Process Design, Prentice Hall.
50 On-line Optimization of a distillation column 50 Separation of a methanol-water mixture under atmospheric pressure Column: 20 bubble cap trays and 100 mm diameter. Electrical reboiler, condenser with cold water Aim of optimization: maximum profit
51 Objective function: 51 Equality constrainsts for each tray: Component balances Vapor-liquid equilibrium relations Energy balance Tray hydraulics Inequality constrainsts: State variable constrainst Control variable constrainst Influential factors on optimality: Price factors: Feed conditions: Product specifications: Degree of freedom: 2, or
52 Optimal operating point changing based on C 1 52 Influence of C 1
53 Relation between optimization and control 53 Minimum point is inside the feasible region feasible region high control quality or small disturbance low control quality or large disturbance
54 Minimum point is outside the feasible region 54
Optimale Steuerung 1 Prozessoptimierung 1
Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung
MehrOptimale Steuerung 1
Optimale Steuerung 1 Kapitel 5: Eindimensionale Nichtlineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Optimierung des Rohrleitungsdurchmessers für den
MehrDie MATLAB-Funktionen (Beschreibung : Siehe MATLAB-Hilfen)
Fachbereich Grundlagenwissenschaften Prof. Dr. H. Dathe Numerische Mathematik/Optimierung Eine Einführung in Theorie und Verfahren Die MATLAB-Funktionen (Beschreibung : Siehe MATLAB-Hilfen) linprog Lineare
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
MehrOptimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen
Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes
Mehr1 Einleitung Optimierung in Technik-, Natur- und Wirtschaftswissenschaften Optimierung mit dem Computer
1 Einleitung...1 1.1 Optimierung in Technik-, Natur- und Wirtschaftswissenschaften... 4 1.2 Optimierung mit dem Computer... 5 1.2.1 Anwendung von Computeralgebrasystemen... 6 1.2.2 Anwendung von EXCEL...
MehrRegelungs- und Systemtechnik 3
Regelung Mechatronischer Systeme, Regelungs- und Systemtechnik 3 Kapitel 1: Einführung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Luft- und Raumfahrtindustrie 2 Zu regelnde
Mehr3.2.5 Dualität der linearen Optimierung I
3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem
MehrOptimierung für Wirtschaftsinformatiker: Lineare Programme
Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen
MehrRechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung
Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung 18.3.14-20.3.14 Dr. Florian Lindemann Moritz Keuthen, M.Sc. Technische Universität München Garching, 19.3.2014 Kursplan Dienstag, 18.3.2014
MehrSeminaraufgabensammlung zur Lehrveranstaltung. Prozessoptimierung 1. 1 Formulieren und Lösen linearer Optimierungsprobleme
Fachgebiet Simulation und Optimale Prozesse Fakultät für Informatik und Automatisierung Institut für Automatisierungsund Systemtechnik Seminaraufgabensammlung zur Lehrveranstaltung Prozessoptimierung Vorlesender:
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrOptimierung in R. Michael Scholz
N Optimierung in R Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) Michael Scholz Institut für Statistik und Ökonometrie Georg-August-Universität Göttingen Fortgeschrittene Mathematik: Optimierung
MehrOperations Research für Logistik
Operations Research für Logistik Lineare Optimierung (170.202) Ao. Univ. - Prof. Norbert SEIFTER Dipl. - Ing. Stefanie VOLLAND Sommersemester 2012 Lehrstuhl Industrielogistik Lineare Optimierung Inhalte:
MehrFK WMS: Wirtschaftsmathematik 2, Einheit 7/8
FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 markus.sinnl@univie.ac.at http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.
MehrMathematische Optimierung mit Computeralgebrasystemen
Mathematische Optimierung mit Computeralgebrasystemen Einführung für Ingenieure, Naturwissenschaflter und Wirtschaftswissenschaftler unter Anwendung von MATHEMATICA, MAPLE, MATHCAD, MATLAB und EXCEL Bearbeitet
MehrKombinatorische Optimierung
Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
MehrOperations Research kompakt
Operations Research kompakt von Michael Sauer Oldenbourg Verlag München Inhalt s Verzeichnis 1 Einführung 1 1.1 Vorwort 1 1.2 Anwendungsbeispiel 2 1.3 Inhaltsüberblick 3 1.4 Einige Grundlagen 4 1.4.1 Grundbegriffe
MehrNichtlineare Optimierung
Nichtlineare Optimierung Roland Griesse Numerische Mathematik Chemnitzer Skiseminar Gerlosberg, 07. 14. März 2009 Gliederung Konvexe Optimierung 1 Konvexe Optimierung Bedeutung Beispiele Charakterisierung
MehrOptimierung mit Matlab
Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof. Dr. L. Cromme Optimierung mit Matlab 1 Optimierungsaufgaben Die allgemeine Aufgabenstellung der Optimierung besteht darin,
MehrOptimierung. Statische, dynamische, stochastische Verfahren für die Anwendung. Bearbeitet von Markos Papageorgiou, Marion Leibold, Martin Buss
Optimierung Statische, dynamische, stochastische Verfahren für die Anwendung Bearbeitet von Markos Papageorgiou, Marion Leibold, Martin Buss erweitert, überarbeitet 2012. Taschenbuch. XVIII, 519 S. Paperback
MehrDas Lagrange-duale Problem
Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h
MehrMathematik für. Wirtschaftswissenschaftler. Basiswissen mit Praxisbezug. 4., aktualisierte und erweiterte Auflage
Mathematik für Wirtschaftswissenschaftler Basiswissen mit Praxisbezug 4., aktualisierte und erweiterte Auflage Knut Sydsaeter Peter Hammond mit Arne Strom Übersetzt und fach lektoriert durch Dr. Fred Böker
MehrExtremwerte von Funktionen mehrerer reeller Variabler
Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)
Mehr4.4 Quadratische Optimierungsprobleme
4.4 Quadratische Optimierungsprobleme 1. Quadratische Programme (QP) 1 2 xt P x + q T x + r s.t. Gx h (4.34) wobei P S n +, G R (m n) und A R (p n) Zielfunktion (ZF) ist (konvex) quadratisch Nebenbedingungen
MehrOptimalitätsbedingungen
Optimalitätsbedingungen Nadja Irmscher 28. Mai 2010 1 Nachweis von Suboptimalität und Abbruchkriterien Über das gegebene Programm minimiere f 0 (x) über x D sodass f i (x) 0, i = 1,..., m h i (x) = 0,
MehrKuhn-Tucker-Bedingung
Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung
MehrOptimale Steuerung/ Prozessoptimierung 1
Optimale Steuerung/ Prozessoptimierung 1 Kapitel 1: Einführung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) 2 Chemieindustrie Welche ist die optimale Betriebsstrategie, damit
MehrLagrange-Multiplikatoren
Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i
MehrComputer Science Department - High Performance and Web Computing Group. Optimierungsprobleme
Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter
MehrOperations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung
Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den
Mehr12. Potentialflächen und Optimierung
Dr. Jens Döbler Computeranwendung in der Chemie Informatik für Chemiker(innen) 12. Potentialflächen und Optimierung Jens Döbler 2004 "Computer in der Chemie", WS 2003-04, Humboldt-Universität VL12 Folie
MehrNumerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren
Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren
MehrGrundlagen, Vorgehensweisen, Aufgaben, Beispiele
Hans Benker - Wirtschaftsmathematik Problemlösungen mit EXCEL Grundlagen, Vorgehensweisen, Aufgaben, Beispiele Mit 138 Abbildungen vieweg TEIL I: EXCEL 1 EXCEL: Einführung 1 1.1 Grundlagen 1 1.1.1 Tabellenkalkulation
MehrInnere-Punkt-Methoden
Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction
MehrPerlen der Informatik I Wintersemester 2012 Aufgabenblatt 7
Technische Universität München WS 2012 Institut für Informatik Prof. Dr. H.-J. Bungartz Prof. Dr. T. Huckle Prof. Dr. M. Bader Kristof Unterweger Perlen der Informatik I Wintersemester 2012 Aufgabenblatt
MehrDualität bei konvexer Optimierung
Dualität bei konvexer Optimierung Seminar zur Numerik I im SS 2016 Laslo Hunhold 10. Mai 2016 Ausarbeitung zum Seminarvortrag vom 2. Mai 2016 Mathematisches Institut Mathematisch-Naturwissenschaftliche
MehrGrundlagen der Optimierung. Übung 6
Technische Universität Chemnitz Chemnitz, 2. November 24 Prof. Dr. R. Herzog, J. Blechschmidt, A. Schäfer Abgabe am 28. November 24 Grundlagen der Optimierung Übung 6 Aufgabe 2: Verschiedene Verfahren
MehrMit 119 Bildern, 368 Beispielen und 225 Aufgaben mit Lösungen
Mathematik für Wirtschaftswissenschaftler Ein Lehr- und Übungsbuch für Bachelors 2., aktualisierte Auflage Mit 119 Bildern, 368 Beispielen und 225 Aufgaben mit Lösungen Fachbuchverlag Leipzig im Carl Hanser
MehrOptimal Control in Air Traffic Management
Optimal Control in Air Traffic Management DGLR Workshop Bestimmung optimaler Trajektorien im Air Traffic Management 23.04.2013 Deutsche Flugsicherung GmbH, Langen 23.04.2013 1 Inhalt. Hintergrund und Motivation.
MehrInhaltsverzeichnis. 1 Einleitung 1 Struktur und Einsatz von Optimierungsmethoden 2 Einsatz der Optimierung in der Steuerungs- und Regelungstechnik 6
1 Einleitung 1 Struktur und Einsatz von Optimierungsmethoden 2 Einsatz der Optimierung in der Steuerungs- und Regelungstechnik 6 Teil I Statische Optimierung 2 Allgemeine Problemstellung der statischen
MehrTipps zur Anwendung des Excel-Solvers. Vom Solver verwendete Algorithmen und Methoden
Installieren und Laden von Solver 1. Klicken Sie im Menü Extras auf Add-Ins-Manager. Wenn Solver nicht im Dialogfeld Add-Ins-Manager aufgeführt wird, führen Sie Setup erneut aus, und vergewissern Sie sich,
MehrInhaltsverzeichnis. 4 Statistik Einleitung Wahrscheinlichkeit Verteilungen Grundbegriffe 98
Inhaltsverzeichnis 1 Datenbehandlung und Programmierung 11 1.1 Information 11 1.2 Codierung 13 1.3 Informationsübertragung 17 1.4 Analogsignale - Abtasttheorem 18 1.5 Repräsentation numerischer Daten 20
MehrMathematik für Wirtschaftswissenschaftler
Fred Böker Mathematik für Wirtschaftswissenschaftler Das Übungsbuch 2., aktualisierte Auflage Higher Education München Harlow Amsterdam Madrid Boston San Francisco Don Mills Mexico City Sydney a part of
MehrEinführung in Operations Research
Wolfgang Domschke Andreas Drexl Einführung in Operations Research Achte Auflage fyj Springer Inhaltsverzeichnis Vorwort Symbolverzeichnis V XIII Kapitel 1: Einführung 1 1.1 Begriff des Operations Research
MehrSeminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1)
Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Anna Raaz 21.12.2007 Einführung Die Relaxierung von Lagrange wird in der stochastischen Optimierung meistens
MehrDas Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering
Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme
MehrAusgleichsproblem. Definition (1.0.3)
Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst
MehrInhaltsverzeichnis. Kapitel 1: Rechnen mit Zahlen. Kapitel 2: Umformen von Ausdrücken. Kapitel 3: Gleichungen, Ungleichungen, Gleichungssysteme
Kapitel 1: Rechnen mit Zahlen 1.1 Rechnen mit reellen Zahlen 1.2 Berechnen von Summen und Produkten 1.3 Primfaktorzerlegung 1.4 Größter gemeinsamer Teiler 1.5 Kleinstes gemeinsames Vielfaches 1.6 n-te
MehrOptimierung. Florian Jarre Josef Stoer. Springer
2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Florian Jarre Josef Stoer Optimierung Springer Inhaltsverzeichnis
Mehr5. Lokale Suchverfahren. Beispiel TSP: k-change Nachbarschaft. Nachbarschaft. k-opt Algorithmus
5. Lokale Suchverfahren Lokale Suche 5. Lokale Suchverfahren Beispiel TSP: k-change Nachbarschaft Optimale Lösungen können oft nicht effizient ermittelt werden. Heuristiken liefern zwar zulässige Lösungen,
MehrTU Dresden Fachrichtung Mathematik Institut für Numerische Mathematik 1. Dr. M. Herrich SS 2017
TU Dresden Fachrichtung Mathematik Institut für Numerische Mathematik Prof. Dr. K. Eppler Institut für Numerische Mathematik Dr. M. Herrich SS 207 Aufgabe Gegeben sei die Funktion f : R 2 R mit Übungen
MehrOptimierung I. Dr. Ulf Lorenz F2.413
Optimierung I Dr. Ulf Lorenz F2.413 flulo@upb.de Organisation Dozent: Dr. Ulf Lorenz F2.413 Fürstenallee 11 email: flulo@upb.de WWW: http://www.upb.de/cs/flulo (hier auch aktuelle Infos + Ü-Zettel) Vorlesungen:
MehrInhalt. Problemstellung und Überblick. Allgemeine Problemstellung und Terminologie. Überblick über spezielle Klassen von Optimierungsproblemen
Inhalt Problemstellung und Überblick Allgemeine Problemstellung und Terminologie Überblick über spezielle Klassen von Optimierungsproblemen 40: 40 [40,40] 2.1 Das Optimierungsproblem in allgemeiner Form
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag
MehrMathematik für Wirtschaftswissenschaftler
Knut Sydsaeter Peter HammondJ Mathematik für Wirtschaftswissenschaftler Basiswissen mit Praxisbezug 2., aktualisierte Auflage Inhaltsverzeichnis Vorwort 13 Vorwort zur zweiten Auflage 19 Kapitel 1 Einführung,
MehrAnwendungen der Differentialrechnung
KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle
MehrDualitätssätze der linearen Optimierung
Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =
MehrUnimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206
Kapitel 1 Unimodularität Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Inhalt 1 Unimodularität Total unimodulare Matrizen Inzidenzmatrix Optimierungsprobleme auf Graphen Peter
MehrMusterlösung zu Blatt 1
Musterlösung zu Blatt Analysis III für Lehramt Gymnasium Wintersemester 0/4 Überprüfe zunächst die notwendige Bedingung Dfx y z = 0 für die Existenz lokaler Extrema Mit x fx y z = 8x und y fx y z = + z
MehrNewton-Verfahren für ein Skalarfunktion
Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren
MehrKapitel 2. Mathematik für Mikroökonomie
Kapitel Mathematik für Mikroökonomie 1 Mathematik der Optimierung Ökonomische Theorien basieren auf der Annahme, dass die Agenten versuchen, den optimalen Wert einer Funktion zu wählen. Konsumenten maximieren
MehrInhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57
Vorwort... 13 Vorwort zur 3. deutschen Auflage... 17 Kapitel 1 Einführung, I: Algebra... 19 1.1 Die reellen Zahlen... 20 1.2 Ganzzahlige Potenzen... 23 1.3 Regeln der Algebra... 29 1.4 Brüche... 34 1.5
MehrLösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016
Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b
MehrLineare Optimierungsaufgaben - eine Einführung
Lineare Optimierungsaufgaben - eine Einführung Aufgabenstellung, Beispiele, graphisches Lösen und Trafo auf Normalform Vortragsskript von Lorenz Fischer Operations Research bedeutet die Suche nach einer
Mehr3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)
3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände
Mehr11 Optimierung von Funktionen einer Veränderlichen
11 Optimierung von Funktionen einer Veränderlichen In diesem Kapitel werden die bis hier behandelten Grundlagen der Analysis genutzt, um Methoden aus der Optimierungstheorie für eindimensionale Entscheidungsmengen
MehrFunktionen mehrerer Variabler
Vektoranalysis Funktionen mehrerer Variabler Wir untersuchen allgemein vektorwertige Funktionen von vektoriellen Argumenten, wobei zunächst nur reelle Vektoren zugelassen seien. Speziell betrachten wir:
MehrNullstellen von algebraischen Gleichungen
Kapitel 2 Nullstellen von algebraischen Gleichungen 2.1 Vorbemerkungen Suche Lösung der Gleichung f(x) = 0 (2.1) Dies ist die Standardform für eine Dimension. - typisch nichtlineare Gleichung, sonst elementar
Mehr1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme. Duales Problem. a i u i + i=1. j=1
1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme Duales Problem Lemma 1.4. Das zum Transportproblem duale Problem lautet: max unter den Nebenbedingungen m a i u i + i=1
MehrRückblick auf die letzte Vorlesung
Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige
MehrComputer-gestützter Entwurf von absatzweise arbeitenden chemischen Mehrproduktanlagen
Research Collection Doctoral Thesis Computer-gestützter Entwurf von absatzweise arbeitenden chemischen Mehrproduktanlagen Author(s): Klossner, Jürg Publication Date: 1985 Permanent Link: https://doi.org/10.3929/ethz-a-000342601
MehrModelle und Methoden der Linearen Optimierung (Die Thesen zur Vorlesung 1)
(Die Thesen zur Vorlesung 1) das Thema der Vorlesung Grundlagen der Methode der linearen Optimierung (Grundlegende Annahmen der linearen Programmierung) Prof. Dr. Michal Fendek Institut für Operations
MehrInhaltsverzeichnis. Zeichenerklärung
Inhaltsverzeichnis Zeichenerklärung XIII 1 Grundlagen 1 1.1 Instrumente der Elementarmathematik 1 1.1.1 Zahlbereiche. Zahlendarstellung 1 1.1.2 Rechnen mit Zahlen 3 1.1.3 Bruchrechnung 7 1.1.4 Potenzrechnung
Mehr(d) das zu Grunde liegende Problem gut konditioniert ist.
Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt
Mehr6.8 Newton Verfahren und Varianten
6. Numerische Optimierung 6.8 Newton Verfahren und Varianten In den vorherigen Kapiteln haben wir grundlegende Gradienten-basierte Verfahren kennen gelernt, die man zur numerischen Optimierung von (unbeschränkten)
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)
MehrInhaltsverzeichnis. TEIL I: Einführung in MATHEMATICA
Inhaltsverzeichnis TEIL I: Einführung in MATHEMATICA 1 Einleitung... 1 1.1 Mathematische Berechnungen mit dem Computer... 1 1.1.1 Anwendung der Computeralgebra... 2 1.1.2 Anwendung der Numerischen Mathematik
MehrOptimierung Einführung in Computational Management Science. Prof. Dietmar Maringer FS WWZ, Universität Basel
Optimierung 21275-01 Einführung in Computational Management Science Prof. Dietmar Maringer WWZ, Universität Basel FS 2012 D Maringer, 21275-01 Einführung in Computational Management Science Optimierung
MehrMathematik 2 für Wirtschaftsinformatik
für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar
MehrOptimalitätskriterien
Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen
Mehr6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode
6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,
MehrInhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung
8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen
Mehr1. Anfangswertprobleme 1. Ordnung
1. Anfangswertprobleme 1. Ordnung 1.1 Grundlagen 1.2 Euler-Vorwärts-Verfahren 1.3 Runge-Kutta-Verfahren 1.4 Stabilität 1.5 Euler-Rückwärts-Verfahren 1.6 Differentialgleichungssysteme Prof. Dr. Wandinger
MehrTeil II Optimierung. Peter Buchholz 2016. Modellgestützte Analyse und Optimierung Kap. 9 Einführung Optimierung
Teil II Optimierung Gliederung 9 Einführung, Klassifizierung und Grundlagen 10 Lineare Optimierung 11 Ganzzahlige und kombinatorische Optimierung 12 Dynamische Optimierung Literatur: zu 10-12: Neumann,
MehrMathematische Probleme lösen mit Maple
Mathematische Probleme lösen mit Maple Ein Kurzeinstieg Bearbeitet von Thomas Westermann überarbeitet 2008. Buch. XII, 169 S. ISBN 978 3 540 77720 5 Format (B x L): 15,5 x 23,5 cm Weitere Fachgebiete >
MehrTeil I. Lineare Optimierung
Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,
MehrProseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner
Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1 Vortrag: Lineare Gleichungen am 11. März 2009 von Maximilian Wahner Technische Universität Dortmund Fakultät für Mathematik Proseminar Lineare
MehrMathematik 1 für Wirtschaftsinformatik
Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg Berechnung von Eigenwerten und Eigenvektoren Mathematik 1 Bestimmung von Eigenwerten und Eigenvektoren Jedes λ, das det(a
MehrWirtschaftsmathematik
Helge Röpcke Markus Wessler Wirtschaftsmathematik Methoden - Beispiele - Anwendungen Mit 84 Bildern, 113 durchgerechneten Beispielen und 94 Aufgaben mit ausführlichen Lösungen im Internet Fachbuchverlag
MehrNewton-Verfahren zur optimalen Steuerung nichtlinearer elliptischer Randwertaufgaben
Newton-Verfahren zur optimalen Steuerung nichtlinearer elliptischer Randwertaufgaben Patrick Knapp Berichtseminar zur Bachelorarbeit Universität Konstanz 14.12.2010 Einleitung Aufgabenstellung min J(y,
MehrMathematik für Wirtschaftswissenschaftler
Fred Böker Mathematik für Wirtschaftswissenschaftler Basiswissen mit Praxisbezug Das Übungsbuch ein Imprint von Pearson Education München Boston San Francisco Harlow, England Don Mills, Ontario Sydney
MehrMathematik für Fachhochschule, Duale Hochschule und Berufsakademie
Mathematik für Fachhochschule, Duale Hochschule und Berufsakademie mit ausführlichen Erläuterungen und zahlreichen Beispielen Bearbeitet von Prof. Dr. Guido Walz 1. Auflage 2010. Taschenbuch. xi, 580 S.
Mehr