Rechnerpraktikum zur Nichtlinearen Optimierung
|
|
- Arthur Bayer
- vor 5 Jahren
- Abrufe
Transkript
1 Rechnerpraktikum zur Nichtlinearen Optimierung 9. März März 2016 Sebastian Garreis, B. Sc. Philipp Jarde, M. Sc. Technische Universität München Fakultät für Mathematik Lehrstuhl für Mathematische Optimierung (M1) Garching, 11. März 2016
2 Kursplan Mittwoch, 9. März 2016: Optimierungsverfahren in der unrestringierten Optimierung Vergleich von Konvergenzverhalten einzelner Verfahren Matlab Donnerstag, 10. März 2016: Optimierungsverfahren in der restringierten Optimierung Vorstellen von externer Lösungs-Software Modellieren und Lösen mit AMPL NEOS Freitag, 11. März 2016: Innere-Punkte-Verfahren Installation und Kompilieren größerer Optimierungspakete AMPL und Ipopt
3 P4 - Installation von AMPL AMPL und Solver für das richtige Betriebssystem herunterladen. Ausführbare Dateien (ampl und die anderen Solver) werden nur gefunden, falls der Ordner in der PATH-Variable gelistet ist Umgebungsvariable PATH richtig setzen. Dateien ausführbar machen mit chmod +x.
4 P5 - Durchhängendes Seil Grundlegende AMPL-Modellierungsstruktur verstehen. Plotten von Ergebnissen mit gnuplot. Unterschiedliche Löser testen.
5 P5 - Durchhängendes Seil Ergebnisse mit verschiedenen Lösern: Solver f (x ) it eval f eval f time Verfahren MINOS s GRG LOQO s IP SNOPT s SQP Konvergenz ist abhängig vom Löser und vom Problem. Konvergenzgeschwindigkeit kann sehr unterschiedlich sein. Immer genau auf die Ausgabe der Löser achten! LOQO 6.06: optimal solution (27 iter, 27 eval) MINOS 5.51: the superbasics limit (50) is too small. Fehlende Konvergenz kann ggf. mit Veränderung von Parametern behoben werden (superbasics limit)
6 P5 - Durchhängendes Seil Verschiedene Löser können trotz gleichem Startpunkt verschiedene lokale Minima generieren.
7 P6 - Optimales Design eines Gebäudes MINLP-Problem, also mit Ganzzahligkeitsrestriktionen. Lösen von Probleminstanzen mit festem n h, n t : Variablen- und Restriktions-Eliminierung von AMPL: Presolve eliminates 2 constraints and 2 variables. Optimaler ZFW ist obere Schranke für optimalen ZFW des Ursprungsproblems. Lösen des relaxierten Optimierungsproblems: Optimaler ZFW ist untere Schranke für optimalen ZFW des Ursprungsproblems. Gute Startwerte sind wichtig.
8 Innere-Punkte-Verfahren Problemstellung Problem der Form min x R n f (x) u. d. N. g(x) 0 Die KKT-Bedingungen lauten dann x L( x, λ) = 0, g( x) 0 λ T g( x) = 0 λ 0 mit der Lagrangefunktion L(x, λ) = f (x) + g(x) T λ. Nach Einführung von Schlupfvariablen z und Umschreiben der dritten Gleichung haben die Bedingungen die Form x L(x, λ) F (x, λ, z) := g(x) + z Λ T Ze = 0 (1) mit Λ = diag(λ), Z = diag(z), e = (1, 1,..., 1) T. (λ, z) 0 (2)
9 Innere-Punkte-Verfahren Umschreiben des Problems Grundidee: abgewandeltes Newton-Verfahren auf die Gleichung F (x, λ, z) = 0 anwenden mit (λ k, z k ) > 0 k. Die dritte Komponente der Gleichung wird durch einen Term τ k e k gestört, welcher im Laufe des Verfahrens gegen 0 geht (τ k 0). In jeder Iteration Lösen eines Gleichungssystems der Form 2 xxl(x, λ) g(x) 0 g(x) T 0 I 0 Z Λ x λ = z x L(x, λ) g(x) + z Λ T Ze τe Schrittweite σ muss (λ + σ λ, z + σ z) > 0 garantieren Um ein global konvergentes, allgemein anwendbares Verfahren zu erhalten, sind noch einige Erweiterungen nötig.. (3)
10 Installation von IPOPT Hinweise: Installationsanleitung genau lesen! Externe Pakete müssen zusätzlich geladen werden. configure make
11 Los geht s! Heute gemeinsames Ende um... Uhr.
12 P8 - Installation von Ipopt Kampf durch Installationsanleitung. Mischung aus Genau lesen! und Unwichtiges überspringen. Externe Pakete für effizientes Lösen der Teilprobleme. configure und make. Für einige: Durchhalten!
13 P8+P9 - Minimale Oberfläche/Das Problem der Fässerrampe Diskretisierung durch Triangulierung. IPOPT mit Schnittstelle AMPL IPOPT mit Schnittstelle C++
14 Optical flow: Problemstellung
15 Optical flow: Beispiel Startbild
16 Optical flow: Beispiel Endbild
17 Optical flow: Beispiel Differenz der Bilder markiert
18 Optical flow: Beispiel Berechnetes Zwischenbild
19 Optical flow: Beispiel Differenz zum wahren Zwischenbild
20 Zusammenfassung Tag 2 Innere-Punkte-Verfahren Installation von IPOPT Zusammenfassung Tag 3 Niedrigrang-Approximation Garreis/Jarde Rechnerpraktikum zur Nichtlinearen Optimierung
21 Lösung parametrischer Optimierungsprobleme Lösungen eines parametrischen Hindernisproblems für verschiedene Parameter
22 Abschluss Danke für euer Interesse und Engagement! Bitte evaluiert uns! Gibt es jetzt noch Rückmeldungen oder Fragen?
Rechnerpraktikum zur Nichtlinearen Optimierung
Rechnerpraktikum zur Nichtlinearen Optimierung 9. März 2016 11. März 2016 Sebastian Garreis, B. Sc. Philipp Jarde, M. Sc. Technische Universität München Fakultät für Mathematik Lehrstuhl für Mathematische
MehrEinführung in Softwaretools zur Nichtlinearen Optimierung
Einführung in Softwaretools zur Nichtlinearen Optimierung 3. April 2017 5. April 2017 Sebastian Garreis, M. Sc. (hons) Johannes Haubner, M. Sc. Technische Universität München Fakultät für Mathematik Lehrstuhl
MehrRechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung
Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung 18.3.14-20.3.14 Dr. Florian Lindemann Moritz Keuthen, M.Sc. Technische Universität München Garching, 19.3.2014 Kursplan Dienstag, 18.3.2014
MehrEinführung in Softwaretools zur nichtlinearen Optimierung (WS 2016/17)
Technische Universität München Fakultät für Mathematik Lehrstuhl für Mathematische Optimierung, M1 Sebastian Garreis, M. Sc. (hons) Johannes Haubner, M. Sc. Einführung in Softwaretools zur nichtlinearen
MehrRechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung
TU München Lehrstuhl Mathematische Optimierung Prof. Dr. Michael Ulbrich Dipl.-Math. Florian Lindemann Wintersemester 2008/09 Blatt 3 Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung P9. Installation
MehrRechnerpraktikum zur Optimierung III
TU München Lehrstuhl Mathematische Optimierung Prof. Dr. M. Ulbrich Dipl.-Math. Florian Lindemann Sommersemester 2007 Teil I Rechnerpraktikum zur Optimierung III P1. Durchhängenes Seil Die senkrechten
MehrInhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1
Inhaltsverzeichnis 1 Inhaltsverzeichnis Innere-Punkte-Verfahren 3 1 Theoretische Grundlagen 3 1.1 Die KKT-Bedingungen........................... 3 1.2 Der zentrale Pfad.............................. 4
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag
MehrKontinuierliche Optimierung
Kontinuierliche Optimierung Markus Herrich Wintersemester 2018/19 ii Inhaltsverzeichnis 2 Optimalitäts- und Regularitätsbedingungen 1 2.1 Einleitung und Wiederholung.................... 1 2.2 Optimalitätsbedingungen
MehrEinführung in Softwaretools zur nichtlinearen Optimierung (WS 2017/18)
Technische Universität München Fakultät für Mathematik Lehrstuhl für Mathematische Optimierung, M1 Florian Lindemann, Dr. rer. nat. Daniel Walter, M. Sc. (hons) Einführung in Softwaretools zur nichtlinearen
MehrRechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung
TU München Lehrstuhl Mathematische Optimierung Prof. Dr. Michael Ulbrich Dipl.-Math. Florian Lindemann Wintersemester 2008/09 Blatt 2 Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung P5. Installation
MehrTECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09
................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 Obige Angaben sind richtig: Unterschrift der Kandidatin/des Kandidaten 3 TECHNISCHE UNIVERSITÄT
MehrSeminarvortrag: Trust-Region-Verfahren
Seminarvortrag: Trust-Region-Verfahren Helena Klump Universität Paderborn Dezember 2012 Helena Klump 1 / 22 Trust-Region-Verfahren Problemstellung Sei die Funktion f : R n R gegeben. Betrachtet wird das
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrNewton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer
Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für
MehrDas Trust-Region-Verfahren
Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein
MehrKapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2
Kapitel 12 Lagrange-Funktion Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28 Optimierung unter Nebenbedingungen Aufgabe: Berechne die Extrema der Funktion unter der Nebenbedingung
MehrDie CUTEr Testbibliothek
Die CUTEr Testbibliothek Slide 1 Motivation Softwarepakete mit vollkommen verschiedenen Anwendungsschwerpunkten Optimierung entweder nur einer von vielen Schwerpunkten oder sogar nur Nebenprodukt zur Lösung
MehrInhaltsverzeichnis. Teil I Lineare Programmierung
Inhaltsverzeichnis 1 Einleitung................................................ 1 1.1 Modellbildung, mathematische Formulierung............... 1 1.2 Nichtlineare Programme.................................
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
MehrKlausurrepetitorium ABWL
Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches
MehrRechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung
TU München Lehrstuhl Mathematische Optimierung Prof. Dr. Michael Ulbrich Dipl.-Math. Florian Lindemann Wintersemester 008/09 Blatt 1 Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung Für die
MehrRechnerpraktikum zur Optimierung III
TU München Lehrstuhl Mathematische Optimierung Prof. Dr. M. Ulbrich Dipl.-Math. Florian Lindemann Sommersemester 007 Teil II Rechnerpraktikum zur Optimierung III Für die Bearbeitung des Aufgabenzettels
MehrKuhn-Tucker Bedingung
Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,
MehrDas Gradientenverfahren
Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1
MehrNebenfach Mathematik im Informatik-Studium. Martin Gugat FAU: Friedrich-Alexander-Universität Erlangen-Nürnberg 26.
Nebenfach Mathematik im Informatik-Studium Martin Gugat martin.gugat@fau.de FAU: Friedrich-Alexander-Universität Erlangen-Nürnberg 26. Oktober 2016 Motivation Die rigorose Analyse von Algorithmen erfordert
MehrVIII Inhaltsverzeichnis 4 Innere - Punkte - Methoden für Lineare Programme Exkurs: Newton -Verfahren,Konvergenzraten Anwendung:
Inhaltsverzeichnis 1 Einleitung... 1 1.1 Modellbildung,mathematische Formulierung............... 1 1.2 Nichtlineare Programme................................. 2 1.3 Einteilung von nichtlinearen Programmen...
MehrFK WMS: Wirtschaftsmathematik 2, Einheit 7/8
FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 markus.sinnl@univie.ac.at http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.
MehrNumerische Verfahren zur Lösung der Monge-Ampère-Gleichung, Teil II
für zur Lösung der Monge-Ampère-Gleichung, Teil II Andreas Platen Institut für Geometrie und Praktische Mathematik RWTH Aachen Seminar zur Approximationstheorie im Wintersemester 2009/2010 1 / 27 Gliederung
MehrNebenfach Mathematik im Informatik-Studium. Martin Gugat FAU: Friedrich-Alexander-Universität Erlangen-Nürnberg 25.
Nebenfach Mathematik im Informatik-Studium Martin Gugat martin.gugat@fau.de FAU: Friedrich-Alexander-Universität Erlangen-Nürnberg 25. Oktober 2017 Motivation Die rigorose Analyse von Algorithmen erfordert
MehrOptimale Steuerung chemischer Batch-Reaktoren Praktikum Nichtlineare Modellierung in den Naturwissenschaften im WS 2012/13
MÜNSTER Optimale Steuerung chemischer Batch-Reaktoren Praktikum Nichtlineare Modellierung in den Naturwissenschaften im WS 2012/13 Karoline Pelka Christian Schmidt Christoph Große Kracht 5. Februar 2013
MehrNumerische Optimierung
Numerische Optimierung 6 In den ersten fünf Kapiteln dieses Skriptes haben wir Grundaufgaben der biomedizinischen Bildgebung eingeführt, im Sinne von Variationsmethoden modelliert und ihre Analyse in geeigneten
MehrNichtlineare Gleichungen, mehrere Unbekannte
Dritte Vorlesung, 6. März 2008, Inhalt Aufarbeiten von Themen der letzten Vorlesung, und Nichtlineare Gleichungen, mehrere Unbekannte Systeme nichtlinearer Gleichungen Vektor- und Matrixnormen Fixpunkt-Iteration,
MehrNumerik I. Aufgaben und Lösungen
Universität zu Köln SS 009 Mathematisches Institut Prof. Dr. C. Tischendorf Dr. M. Selva, mselva@math.uni-oeln.de Numeri I Musterlösung 1. Übungsblatt, Python Aufgaben und Lösungen 1. (4 Punte Die Stichprobenvarianz
MehrOptimierung mit Matlab
Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof. Dr. L. Cromme Optimierung mit Matlab 1 Optimierungsaufgaben Die allgemeine Aufgabenstellung der Optimierung besteht darin,
MehrLösung Semesterendprüfung
MNUM Mathematik: Numerische Methoden Herbstsemester 17 Dr Christoph Kirsch ZHAW Winterthur Aufgabe 1 : Lösung Semesterendprüfung Wir schreiben zuerst die Gleichungen f(x i ; a, a 1, a y i, i 1,,, 1, als
MehrKonvexe Optimierung I Sommersemester Kapitel 0
Sommersemester 2013 Kapitel 0 Jun.-Prof. Dr. Thorsten Raasch Johannes Gutenberg-Universität Mainz Institut für Mathematik 15. April 2013 Konvexe Optimierung Was ist das? Was bedeutet Optimierung? Was bedeutet
MehrLineare Klassifikationsmethoden
Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung
MehrFachhochschule Bochum Fachhochschule Münster Fachhochschule Südwestfalen
Fachhochschule Bochum Fachhochschule Münster Fachhochschule Südwestfalen Verbundstudiengang Wirtschaftsingenieurwesen Prof. Dr. rer. nat. habil. J. Resch Prüfung: Mathematik Termin: 1. September 2012 Bearbeitungszeit:
MehrKombinatorische Optimierung
Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
Mehr6.8 Newton Verfahren und Varianten
6. Numerische Optimierung 6.8 Newton Verfahren und Varianten In den vorherigen Kapiteln haben wir grundlegende Gradienten-basierte Verfahren kennen gelernt, die man zur numerischen Optimierung von (unbeschränkten)
MehrDas Subgradientenverfahren
Das Subgradientenverfahren Seminar Optimierung WS 05/06 Betreuer: Prof. F. Jarre von Jalo Liljo Das Subgradientenverfahren Das Ziel dieses Vortrags ist die Berechnung einer Lösung des unrestringierten
MehrNumerische Methoden I Schriftliche Prüfung Gruppe A 23. Jan :00-14:00 (120 min)
Lehrstuhl für Angewandte Mathematik Montanuniversität Leoben 70 004 Numerische Methoden I Schriftliche Prüfung Gruppe A 23. Jan. 207 2:00-4:00 (20 min) Name Matrikelnummer Mündliche Prüfung: Bitte markieren
MehrKonvexe Optimierungsprobleme
von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel
MehrMATTHIAS GERDTS. Optimierung. Universität der Bundeswehr München Wintertrimester 2014
MATTHIAS GERDTS Optimierung Universität der Bundeswehr München Wintertrimester 2014 Addresse des Autors: Matthias Gerdts Institut für Mathematik und Rechneranwendung Universität der Bundeswehr München
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
MehrName: Matr.-Nr.: 2. Aufgabe 1. Gegeben sei die Matrix
Name: Matr.-Nr.: 2 Aufgabe 1. Gegeben sei die Matrix 1 1 1 A = 3 3 3 2 2 2 (a) Bestimmen Sie Rang(A), Kern(A) und Bild(A). Ist A invertierbar? Geben Sie zwei verschiedene rechte Seiten b 1, b 2 an, so
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrKapitel 4: Nichtlineare Nullstellenprobleme
Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 4: Nichtlineare Nullstellenprobleme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 2015 HM: Numerik (SS
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
Mehr9. Tschebyscheff-Approximation: Numerik
HJ Oberle Approximation WS 213/14 9 Tschebyscheff-Approximation: Numerik Der Remez Algorithmus Der meist verwendete Algorithmus zur Lösung von Approximationsaufgaben bezüglich der Tschebyscheff-Norm ist
Mehr18.4 Das Newton-Verfahren
18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
MehrNichtlineare Ausgleichsrechnung
10. Großübung Nichtlineare Ausgleichsrechnung Allgemeines Problem: Wir betrachten ein nichtlineares System F : R n R m mit (m > n, d.h. das System ist überbestimmt und F i (x g(t i ; x g i! 0 i 1,.., m.
MehrKAPITEL 10 DIE INNERE-PUNKTE-METHODE
KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach
MehrOptimierung in R. Michael Scholz
N Optimierung in R Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) Michael Scholz Institut für Statistik und Ökonometrie Georg-August-Universität Göttingen Fortgeschrittene Mathematik: Optimierung
MehrÜbung zur Numerik linearer und nichtlinearer Parameterschätzprobleme A. Franke-Börner, M. Helm
Übung zur Numerik linearer und nichtlinearer Parameterschätzprobleme A. Franke-Börner, M. Helm Numerik Parameterschätzprobleme INHALT 1. 1D Wärmeleitungsgleichung 1.1 Finite-Differenzen-Diskretisierung
MehrNewton-Verfahren für ein Skalarfunktion
Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren
MehrChinese Postman Problem Hamiltonsche Graphen und das Traveling Salesman Problem Max-Flow-Min-Cut...151
Inhaltsverzeichnis 1 Kernkonzepte der linearen Optimierung... 1 1.1 Einführung... 1 1.2 Grundlegende Definitionen... 8 1.3 Grafische Lösung... 10 1.4 Standardform und grundlegende analytische Konzepte...
MehrInhalt Kapitel I: Nichtlineare Gleichungssysteme
Inhalt Kapitel I: Nichtlineare Gleichungssysteme I Nichtlineare Gleichungssysteme I. Nullstellenbestimmung von Funktionen einer Veränderlichen I.2 I.3 Newton-Verfahren Kapitel I (UebersichtKapI) 3 Bisektionsverfahren
MehrDie MATLAB-Funktionen (Beschreibung : Siehe MATLAB-Hilfen)
Fachbereich Grundlagenwissenschaften Prof. Dr. H. Dathe Numerische Mathematik/Optimierung Eine Einführung in Theorie und Verfahren Die MATLAB-Funktionen (Beschreibung : Siehe MATLAB-Hilfen) linprog Lineare
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
MehrNumerische Mathematik
Numerische Mathematik Von Martin Hermann 2., überarbeitete und erweiterte Auflage Oldenbourg Verlag München Wien Vorwort zur ersten Auflage Vorwort zur zweiten Auflage V VII 1 Wichtige Phänomene des numerischen
MehrEinführung in die numerische Mathematik
Prof. Dr. M. Günther K. Gausling, M.Sc. C. Hendricks, M.Sc. Sommersemester 4 Bergische Universität Wuppertal Fachbereich C Mathematik und Naturwissenschaften Angewandte Mathematik / Numerische Analysis
MehrMATLAB Ferienkurs WS 2010/2011
MATLAB Ferienkurs WS 2010/2011 Teil 4 von 6 Andreas Klimke, Matthias Wohlmuth Technische Universität München Fakultät Mathematik, Lehrstuhl für Numerische Mathematik Basier auf Kursunterlagen von Boris
MehrNichtlineare Gleichungen in einer und mehreren Unbekannten
Gleichungen in einer und mehreren Unbekannten 2. Vorlesung 170004 Numerische Methoden I Clemens Brand 26. Februar 2009, Gliederung,, Gleichungen in einer Variablen Was ist... Wie geht... eine lineare (nichtlineare,
MehrEinführung in die Programmierung (MA8003)
Theorie 2.2: Schleifen, Vektorisierung, bedingte Ausführung Dr. Lorenz John Technische Universität München Fakultät Mathematik, Lehrstuhl für Numerische Mathematik M2 05.10.2016 Numerische Mathematik M2
MehrMathematik für Betriebswirte II (Analysis) 2. Klausur Sommersemester
Mathematik für Betriebswirte II (Analysis). Klausur Sommersemester 7 3.9.7 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN Nachname:................................................................... Vorname:....................................................................
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
MehrMit 119 Bildern, 368 Beispielen und 225 Aufgaben mit Lösungen
Mathematik für Wirtschaftswissenschaftler Ein Lehr- und Übungsbuch für Bachelors 2., aktualisierte Auflage Mit 119 Bildern, 368 Beispielen und 225 Aufgaben mit Lösungen Fachbuchverlag Leipzig im Carl Hanser
MehrOptimierungsprobleme mit Komplementaritätsnebenbedingungen und ihre numerische Lösung
Optimierungsprobleme mit Komplementaritätsnebenbedingungen und ihre numerische Lösung Sonja Veelken 3. Mai 2005 - Teil 1 : Einführung und Diplomarbeit Kurze Einführung zu MPCCs bzw. MPECs Optimalitätstheorie
MehrSymbolverzeichnis. Abkürzungsverzeichnis. 1 Einleitung Historischer Überblick zur Optimierung in der Mathematik 2
Inhaltsverzeichnis Symbolverzeichnis Abkürzungsverzeichnis XV XXV 1 Einleitung 1 1.1 Historischer Überblick zur Optimierung in der Mathematik 2 1.2 Historischer Überblick zur Entwicklung der Strukturoptimierung
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den
MehrInhaltsübersicht für heute:
Inhaltsübersicht für heute: Freie Nichtlineare Optimierung Orakel, lineares/quadratisches Modell Optimalitätsbedingungen Das Newton-Verfahren Line-Search-Verfahren Inhaltsübersicht für heute: Freie Nichtlineare
MehrFixpunkt-Iterationen
Fixpunkt-Iterationen 2. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 3. März 2016 Nichtlineare Gleichungen, Fixpunkt-Iterationen 1 Wiederholung Aufgabentypen
MehrBegleitmaterial zur Vorlesung Numerik II
Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik
Mehr(d) das zu Grunde liegende Problem gut konditioniert ist.
Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt
MehrOperations Research für Logistik
Operations Research für Logistik Lineare Optimierung (170.202) Ao. Univ. - Prof. Norbert SEIFTER Dipl. - Ing. Stefanie VOLLAND Sommersemester 2012 Lehrstuhl Industrielogistik Lineare Optimierung Inhalte:
MehrUnterprogramme: Formalargumente und Übergabeargumente
Unterprogramme: Formalargumente und Übergabeargumente SUBROUTINE name(var1,var2,var3) Deklarationen ausführbare Anweisungen name= END SUBROUTINE name Formalargumente Der Aufruf des Unterprogramms: CALL
MehrKAPITEL 3. Konvexe Funktionen
KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn
MehrInstallation von NQC
Installation von NQC Philipp Bodewig, Christoph Weiler 7. August 2006 Inhaltsverzeichnis 1 Voraussetzungen 2 2 Erfüllen der Voraussetzungen 2 2.1 Kernelmodule.................................... 2 2.2
MehrBestimmung der Wurzeln nichtlinearer Gleichungen. Mária Lukáčová (Uni-Mainz) Nichtlineare Gleichungen June 22, / 10
Bestimmung der Wurzeln nichtlinearer Gleichungen Mária Lukáčová (Uni-Mainz) Nichtlineare Gleichungen June 22, 2010 1 / 10 Problem Definition Gegeben f : (a, b) R R. Finde α (a, b) : Existiert eine Lösung?
MehrNICHTRESTRINGIERTE OPTIMIERUNG
3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene
MehrInhaltsverzeichnis. Vorlesung und Übung Optimierung (WS 2017/2018) Steinböck, Kugi,Institut für Automatisierungs- und Regelungstechnik, TU Wien
Inhaltsverzeichnis 3 Statische Optimierung mit Beschränkungen 66 3.1 Optimalitätsbedingungen........................... 67 3.1.1 Optimalitätsbedingungen basierend auf zulässigen Richtungen... 67 3.1.2
MehrBewertung von Optimierungs- und Zuverlässigkeitsalgorithmen für die virtuelle Produktauslegung
Weimarer Optimierungs- und Stochastiktage 4.0 Bewertung von Optimierungs- und Zuverlässigkeitsalgorithmen für die virtuelle Produktauslegung Dr.-Ing. Andreas Plotzitza, PT/EST4 29. November 2007 1 Inhalt
MehrPVK Probeprüfung FS 2017
PVK Probeprüfung FS 07 Lucas Böttcher Numerische Methoden ETH Zürich June 3, 07. Radioaktiver Zerfall Gegeben sind zwei radioaktive Substanzen, welche mit den Raten λ = 0.5 und λ = 0. zerfallen: A λ B
MehrAnleitung zu Blatt 3 Analysis I für Studierende der Ingenieurwissenschaften
Department Mathematik der Universität Hamburg WiSe 2011/2012 Dr. Hanna Peywand Kiani Anleitung zu Blatt 3 Analysis I für Studierende der Ingenieurwissenschaften Reelle Zahlenfolgen 02.12.2011 Die ins Netz
MehrZur Stabilität von SQP-Verfahren und zur Lösung globaler und gemischt-ganzzahliger Optimierungsprobleme
Inhalt: Zur Stabilität von und zur Lösung globaler und gemischt-ganzzahliger Optimierungsprobleme Fachgruppe Angewandte Informatik Universität Bayreuth - - verteilte Liniensuche - nicht-monotone Liniensuche
MehrNumerische Mathematik mit Matlab
Günter Grämlich Wilhelm Werner Numerische Mathematik mit Matlab Eine Einführung für Naturwissenschaftler und Ingenieure ГЗ I dpunkt.verlag Inhaltsverzeichnis 1 Einleitung 1 2 MATLAB-Grundlagen 5 2.1 Was
MehrInnere-Punkt-Methoden
Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction
MehrEfficient Learning of Label Ranking by Soft Projections onto Polyhedra
Efficient Learning of Label Ranking by Soft Projections onto Polyhedra Technische Universität Darmstadt 18. Januar 2008 Szenario Notation duales Problem Weitere Schritte Voraussetzungen Tests Szenario
MehrMathematik 2 für Wirtschaftsinformatik
für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar
Mehr3 Statische Optimierung: Mit Beschränkungen
3 Statische Optimierung: Mit Beschränkungen Den nachfolgenden Betrachtungen liegt das statische Optimierungsproblem mit Gleichungsund Ungleichungsbeschränkungen gemäß (.) in der Form min f(x) Kostenfunktion
MehrOptimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 5 Optimierung mit Nebenbedingungen 1 Minimierung mit Gleichheitsrestriktionen Gegeben: Funktion,,,, : Ziel:,,, Unrestringierter Fall: Notwendige Bedingung für lokales Minimum keine
MehrKlausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2007/2008
Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester
MehrÜbungsaufgaben Folgen und Reihen
Kallenrode, www.sotere.uos.de Übungsaufgaben Folgen und Reihen. Untersuchen Sie die folgenden Folgen auf Monotonie, Beschränktheit und Konvergenz (geben Sie gegebenenfalls den Grenzwert an): inverse Fakultäten:,,
MehrOperations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung
Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden
Mehr