Numerische Methoden und Algorithmen in der Physik
|
|
- Sofia Messner
- vor 7 Jahren
- Abrufe
Transkript
1 Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 1/ 18
2 Einführung Einführung Verfahren für eindimensionale Probleme Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 2/ 18
3 Übersicht Einführung Informationen Einführung Verfahren für eindimensionale Probleme Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 3/ 18
4 Informationen Ablauf: Vorlesung: donnerstags 8:30 Hörsaal, Geb. 61, DESY Übung: im Anschluss an die Vorlesung Material: Stroustrup: The C++ Programming Language, 3rd edition cpp/ Press et al: Numerical Recipes, 3rd edition Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 4/ 18
5 Übersicht Einführung Einführung Einführung Verfahren für eindimensionale Probleme Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 5/ 18
6 Optimierung Suche Minimum einer Funktion: typische Anforderungen an Algorithmen: schnell kostengünstig geringer Speicherverbrauch robust Herausforderungen: lokale Minima aufwendige Funktionsauswertungen mehrdimensionale Fälle Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 6/ 18
7 Optimierung Suche Minimum einer Funktion: Verfahren: in einer Dimension: Methode des goldenen Schnitts (f (x)) Parabelnäherung (f (x)) Simulierte Abkühlung (f (x)) in mehreren Dimensionen: Downhill-Simplex-Verfahren (f (x)) Gradientenverfahren (f (x), f ) Konjugierte-Gradienten-Verfahren (f (x), f ) Newton-Verfahren (f (x), f, H(f )) Quasi-Newton-Verfahren (f (x), f ) Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 7/ 18
8 Übersicht Einführung Einführung Verfahren für eindimensionale Probleme Klammern Methode des goldenen Schnitts Parabelnäherung Brents Methode Simulierte Abkühlung Ausblick Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 8/ 18
9 Klammern(bracketing) Minimum in Intervall [a, c]: wenn f (b) < f (a) und f (b) < f (c) für a < b < c Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 9/ 18
10 Methode des goldenen Schnitts Extremwertbestimmung analog zur Bisektion Mit a < b < c und f (b) < f (a) und f (b) < f (c) R = x 0 = a, x 3 = c und c b > b a : x 1 = b und x 2 = b + (1 R)(c b) c b b a : x 2 = b x 1 = b (1 R)(b a) Wiederhole, solange x 3 x 0 > ɛ(x 1 + x 2 ): f (x 2 ) < f (x 1 ): x 0 = x 1, x 1 = x 2, x 2 = R x 2 + (1 R) x 3 f (x 2 ) f (x 1 ): x 3 = x 2, x 2 = x 1, x 1 = R x 1 + (1 R) x 0 gebe x 1 bzw. x 2 als Minimum zurück Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 10/ 18
11 Erwartete Genauigkeit Habe die Funktion f (x) ein Minimum bei b und sei ɛ die Rechengenauigkeit: Taylor-Entwicklung um b: f (x) f (b) f (b)(x b) 2 Keine weitere Verbesserung, wenn zweiter Term kleiner ɛ f (b). 1 2 f (b)(x b) 2 < ɛ f (b) (x b) 2 2 f (b) < ɛ f (b) x b < 2 f (b) ɛ f (b) x b < 2 f (b) ɛ b b 2 f (b) Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 11/ 18
12 Parabelnäherung Nähere Funktion mit Parabel an: f (x) P(x) = c 1 + c 2 x + c 3 x 2 und f (a) = P(a) f (b) = P(b) f (c) = P(c) Lösung des Gleichungssytems: c 1 (a f (c) c f (a))b2 +(c 2 f (a) a 2 f (c))b+ac(a c)f (b) (a b)(a c)(c b) c 2 a2 (f (c) f (b))+c 2 (f (b) f (a))+b 2 (f (a) f (c)) c 3 (a b)(a c)(c b) c(f (b) f (a))+b(f (a) f (c))+a(f (c) f (b)) (a b)(a c)(b c) Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 12/ 18
13 Benutze Minimum der Parabel Minimum von P(x): 0 = P (x m ) = c 2 + 2c 3 x m x m = (f (b) f (c))a2 +c 2 (f (a) f (b))+b 2 (f (c) f (a)) 2(c(f (a) f (b))+a(f (b) f (c))+b(f (c) f (a))) Algorithmus: Finde neuen Punkt u mit Parabelfit durch x,v und w, wobei x,v,w die bisher gefundenen Punkte mit den kleinsten Funktionswerten sind und f (x) < f (v) < f (w) u = x 1 (x v) 2 [f (x) f (w)] (x w) 2 [f (x) f (v)] 2 (x v)[f (x) f (w)] (x w)[f (x) f (v)] Berechne f (u) und wähle entsprechend neue Punkte x,v und w. Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 13/ 18
14 Brents Methode Probleme mit Parabelnäherung Parabel kann Maximum oder Minimum beschreiben, daher keine garantierte Konvergenz Brents Methode Verwende Parabelnäherung für schnelle Konvergenz und falle auf die Methode des goldenen Schnitts zurück, wenn jene scheitert. Kriterien fürs Scheitern: neuer Punkt u nicht in [a, b] Schritt d = u x größer als der halbe vorletzte Schritt Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 14/ 18
15 Simulierte Abkühlung(simulated annealing) Grundidee: Nachbildung eines Abkühlungsprozesses: langsame Abkühlung sorgt dafür, dass die Moleküle ausreichend Zeit haben, sich zu ordnen und stabile Kristalle zu bilden. Dadurch wird ein energiearmer Zustand, nahe am Optimum erreicht Einfache Anwendung: 1 wähle zufälligen Schritt d zwischen [ δ, δ] mit u = x + d 2 wenn E(u) < E(x) wähle x = u 3 sonst: wähle x = u mit Wahrscheinlichkeit p(u) exp( E(u) E(x T ) 4 erniedrige langsam T und die maximale Schrittweite δ Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 15/ 18
16 Simulierte Abkühlung Grundlage: Metropolisalgorithmus Akzeptiere immer Schritte bergab und manchmal Schritte bergauf (engl.: Metropolis-Hastings algorithm Metropolis et. al. 1953) Eigenschaften der Simulierten Abkühlung: findet globale Minima auch für kombinatorische Probleme anwendbar z.b. Handlungsreisendenproblem wenn Schrittrichtung zufällig, fast immer falsch bei mehrdimensionalen Räumen viele Funktionsauswertungen gutes Abkühlungsschema muss wolhüberlegt sein oder empirisch gefunden werden Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 16/ 18
17 Beispiel Aufgabe: Suche Minimum von f (x) = x sin(x) zwischen 4 und 6. Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 17/ 18
18 Ausblick weitere Ideen: Benutze mehrere Pfade in der simulierte Abkühlung, um sicher das globale Minimum zu finden(genetische Algorithmen). Minimierung in mehreren Dimensionen: Benutze Gradienten (und Hesse-Matrix), um die Richtung zum Minimum zu finden. Benutze dann die bekannten Minimierungsalgorithmen in einer Dimensionen, um die Länge des Schritts zu finden. Beispiele: Gradientenverfahren Konjugierte-Gradienten-Verfahren Quasi-Newton-Verfahren Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 18/ 18
Numerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 18.12.2008 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 39 Einführung NP-vollständige Probleme
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 29.01.2009 Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 1/ 18 Einführung Fourier-Transformation
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 08.01.2009 Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 1/ 32 Einführung Wahrscheinlichkeit Verteilungen
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 13.11.2008 Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 1/ 28 Einführung Numerische Integration
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 04.12.2008 Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 1/ 33 Einführung Klassen Optimierung Vererbung
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate
MehrKapitel 8: Suche nach Nullstellen und Extremwerten
Kapitel 8: Suche nach Nullstellen und Extremwerten Nullstellensuche (root finding) Einfachste Variante: Suche Nullstelle(n) einer 1D-Funktion: f(x) = 0 (1) Dies umfaßt bereits scheinbar andere Fälle, z.b.
MehrNullstellen von algebraischen Gleichungen
Kapitel 2 Nullstellen von algebraischen Gleichungen 2.1 Vorbemerkungen Suche Lösung der Gleichung f(x) = 0 (2.1) Dies ist die Standardform für eine Dimension. - typisch nichtlineare Gleichung, sonst elementar
Mehr12. Potentialflächen und Optimierung
Dr. Jens Döbler Computeranwendung in der Chemie Informatik für Chemiker(innen) 12. Potentialflächen und Optimierung Jens Döbler 2004 "Computer in der Chemie", WS 2003-04, Humboldt-Universität VL12 Folie
MehrAlgorithmen zur Datenanalyse in C++
Algorithmen zur Datenanalyse in C++ Hartmut Stadie 16.04.2012 Algorithmen zur Datenanalyse in C++ Hartmut Stadie 1/ 39 Einführung Datentypen Operatoren Anweisungssyntax Algorithmen zur Datenanalyse in
MehrAlgorithmen zur Datenanalyse in C++
Algorithmen zur Datenanalyse in C++ Hartmut Stadie 25.06.2012 Algorithmen zur Datenanalyse in C++ Hartmut Stadie 1/ 15 Einführung Zeiger, Felder und Strukturen Zufallszahlen für andere Verteilungen Algorithmen
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
MehrOptimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 1 Newton Verfahren Taylor Approximation 1. Ordnung von Newton Verfahren! 0 Setze 0und berechne Löse lineares Gleichungssystem für : 2
MehrAlgorithmen zur Datenanalyse in C++
Algorithmen zur Datenanalyse in C++ Hartmut Stadie 23.04.2012 Algorithmen zur Datenanalyse in C++ Hartmut Stadie 1/ 16 Einführung Algorithmen zur Datenanalyse in C++ Hartmut Stadie 2/ 16 Übersicht Einführung
MehrRegression IV: Anpassung mit nichtlinearen Funktionen. Teil B: Nicht linearisierbare Modelle. -Fortsetzung-
Regression IV: Anpassung mit nichtlinearen Funktionen Teil B: Nicht linearisierbare Modelle -Fortsetzung- T. Kießling: Auswertung von Messungen und Fehlerrechnung - Linienformanpassung 13.06.2018 Vorlesung
MehrStudientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Numerische Verfahren der nicht-linearen Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Line
MehrSynthese Eingebetteter Systeme. Übung 6
12 Synthese Eingebetteter Systeme Sommersemester 2011 Übung 6 Michael Engel Informatik 12 TU Dortmund 2011/07/15 Übung 6 Evolutionäre Algorithmen Simulated Annealing - 2 - Erklären Sie folgende Begriffe
MehrEndgültige Gruppeneinteilung Kohorte Innere-BP Sommersemester 2016 (Stand: )
A A1a 2197120 on on A A1a 2311330 on on on on on on on A A1a 2316420 on on A A1a 2332345 on on on on on on on A A1a 2371324 on on on on on on on A A1a 2382962 on on A A1a 2384710 on on on on on on on A
MehrTECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09
................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 Obige Angaben sind richtig: Unterschrift der Kandidatin/des Kandidaten 3 TECHNISCHE UNIVERSITÄT
MehrSoftwareprojektpraktikum Maschinelle Übersetzung
Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de Vorbesprechung 5. Aufgabe 22. Juni 2017 Human Language Technology
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
MehrPractical Numerical Training UKNum
Practical Numerical Training UKNum 3: Nullstellenbestimmung C. Mordasini Max Planck Institute for Astronomy, Heidelberg Program: 1) Introduction 2) Bisektion 3) Newton-Raphson 4) Sekanten 5) Regula falsi
MehrLösung von Optimierungsproblemen mit Monte Carlo Methoden
Lösung von Optimierungsproblemen mit Monte Carlo Methoden Am Beispiel des Problem des Handlungsreisenden Vortragende: Alexandra Vosseler Inhaltsverzeichnis I. Einleitung II. Optimierung mit MCM II.i Vom
MehrAlgorithmen zur Datenanalyse in C++
Algorithmen zur Datenanalyse in C++ Hartmut Stadie 11.06.2012 Algorithmen zur Datenanalyse in C++ Hartmut Stadie 1/ 28 Einführung Klassen Übung Algorithmen zur Datenanalyse in C++ Hartmut Stadie 2/ 28
MehrOptimierung des dynamischen Verhaltens netzstützender Anlagen am Beispiel der Virtuellen Synchronmaschine
1 / 12 Optimierung des dynamischen Verhaltens netzstützender Anlagen am Beispiel der Virtuellen Synchronmaschine EnInnov 2014, Session E2 Timo Dewenter 1, Benjamin Werther 2, Alexander K. Hartmann 1 und
MehrNewton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer
Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
MehrLocal Search Algorithmen 1
Local Search Algorithmen 1 Seminar über Algorithmen Manuel Gellfart 18.05.2012 Fachbereich Mathematik und Informatik 18.05.2012 2 Gliederung 1. Einleitung 2. Theorie 3. Beispiel: Vertex Cover 4. Beispiel:
MehrInhaltsverzeichnis. 4 Statistik Einleitung Wahrscheinlichkeit Verteilungen Grundbegriffe 98
Inhaltsverzeichnis 1 Datenbehandlung und Programmierung 11 1.1 Information 11 1.2 Codierung 13 1.3 Informationsübertragung 17 1.4 Analogsignale - Abtasttheorem 18 1.5 Repräsentation numerischer Daten 20
MehrNICHTRESTRINGIERTE OPTIMIERUNG
3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 30.10.2008 Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 1/ 48 Einführung Datentypen Operatoren
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
MehrOptimale Steuerung 1
Optimale Steuerung 1 Kapitel 6: Nichtlineare Optimierung unbeschränkter Probleme Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Parameteranpassung für Phasengleichgewicht
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 20.11.2008 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 42 Achtung: Nächste Woche am 27.11.2008
MehrInnere-Punkt-Methoden
Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction
MehrOptimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 5 Optimierung mit Nebenbedingungen 1 Minimierung mit Gleichheitsrestriktionen Gegeben: Funktion,,,, : Ziel:,,, Unrestringierter Fall: Notwendige Bedingung für lokales Minimum keine
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
MehrProblem lokaler Minima
Optimierung Optimierung Häufige Aufgabe bei Parameterschätzung: Minimierung der negativen log-likelihood-funktion F(a) oder der Summe der quadratischen Abweichungen S(a) und Berechnung der Unsicherheit
MehrNEXTLEVEL im WiSe 2011/12
Fachbereich Mathematik der Universität Hamburg Dr. H. P. Kiani NEXTLEVEL im WiSe 2011/12 Vorlesung 5, Teil 2 Linearisierung, einige Eigenschaften differenzierbarer Funktionen Die ins Netz gestellten Kopien
MehrDas Gradientenverfahren
Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1
MehrAnalysis II. Aufgaben zum Stoff der Analysis I und II Lösungsvorschlag
Prof Dr H Garcke, D Depner SS 9 NWF I - Mathematik 1979 Universität Regensburg Aufgabe 1 Analysis II Aufgaben zum Stoff der Analysis I und II Lösungsvorschlag i Erinnern Sie sich an die Konvergenzkriterien
Mehr1 Partielle Differentiation
Technische Universität München Christian Neumann Ferienkurs Analysis 2 Vorlesung Dienstag SS 20 Thema des heutigen Tages sind Differentiation und Potenzreihenentwicklung Partielle Differentiation Beim
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel
Mehr8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick
Grundlagen der Künstlichen Intelligenz 5. April 0 8. Suchalgorithmen: Lokale Suche Grundlagen der Künstlichen Intelligenz 8. Suchalgorithmen: Lokale Suche 8.1 Einleitung Malte Helmert Universität Basel
Mehr3 Nichtlineare Gleichungssysteme
3 Nichtlineare Gleichungsssteme 3.1 Eine Gleichung in einer Unbekannten Problemstellung: Gegeben sei die stetige Funktion f(). Gesucht ist die Lösung der Gleichung f() = 0. f() f() a) f ( ) 0 b) f ( )
MehrEinführung in die Programmierung für Physiker. Die Programmiersprache C Verwendung wissenschaftlicher Bibliotheken
Einführung in die Programmierung für Physiker Die Programmiersprache C Verwendung wissenschaftlicher Bibliotheken Marc Wagner Institut für theoretische Physik Johann Wolfgang Goethe-Universität Frankfurt
Mehrf f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.
Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales
Mehr3. Übung zum G8-Vorkurs Mathematik (WiSe 2011/12)
Technische Universität München Zentrum Mathematik PD Dr. Christian Karpfinger http://www.ma.tum.de/mathematik/g8vorkurs 3. Übung zum G8-Vorkurs Mathematik (WiSe 0/) Aufgabe 3.: Gehen Sie die Inhalte der
MehrExtrema multivariater Funktionen
Extrema multivariater Funktionen Ist f (x ) ein Minimum (Maximum) einer stetig differenzierbaren skalaren Funktion f auf einer Umgebung U von x, so gilt grad f (x ) = (0,..., 0) t. Extrema multivariater
MehrPraktische Optimierung
Grundlagen klassischer Optimiertechniken Praktische Optimierung Wintersemester 2008/09 Prof Dr Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund Themen der heutigen
MehrMusterlösung zum Übungsblatt Interpolation nach Newton, Nevill, Lagrange.
Angewandte Mathematik Ing.-Wiss., HTWdS Dipl.-Math. Dm. Ovrutskiy Musterlösung zum Übungsblatt Interpolation nach Newton, Nevill, Lagrange. Aufgabe 1 Approximieren Sie cos(x) auf [ /, /] an drei Stützstellen
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrMathematische Behandlung der Natur- und Wirtschaftswissenschaften I. f(x) := e x + x.
Technische Universität München WS 009/0 Fakultät für Mathematik Prof. Dr. J. Edenhofer Dipl.-Ing. W. Schultz Übung Lösungsvorschlag Mathematische Behandlung der Natur- und Wirtschaftswissenschaften I Aufgabe
Mehr11. Vorlesung Stochastische Optimierung
Soft Control (AT 3, RMA) 11. Vorlesung Stochastische Optimierung Simmulated Annealing 11. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"
MehrFerienkurs Seite 1. Technische Universität München Ferienkurs Analysis 1 Stetigkeit, Konvergenz, Topologie
Ferienkurs Seite Technische Universität München Ferienkurs Analysis Hannah Schamoni Stetigkeit, Konvergenz, Topologie Lösung 2.03.202. Gleichmäßige Konvergenz Entscheiden Sie, ob die folgenden auf (0,
MehrAusgleichsproblem. Definition (1.0.3)
Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst
MehrEuklidische Distanzmatrizen. Andrei Grecu
Euklidische Distanzmatrizen Andrei Grecu Übersicht Motivation Definition und Problemstellung Algo 1: Semidefinite Programmierung Algo 2: Multidimensional Scaling Algo 3: Spring Embedder Algo 4: Genetischer
MehrAlgorithmen zur Datenanalyse in C++
Algorithmen zur Dtennlyse in C++ Hrtmut Stdie 4.05.202 Algorithmen zur Dtennlyse in C++ Hrtmut Stdie / 5 Einführung Algorithmen zur Dtennlyse in C++ Hrtmut Stdie 2/ 5 Übersicht Einführung Informtionen
MehrKapitel 5 Nichtlineare Gleichungssysteme und Iterationen
Kapitel 5 Nichtlineare Gleichungssysteme und Iterationen Wir betrachten das System f() = 0 von n skalaren Gleichungen f i ( 1,..., n ) = 0, i = 1,..., n. Gesucht: Nullstelle von f() = 0. Es sei (0) eine
MehrLinear nichtseparable Probleme
Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrBetriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 19 1 Joachim Schauer ( Institut für
Mehr1 Polynome III: Analysis
1 Polynome III: Analysis Definition: Eine Eigenschaft A(x) gilt nahe bei a R, falls es ein δ > 0 gibt mit A(x) gilt für alle x (a δ, a + δ)\{a} =: U δ (a) Beispiele: x 2 5 nahe bei 0 (richtig). Allgemeiner:
MehrSeminar: Data Mining. Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen. Ein Vortrag von Mathias Rohde. 11.
Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen 11. Juni 2009 Gliederung 1 Problemstellung 2 Vektorprodukt Approximationen Samplesammlung 3 Schritte Lokalität und Nachrichtenkomplexität
MehrModulprüfung Numerische Mathematik 1
Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel
MehrInhaltsverzeichnis. 1 Einleitung 1 Struktur und Einsatz von Optimierungsmethoden 2 Einsatz der Optimierung in der Steuerungs- und Regelungstechnik 6
1 Einleitung 1 Struktur und Einsatz von Optimierungsmethoden 2 Einsatz der Optimierung in der Steuerungs- und Regelungstechnik 6 Teil I Statische Optimierung 2 Allgemeine Problemstellung der statischen
Mehr5. Lernregeln für neuronale Netze
5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1
Mehr5. Numerische Differentiation. und Integration
5. Numerische Differentiation und Integration 1 Numerische Differentiation Problemstellung: Gegeben ist eine differenzierbare Funktion f : [a,b] R und x (a,b). Gesucht sind Näherungen für die Ableitungen
MehrLösungsvorschlag zur Nachklausur zur Analysis
Prof Dr H Garcke, D Depner SS 09 NWF I - Mathematik 080009 Universität Regensburg Lösungsvorschlag zur Nachklausur zur Analysis Aufgabe Untersuchen Sie folgende Reihen auf Konvergenz und berechnen Sie
Mehr1 Umkehrfunktionen und implizite Funktionen
Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13
MehrInhaltsübersicht für heute:
Inhaltsübersicht für heute: Freie Nichtlineare Optimierung Orakel, lineares/quadratisches Modell Optimalitätsbedingungen Das Newton-Verfahren Line-Search-Verfahren Inhaltsübersicht für heute: Freie Nichtlineare
MehrAM3: Differenzial- und Integralrechnung im R n. 1 Begriffe. 2 Norm, Konvergenz und Stetigkeit. x 1. x 2. f : x n. aus Platzgründen schreibt man:
AM3: Differenzial- und Integralrechnung im R n 1 Begriffe f : x 1 f 1 x 1, x 2,..., x n ) x 2... f 2 x 1, x 2,..., x n )... x n f m x 1, x 2,..., x n ) }{{}}{{} R n R m aus Platzgründen schreibt man: f
MehrEinführung in die Programmierung für Physiker. Die Programmiersprache C Verwendung wissenschaftlicher Bibliotheken
Einführung in die Programmierung für Physiker Die Programmiersprache C Verwendung wissenschaftlicher Bibliotheken Marc Wagner Institut für theoretische Physik Johann Wolfgang Goethe-Universität Frankfurt
MehrNäherungsverfahren zur Bestimmung der Nullstelle α sind iterativ, d.h. sie liefern eine Folge {x (k) } k=0 mit α = lim x (k). (3.0.
3 Nullstellenbestimmung von Funktionen Sei x f(x) eine reellwertige Funktion, definiert auf einem Intervall I = [a, b] R. suchen Nullstellen der Funktion f, d.h. Wir finde α R so, das f(α) = 0. (3.0.1)
MehrTeil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006
Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden
Mehrv R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i
MOP: Pareto-Gradientenabstiegsverfahren Annahme: Zielfunktion differenzierbar Wintersemester 2007/08 Praktische Optimierung (Vorlesung) d = 1: (monokriteriell) v R n ist Abstiegsrichtung in x R n wenn
MehrHeinrich-Hertz-Oberschule, Berlin
Reellwertige Funktionen mehrerer Variabler Teilnehmer: Maximilian Ringleb Jakob Napiontek Kay Makowsky Mallku Schlagowski Trung Duc Nguyen Alexander Reinecke Herder-Oberschule, Berlin Heinrich-Hertz-Oberschule,
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
Mehr5. Numerische Differentiation. und Integration
5. Numerische Differentiation und Integration 1 Numerische Differentiation Problemstellung: Gegeben ist eine differenzierbare Funktion f : [a,b] R und x (a,b). Gesucht sind Näherungen für die Ableitungen
MehrKLAUSUR. Analysis (E-Technik/Mechatronik/W-Ing) Prof. Dr. Werner Seiler Dr. Matthias Fetzer, Dominik Wulf
KLAUSUR Analysis (E-Technik/Mechatronik/W-Ing).9.7 Prof. Dr. Werner Seiler Dr. Matthias Fetzer, Dominik Wulf Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.: Unterschrift: In der Klausur können Sie insgesamt
MehrInhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung
8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen
MehrDie Maximum-Likelihood-Methode
Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft
MehrPraktische Optimierung
Praktische Optimierung Dozent: Günter Rudolph Vertretung: Nicola Beume Wintersemester 2007/08 Universität Dortmund Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS11) Fachgebiet Computational
MehrOptimierung in R. Michael Scholz
N Optimierung in R Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) Michael Scholz Institut für Statistik und Ökonometrie Georg-August-Universität Göttingen Fortgeschrittene Mathematik: Optimierung
MehrLokale Suche. 31. Januar / 28
Lokale Suche 31. Januar 2018 1 / 28 Lokale Suche Wir betrachten das allgemeine Minimierungsproblem min y f (x, y) so dass L(x, y). Wir nehmen an, dass zu jeder Lösung y auch eine Nachbarschaft N (y) benachbarter
MehrVIII Inhaltsverzeichnis 4 Innere - Punkte - Methoden für Lineare Programme Exkurs: Newton -Verfahren,Konvergenzraten Anwendung:
Inhaltsverzeichnis 1 Einleitung... 1 1.1 Modellbildung,mathematische Formulierung............... 1 1.2 Nichtlineare Programme................................. 2 1.3 Einteilung von nichtlinearen Programmen...
Mehr6. Numerische Lösung des. Nullstellenproblems
6. Numerische Lösung des Nullstellenproblems 1 Problemstellung Zwischenwertsatz: Sei f : [a,b] R stetig und c R mit f(a) c f(b) oder f(b) c f(a). Dann gibt es ein x [a,b] mit f(x) = c. Frage: Wie lässt
MehrAutomaten, Spiele, und Logik
Automaten, Spiele, und Logik Woche 2 25. April 2014 Inhalt der heutigen Vorlesung 1. Reguläre Ausdrücke 2. der Satz von Kleene 3. Brzozowski Methode 4. grep und perl Reguläre Ausdrücke Rekursive Definition,
Mehr1. Anfangswertprobleme 1. Ordnung
1. Anfangswertprobleme 1. Ordnung 1.1 Grundlagen 1.2 Euler-Vorwärts-Verfahren 1.3 Runge-Kutta-Verfahren 1.4 Stabilität 1.5 Euler-Rückwärts-Verfahren 1.6 Differenzialgleichungssysteme 5.1-1 1.1 Grundlagen
Mehr1. Anfangswertprobleme 1. Ordnung
1. Anfangswertprobleme 1. Ordnung 1.1 Grundlagen 1.2 Euler-Vorwärts-Verfahren 1.3 Runge-Kutta-Verfahren 1.4 Stabilität 1.5 Euler-Rückwärts-Verfahren 1.6 Differentialgleichungssysteme Prof. Dr. Wandinger
MehrAufgabe V1. Ermitteln Sie, ob folgende Grenzwerte existieren und berechnen Sie diese gegebenenfalls. n 2n n 3 b) lim. n n 7 c) lim 1 1 ) 3n.
Blatt 1 V 1 Grenzwerte von Folgen Aufgabe V1 Ermitteln Sie, ob folgende Grenzwerte existieren und berechnen Sie diese gegebenenfalls. n 2 ( n! a) lim n 2n n 3 b) lim n n 7 c) lim 1 1 ) 3n n n Marco Boßle
MehrBetriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Joachim Schauer Betriebliche Optimierung 1 / 31 1 Metaheuristische Verfahren 2 Joachim Schauer Betriebliche Optimierung 2 / 31 Einleitendes Metaheuristische Verfahren
MehrComputational Intelligence 1 / 37. Berechne die Positionen potentieller Optima, d.h. die Stellen an denen der Gradient verschwindet
1 / 37 Gliederung 1 Analytische Lösung 2 Optimierungsalgorithmen Kalkülbasierte Verfahren Indirekte kalkülbasierte Verfahren Direkte kalkülbasierte Verfahren Zufallsgesteuerte Verfahren Rein zufallsgesteuerte
MehrMusterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II. x 2
Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II Wiederholungsblatt: Analysis Sommersemester 2011 W. Werner, F. Springer erstellt von: Max Brinkmann Aufgabe 1: Untersuchen Sie, ob die
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung
MehrInhaltsverzeichnis. Teil I Lineare Programmierung
Inhaltsverzeichnis 1 Einleitung................................................ 1 1.1 Modellbildung, mathematische Formulierung............... 1 1.2 Nichtlineare Programme.................................
MehrVorlesungsprüfung Differential- und Integralrechnung (PHY.C30) Fragenkatalog
Vorlesungsprüfung Differential- und Integralrechnung (PHY.C30) Fragenkatalog Im folgenden finden Sie eine Liste von typischen Prüfungsfragen für die Vorlesungsprüfung Differential- und Integralrechnung
MehrNumerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren
Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren
Mehri=1 j= 5 2. Verifizieren Sie die Gleichung indem Sie die Ausdrücke ohne Summenzeichen schreiben. j=0
Übungen zur Einführung in die Analysis (Einführung in das mathematische Arbeiten WS 2017 1. Schreiben Sie die folgenden Ausdrücke ohne Verwendung von Summen- bzw. Produktzeichen: 7 2 3 5 k 2k+1, a k, 2
Mehr