Kapitel 8: Suche nach Nullstellen und Extremwerten

Größe: px
Ab Seite anzeigen:

Download "Kapitel 8: Suche nach Nullstellen und Extremwerten"

Transkript

1 Kapitel 8: Suche nach Nullstellen und Extremwerten Nullstellensuche (root finding) Einfachste Variante: Suche Nullstelle(n) einer 1D-Funktion: f(x) = 0 (1) Dies umfaßt bereits scheinbar andere Fälle, z.b. Schnittpunkt(e) zweier Funktionen: f(x) = c f(x) c = 0 (2) f(x) = g(x) f(x) g(x) = 0 (3) oder auch das tabellarische Aufstellen impliziter Funktionen: z.b. definiert implizit eine Funktion y = f(x). In der Form exp( x 2 y 2 ) = x 2 y + y 2 x 3 (4) exp( x 2 y 2 ) x 2 y + y 2 x 3 = 0 (5) kann man für beliebig vorgegebene Werte x jedoch durch Nullstellensuche den y-wert finden, der zu y = f(x) gehört. Für das Problem f(x) = 0 gibt es verschiedene, relativ robuste und allgemeine Verfahren, die aber iterativ sind und auch scheitern können. Daher ist eine numerische Lösung nur sinnvoll, wenn eine analytische Lösung nicht möglich ist (Auflösen von f(x) und ggf. g(x) nach x). Der nd-fall sieht ähnlich aus f( x) = 0, (6) ist aber u.u. extrem schwierig, siehe Diskussion dazu am Ende dieses Kapitels. Nullstellen eingrenzen (bracketing) In 1D ist es möglich, Nullstellen (ungerader Ordnung) zunächst einzugrenzen, also ein Intervall zu finden, in dem sich (mindestens) eine Nullstelle befinden muß, wenn die Funktion stetig ist: Finde [a, b], so daß : sign{f(a)} sign{f(b)} (7) Tatsächlich gibt es aber mehrere einfache Möglichkeiten, wie dieses Rezept scheitern kann, z.b.: mehrfache oder eng benachbarte Nullstellen: Vorzeichenwechsel nicht vorhanden oder schwer lokalisierbar; Polstellen können Gl.7 erfüllen, ohne daß eine Nullstelle vorhanden ist. Die Eingrenzung kann auch scheitern. Trotzdem empfiehlt es sich, eine Eingrenzung vorzunehmen, und viele Algorithmen gehen auch davon aus. 1

2 2

3 Bisektion Mit einer banalen Intervallteilung kann man eine eingegrenzte Nullstelle sicher und beliebig genau finden: 1. Gegeben sei ein eingrenzendes Intervall [a, b], so daß sign{f(a)} sign{f(b)} 2. Halbiere das Intervall: c = a + (b a)/2 3. Berechne f(c) 4. Ersetze entweder a oder b durch c, sodaß [a, c] bzw. [c, b] wieder ein eingrenzendes Intervall ist 5. Wenn ǫ = b a oder f(c) kleiner ist als eine gewünschte Toleranz, stop. 6. Sonst: Gehe zu (2) Beachte: Pro Iteration genau eine Funktionsauswertung. Vorteile: extrem einfach; funktioniert garantiert (genauer: was auch immer den Vorzeichenwechsel verursacht, wird gefunden); gleichmäßige Konvergenz: Wenn die Nullstelle bei der n-ten Iteration in einem Intervall der Breite ǫ n war, wird sie bei der (n + 1)-ten Iteration in einem halb so breiten Intervall sein: ǫ n+1 = ǫ n /2 (8) Nachteile: Daher ist die für eine gewünschte Endtoleranz ǫ f nötige Anzahl n von Iterationen bei einer gegebenen Anfangsintervallbreite ǫ 0 im voraus angebbar: n = log 2 ǫ 0 ǫ f (9) (Mehr als 40 Iterationen sind i.d.r. kaum nötig, weil ) findet nur eine Nullstelle, wenn mehrere im Anfangsintervall; Konvergenz nur linear, langsamer als andere Methoden. 3

4 Sekantenmethode, regula falsi (false position method) In der engeren Umgebung einer Nullstelle kann die Funktion durch eine Taylorreihe approximiert werden, die bereits nach dem linearen Term abgebrochen wird. Ersetzen wir die 1.Ableitung (Differentialquotient, Tangente) im linearen Term durch eine einfache numerische Approximation daran (Differenzenquotient, Sekante), erhalten wir diese beiden Methoden (beachte: wieder nur eine Funktionsauswertung pro Iteration): 1. Gegeben sei ein eingrenzendes Intervall [a, b], so daß sign{f(a)} sign{f(b)} 2. Konstruiere die Gerade g(x) durch die beiden Punkte (a, f(a)) und (b, f(b)) 3. Ermittle c als Nullstelle dieser Geraden: g(c) = 0 4. Berechne f(c) 5. Alternative Ersetzungsregeln: regula falsi: Ersetze entweder a oder b durch c, sodaß [a, c] bzw. [c, b] wieder ein eingrenzendes Intervall ist Sekantenmethode: Ersetze den älteren der beiden Punkte a und b durch c. 6. Wenn ǫ = b a oder f(c) kleiner ist als eine gewünschte Toleranz, stop. 7. Sonst: Gehe zu (2) Unterschied: Bei der regula falsi bleibt die Nullstelle strikt eingegrenzt (wie bei Bisektion), bei der Sekantenmethode nicht; daher kann die Sekantenmethode versagen. Dafür konvergiert die Sekantenmethode schneller und in vorhersagbarer Weise: mit dem goldenen Schnitt ϕ = (1 + 5)/ lim ǫ k+1 ǫ k ϕ (10) k Situation, in der beide Methoden extrem langsam konvergieren: 4

5 Sekantenmethode: regula falsi: 5

6 Newton-Raphson Wenn die 1.Ableitung von f(x) analytisch zur Verfügung steht, kann man statt lokaler Sekantenapproximationen auch die Tangente verwenden, um eine neue Approximation an die Nullstelle zu konstruieren. Da man für die Sekante zwei Punkte braucht, aber für die Tangente nur einen (und die Steigung), kommt man dann auch ganz ohne Intervallschachtelungen aus: 1. Rate einen Startpunkt x i, i = 1 2. Berechne f(x i ) und f (x i ) 3. Approximiere die Funktion lokal durch die Tangente, d.h. die nächste Approximation für die Nullstelle ist die Nullstelle der Geraden durch den Punkt (x i, f(x i )) mit der Steigung f (x i ). Die Endformel dafür ist: x i+1 = x i f(x i) f (x i ) (11) 4. Wenn die Schrittweite abs(x i+1 x i ) oder der Funktionswert f(x i+1 ) kleiner ist als eine Toleranzgrenze, stop. 5. Sonst i i Gehe zu (2). Beachte: pro Iterationsschritt brauchen wir hier zusätzlich zur Funktionsberechnung auch einmal eine Ableitungsberechnung. Wenn diese Ableitung numerisch approximiert werden muß (finite Differenzen), ist daher besser, regula falsi oder das Sekantenverfahren zu verwenden! 6

7 Vorteile: kein Anfangsintervall nötig, nur ein einzelner Startwert quadratische Konvergenz: Nachteile: die Tangentenextrapolation kann auch spektakulär schiefgehen; keine Möglichkeit, die Nullstellenapproximationen in einem eingrenzenden Intervall zu halten. Fehler im Newton-Verfahren: Divergenz: Fehler im Newton-Verfahren: Oszillation: 7

8 Extremwertsuche = Optimierung Eindimensionale Minimierung Maximierung von f(x) ist Minimierung von f(x), daher ist im folgenden immer nur von Minimierung die Rede. Zur Eingrenzung von Minima braucht man nicht zwei, sondern drei Punkte: Die stetige Funktion f(x) hat im Intervall [a, b] mit a < c < b ein Minimum, wenn f(c) < f(a) und f(c) < f(a). Die drei Punkte a, b, c sind jedoch im Prinzip leichter zu finden als bei der Nullstellensuche: Die Vorschrift gehe runter (ggf. in immer größeren Schritten), bis die Funktion wieder ansteigt, ist sehr oft erfolgreich, aber auch nicht immer: 2 Beispiele für Fehlersituationen:

9 Intervallschachtelung nach dem goldenen Schnitt Minimierung in Analogie zur Bisektion bei der Nullstellensuche (ebenfalls mit einer Funktionsauswertung pro Iteration): 1. Gegeben sei ein Intervall [a, b] und ein weiterer Punkt c, die ein Minimum eingrenzen (s.o.). 2. Konstruiere einen neuen Punkt d im größeren der beiden Intervalle [a, c] bzw. [c, b] (dies sei z.b. [c, b]), sodaß d im größeren der beiden Intervalle (hier: [c, b]) liegt und zwar von c aus gesehen um die Strecke w (b c) in dieses Intervall hinein, mit w = (3 5)/2 (dadurch erreicht man eine über die sukzessiven Intervallschachtelungen skaleninvariant optimale Unterteilung, siehe Numerical Recipes) 3. Abbruch, wenn die Punkte c, d ausreichend dicht beieinander liegen; beste Approximation ans Minimum: der kleinere der beiden Werte f(c), f(d). Sonst: 4. Wähle aus den jetzt vier Punkten a, c, d, b ein neues Triplett von Punkten, sodaß das neue Triplett das mit den niedrigst möglichen Funktionswerten ist und gleichzeitig noch das Minimum eingrenzt. 5. Gehe zu (2). Das jeweils nächste Intervall ist hier mal so breit wie das vorige; nicht ganz so gut wie das Verhältnis 0.5 bei Bisektion (in beiden Fällen ist die Konvergenz linear). 9

10 Inverse parabolische Interpolation Ähnlich wie eine Funktion in der Nähe einer Nullstelle näherungsweise linear ist, ist eine Funktion in der Nähe eines Minimums näherungsweise parabolisch. Das Pendant zu den Sekantenmethoden ist daher die inverse parabolische Interpolation: 1. Gegeben sei ein Intervall [a, b] und ein weiterer Punkt c, die ein Minimum eingrenzen (s.o.). 2. Konstruiere eine Parabel durch a, c, b; der neue Punkt d ergibt das Minimum dieser Parabel und ist explizit gegeben durch: d = b 1 (b a) 2 [f(b) f(c)] (b c) 2 [f(b) f(a)] 2 (b a)[f(b) f(c)] (b c)[f(b) f(a)] (12) 3. Abbruch, wenn die Punkte c, d ausreichend dicht beieinander liegen; beste Approximation ans Minimum: der kleinere der beiden Werte f(c), f(d). Sonst: 4. Wähle aus den jetzt vier Punkten a, c, d, b ein neues Triplett von Punkten, sodaß das neue Triplett das mit den niedrigst möglichen Funktionswerten ist und gleichzeitig noch das Minimum eingrenzt. 5. Gehe zu (2). Problematisch dabei ist, daß Gl.12 genausogut zu einem Maximum wie zu einem Minimum führen kann und natürlich versagt, wenn die Funktionsform stark von einer Parabel abweicht. 10

11 Ein robusteres Praxisverfahren ist daher die Minimierung nach Brent, bei der je nach Erfolg Schritte gemäß inverser parabolischer Interpolation bzw. gemäß goldenem Schnitt eingesetzt werden. 1.Ableitungsinformation kann in unterschiedlicher Weise eingesetzt werden, zwischen folgenden Extremen: konservativ: nur zur Entscheidung, ob ein neuer Punkt d in [a, c] oder in [c, b] liegen sollte; aggressiv: Konstruktion von interpolierenden Polynomen höherer Ordnung, unter Verwendung von Funktions- und Ableitungsinformation einiger alter Punkte. Welche Strategierichtung erfolgreicher ist, hängt davon ab, wie pathologisch die untersuchte Funktion ist. Multidimensionale Minimierung Hier haben wir eine zunächst unbekannte Funktion f( x) (die wir jedoch an einzelnen Punkten berechnen können). Von dieser Funktion suchen wir Minima, Maxima, Sattelpunkte, usw. Anwendungsbeispiel: die potentielle Energie V als Funktion der Molekülgeometrie (berechnet mit ab-initio-methoden, semiempirischen Methoden, Kraftfeldern,...). Dann sind Minima = (meta)stabile Molekülkonfigurationen; Sattelpunkte 1. Ordnung = (mögliche) Übergangszustände chemischer Reaktionen. Daher sind multidimensionale Optimierungsverfahren Teil der meisten Chemie-Programmpakete. Offensichtlich braucht man dabei hocheffiziente Varianten, weil jede einzelne Funktions- /Ableitungsberechnung extrem zeitaufwendig sein kann. Im Unterschied zu 1D ist in nd eine strikte Eingrenzung meist unmöglich bereits in 2D schlicht schon deshalb, weil es ausgehend von einem Punkt unendlich viele verschiedene Richtungen weg von diesem Punkt gibt. Daher kann ich in der Praxis i.d.r. nicht garantieren, daß es in alle diese Richtungen immer nur aufwärts geht! Daher gibt es keine (exakten) hochdimensionalen Analogien zu den 1D-Intervallteilungsverfahren. Natürlich sind trotzdem alle Verfahren iterativ, d.h. sie benötigen einen (geratenen) Startpunkt. Eine 1D-Minimierung findet mit möglichst wenigen Funktionsberechnungen das Minimum in einer gegebenen Richtung (von a nach b). Beim nd-fall kommt ein zweites Problem hinzu: In welche Richtung sollte man überhaupt gehen? 11

12 Methode des steilsten Abstiegs 1. Gegeben sei ein Startpunkt x i, i = 1, im Suchraum. 2. Berechne den Gradienten g i = f( x i ); die Richtung des steilsten Abstiegs ist dann gegeben durch g i. 3. Verwende einen beliebigen 1D-Minimierungsalgorithmus, um in dieser Richtung das Minimum zu finden. 4. Wenn abs(f( x i ) f( x i 1 )) kleiner als eine gegebene Toleranz, stop. 5. Sonst: i i Gehe zu (2). Wesentlicher Nachteil: Sukzessive Schrittrichtungen stehen per Konstruktion aufeinander senkrecht. Dies führt jedoch im allgemeinen nicht direkt zum Minimum bzw. ist schlecht an schwierigere Funktionsformen angepaßt: 12

13 Bessere Algorithmen verwenden mehr Information über die zu minimierende Funktion. Dazu approximieren wir die unbekannte Funktion lokal durch eine quadratische Form (vgl. Abschnitt nichtlineare Regression in Kapitel 6!): f( x) = c g x + 1 x A x + (13) 2 Im Unterschied zur nichtlinearen Regression ist von der analytischen Form von f( x) hier jedoch gar nichts bekannt, also haben wir auch keine Information über analytische Formen von Gradient oder Hesse-Matrix. Trotzdem können wir Information aus diesem Taylorreihenansatz gewinnen: A) Bei der nichtlinearen Regression hatten wir bereits verwendet: x min = x i A 1 g xi (14) Ein solcher Newton-Schritt führt uns von einem beliebigen Punkt x i zum Minimum x min der approximativen quadratischen Form. Dazu müssen wir allerdings die Hesse-Matrix (exakt!) kennen, machen aber trotzdem einen Fehler, weil die quadratische Form nur eine lokale Approximation an die eigentliche zu minimierende Funktion ist. B) Statt der zueinander senkrechten Schrittvektoren des steilsten Abstiegs x i x i+1 = 0 (15) können wir sogenannte zueinander konjugierte Richtungen verwenden: x i A x i+1 = 0 (16) n Schritte entlang konjugierter Richtungen (mit jeweils einer 1D-Minimierung) führen in n Dimensionen exakt ins Minimum der approximativen quadratischen Form. Man unterscheidet zwei Hauptklassen von Verfahren: quasi-newton (variable metric): Wir starten mit einer geratenen Hesse-Matrix und machen Newton-artige Schritte; die dabei gewonnene Information über die Funktion wird zur Korrektur der Hesse-Matrix verwendet. Richtungsmethoden (conjugate gradient u.a.): Mit sehr viel Raffinesse ist es möglich, Schritte in zueinander konjugierte Richtungen zu machen und dabei die Hesse-Matrix indirekt zu berücksichtigen, ohne sie jemals explizit berechnen zu müssen. Bei quasi-newton-verfahren muß also die Hesse-Matrix abgespeichert werden, was bei hochdimensionalen Problemen (z.b. Strukturoptimierung von Proteinen mit Kraftfeldmethoden) schwierig werden kann; dort werden bevorzugt Richtungsmethoden verwendet. In anderen Fällen sind quasi-newton-verfahren evtl. etwas besser; z.b. gibt es hier spezielle Varianten, die keine exakten 1D-Minimierungen entlang jeder Richtung benötigen. Wie bei der Extremwertsuche in einer Dimension finden all diese Verfahren auch Sattelpunkte erster und höherer Ordnung aufgrund numerischer Instabilitäten aber nur, wenn der Startpunkt nahe genug am Sattelpunkt liegt. Alle diese Verfahren finden nur den Extremwert, in dessen Einzugsbereich der Startpunkt liegt, und enden dort. Eine systematische Suche z.b. nach den energetisch tiefstliegenden Molekülkonfigurationen erfordert Methoden, die solchen lokalen Minima entkommen können und mehr oder weniger gezielt globale Minima finden. 13

14 Mehrdimensionale nichtlineare Nullstellensuche Eine Möglichkeit, das Problem f( x) = 0 zu lösen, ist eine einfache Erweiterung von 1D-Newton-Raphson: Wir entwickeln f in eine Taylorreihe: mit der Jacobi-Matrix J: f( x + δ x) = f( x) + J δ x + O(δ x 2 ) (17) J ij = f i x j (18) Wenn wir quadratische und höhere Terme vernachlässigen (! lineare Approximation, i.ggs. zur quadratischen bei der multidimensionalen Minimierung) und f( x + δ x) = 0 setzen, finden wir als Korrekturschritt δ x zur Nullstelle: x i+1 = x i + δ x = x i J 1 f (19) Dummerweise ist die direkte Verwendung dieser Vorschrift in nd erheblich kritischer als die Verwendung von Newton-Raphson in 1D. Die i.a. zu gefährlichen Newton-Raphson-Schritte lassen sich jedoch folgendermaßen entschärfen: Für die Hilfsfunktion F = 1 2 f f ist der Schritt nach Gl.19 ein Schritt steilsten Abstiegs: F δ x = ( fj) ( J 1 f) = f f < 0 (20) Also kann man zunächst immer den Schritt nach Gl.19 versuchen. Wenn sich dadurch jedoch F nicht verkleinert, reicht es aus, in derselben Richtung weniger weit zu gehen (backtracking), bis sich eine akzeptable Schrittweite ergibt. 14

15 Warum ist nd-nullstellensuche schwieriger als nd-minimierung? Wir können zwar hoffen, n Unbekannte mit n Gleichungen bestimmen zu können, aber es gibt keine Garantie, daß eine Lösung existiert. Bei der oben vorgestellten nd-minimierung sind die Gradientenkomponenten voneinander abhängig. Das ganze Problem ist vorstellbar als die Suche nach einem tiefsten Punkt in einer hügeligen Landschaft. Es gibt daher lokale Information (Gradient steilster Abstieg), die zwangsläufig zum Erfolg führen muß. Im Gegensatz dazu sind n nichtlineare Gleichungen i.a. unabhängig voneinander. Für nur zwei Funktionen f(x, y) = 0 und g(x, y) = 0 ist das wie unten abgebildet vorstellbar. Lösungen sind an den Schnittpunkten der Null-Konturen f = 0 und g = 0, die völlig unabhängig voneinander sind und jeweils auch aus mehreren unzusammenhängenden Teilen bestehen können. Um festzustellen, ob es Lösungen gibt und wenn ja, wie viele, müßte man alle diese Teil-Konturen komplett nach Schnittpunkten absuchen. Die Situation wird dadurch noch weiter verkompliziert, daß die oben eingeführte Hilfsfunktion F multiple Minima hat, z.b. an allen Stellen, an denen sich f = 0 und g = 0 nahe kommen, wie etwa im Punkt M dort befindet sich jedoch keine Lösung des Gleichungssystems. 15

Nullstellen von algebraischen Gleichungen

Nullstellen von algebraischen Gleichungen Kapitel 2 Nullstellen von algebraischen Gleichungen 2.1 Vorbemerkungen Suche Lösung der Gleichung f(x) = 0 (2.1) Dies ist die Standardform für eine Dimension. - typisch nichtlineare Gleichung, sonst elementar

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Practical Numerical Training UKNum

Practical Numerical Training UKNum Practical Numerical Training UKNum 3: Nullstellenbestimmung C. Mordasini Max Planck Institute for Astronomy, Heidelberg Program: 1) Introduction 2) Bisektion 3) Newton-Raphson 4) Sekanten 5) Regula falsi

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

Kapitel 5 Nichtlineare Gleichungssysteme und Iterationen

Kapitel 5 Nichtlineare Gleichungssysteme und Iterationen Kapitel 5 Nichtlineare Gleichungssysteme und Iterationen Wir betrachten das System f() = 0 von n skalaren Gleichungen f i ( 1,..., n ) = 0, i = 1,..., n. Gesucht: Nullstelle von f() = 0. Es sei (0) eine

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Numerische Ableitung

Numerische Ableitung Numerische Ableitung Die Ableitung kann angenähert werden durch den Differentenquotient: f (x) f(x + h) f(x) h oder f(x + h) f(x h) 2h für h > 0, aber h 0. Beim numerischen Rechnen ist folgendes zu beachten:

Mehr

Newton-Verfahren für ein Skalarfunktion

Newton-Verfahren für ein Skalarfunktion Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren

Mehr

Gleichungsbasierte Modellierung

Gleichungsbasierte Modellierung 1 Gleichungsbasierte Modellierung Die Benutzung von Gleichungen zur Geometrischen Modellierung wurde bereits von Sutherland eingeführt. Fortgeführt wurde sie durch die Arbeiten von Light und Gossard. Wie

Mehr

Iterative Verfahren: Allgemeines, Fixpunkt-Iteration, Nullstellen. Prof. U. Rüde - Algorithmik kontinuierlicher Systeme

Iterative Verfahren: Allgemeines, Fixpunkt-Iteration, Nullstellen. Prof. U. Rüde - Algorithmik kontinuierlicher Systeme Algorithmik kontinuierlicher Systeme Iterative Verfahren: Allgemeines, Fiunkt-Iteration, Nullstellen Motivation Viele numerische Probleme lassen sich nicht mit endlich vielen Schritten lösen Nullstellen

Mehr

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6.1 Nullstellen reeller Funktionen Bemerkung 6.1 (Problemstellung) geg.: f C[a, b] ges.: x [a, b] mit f(x ) = 0 Lösungstheorie f linear

Mehr

Optimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 1 Newton Verfahren Taylor Approximation 1. Ordnung von Newton Verfahren! 0 Setze 0und berechne Löse lineares Gleichungssystem für : 2

Mehr

( ) Dann gilt f(x) g(x) in der Nähe von x 0, das heisst. Für den Fehler r(h) dieser Näherung erhält man unter Verwendung von ( )

( ) Dann gilt f(x) g(x) in der Nähe von x 0, das heisst. Für den Fehler r(h) dieser Näherung erhält man unter Verwendung von ( ) 64 Die Tangente in x 0 eignet sich also als lokale (lineare) Näherung der Funktion in der Nähe des Punktes P. Oder gibt es eine noch besser approximierende Gerade? Satz 4.9 Unter allen Geraden durch den

Mehr

12. Potentialflächen und Optimierung

12. Potentialflächen und Optimierung Dr. Jens Döbler Computeranwendung in der Chemie Informatik für Chemiker(innen) 12. Potentialflächen und Optimierung Jens Döbler 2004 "Computer in der Chemie", WS 2003-04, Humboldt-Universität VL12 Folie

Mehr

Inhalt Kapitel I: Nichtlineare Gleichungssysteme

Inhalt Kapitel I: Nichtlineare Gleichungssysteme Inhalt Kapitel I: Nichtlineare Gleichungssysteme I Nichtlineare Gleichungssysteme I. Nullstellenbestimmung von Funktionen einer Veränderlichen I.2 I.3 Newton-Verfahren Kapitel I (UebersichtKapI) 3 Bisektionsverfahren

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Nichtlineare Gleichungssysteme Jetzt: Numerische Behandlung nichtlinearer GS f 1 (x 1,..., x n ) =0. f n (x 1,..., x n ) =0 oder kurz f(x) = 0 mit f : R n R n Bemerkung: Neben dem direkten Entstehen bei

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 11.12.2008 Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 1/ 18 Einführung Einführung Verfahren für

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

Nullstellenberechnung von nichtlinearen Funktionen

Nullstellenberechnung von nichtlinearen Funktionen Kapitel 3 Nullstellenberechnung von nichtlinearen Funktionen In dieser Vorlesung wird nur die Nullstellenberechnung reeller Funktionen einer reellen Variablen f : R R betrachtet. Man nennt die Nullstellen

Mehr

Nichtlineare Gleichungen in einer und mehreren Unbekannten

Nichtlineare Gleichungen in einer und mehreren Unbekannten (MUL) 1. März 2012 1 / 37 Nichtlineare Gleichungen in einer und mehreren Unbekannten 2. Vorlesung 170 004 Numerische Methoden I Clemens Brand MUL 1. März 2012 Gliederung 1 Wiederholung Begriffe, Verfahren

Mehr

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für

Mehr

Bestimmung der Wurzeln nichtlinearer Gleichungen. Mária Lukáčová (Uni-Mainz) Nichtlineare Gleichungen June 22, / 10

Bestimmung der Wurzeln nichtlinearer Gleichungen. Mária Lukáčová (Uni-Mainz) Nichtlineare Gleichungen June 22, / 10 Bestimmung der Wurzeln nichtlinearer Gleichungen Mária Lukáčová (Uni-Mainz) Nichtlineare Gleichungen June 22, 2010 1 / 10 Problem Definition Gegeben f : (a, b) R R. Finde α (a, b) : Existiert eine Lösung?

Mehr

Modulprüfung Numerische Mathematik 1

Modulprüfung Numerische Mathematik 1 Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel

Mehr

3 Nichtlineare Gleichungssysteme

3 Nichtlineare Gleichungssysteme 3 Nichtlineare Gleichungsssteme 3.1 Eine Gleichung in einer Unbekannten Problemstellung: Gegeben sei die stetige Funktion f(). Gesucht ist die Lösung der Gleichung f() = 0. f() f() a) f ( ) 0 b) f ( )

Mehr

GMA. Grundlagen Mathematik und Analysis. Nullstellen und Fixpunkte Reelle Funktionen 3. Christian Cenker Gabriele Uchida

GMA. Grundlagen Mathematik und Analysis. Nullstellen und Fixpunkte Reelle Funktionen 3. Christian Cenker Gabriele Uchida GMA Grundlagen Mathematik und Analysis Reelle Funktionen 3 Christian Cenker Gabriele Uchida Data Analytics and Computing Nullstellen cos log : 0, 0,? 1 Fixpunkte Beispiel 1 Beispiel 2 1 0 0 und 1 1sin,?

Mehr

Nichtlineare Gleichungen in einer und mehreren Unbekannten

Nichtlineare Gleichungen in einer und mehreren Unbekannten Gleichungen in einer und mehreren Unbekannten 2. Vorlesung 170004 Numerische Methoden I Clemens Brand 26. Februar 2009, Gliederung,, Gleichungen in einer Variablen Was ist... Wie geht... eine lineare (nichtlineare,

Mehr

Numerisches Lösen von Gleichungen

Numerisches Lösen von Gleichungen Numerisches Gesucht ist eine Lösung der Gleichung f(x) = 0. Das sverfahren ist eine numerische Methode zur Bestimmung einer Nullstelle. Es basiert auf dem Zwischenwertsatz: Satz (1.1.1) Zwischenwertsatz:

Mehr

Nichtlineare Gleichungen

Nichtlineare Gleichungen Nichtlineare Gleichungen Ein wichtiges Problem in der Praxis ist die Bestimmung einer Lösung ξ der Gleichung f(x) =, () d.h. das Aufsuchen einer Nullstelle ξ einer (nicht notwendig linearen) Funktion f.

Mehr

Nichtlineare Gleichungen in einer und mehreren Unbekannten

Nichtlineare Gleichungen in einer und mehreren Unbekannten Nichtlineare Gleichungen in einer und mehreren Unbekannten 2. Vorlesung 170004 Numerische Methoden I Clemens Brand 25. Februar 2010 Newton- Gliederung Newton-, ng Newton- , Fragenliste Nichtlineare Gleichungen

Mehr

Näherungsverfahren zur Bestimmung der Nullstelle α sind iterativ, d.h. sie liefern eine Folge {x (k) } k=0 mit α = lim x (k). (3.0.

Näherungsverfahren zur Bestimmung der Nullstelle α sind iterativ, d.h. sie liefern eine Folge {x (k) } k=0 mit α = lim x (k). (3.0. 3 Nullstellenbestimmung von Funktionen Sei x f(x) eine reellwertige Funktion, definiert auf einem Intervall I = [a, b] R. suchen Nullstellen der Funktion f, d.h. Wir finde α R so, das f(α) = 0. (3.0.1)

Mehr

Iterative Lösung von nichtlinearen Gleichungen und Gleichungssystemen

Iterative Lösung von nichtlinearen Gleichungen und Gleichungssystemen Kapitel 5 Iterative Lösung von nichtlinearen Gleichungen und Gleichungssstemen 5.1 Iterationsverfahren zur Lösung einer reellen nichtlinearen Gleichung Es sei g() eine im Intervall I definierte reellwertige

Mehr

6. Numerische Lösung des. Nullstellenproblems

6. Numerische Lösung des. Nullstellenproblems 6. Numerische Lösung des Nullstellenproblems 1 Problemstellung Zwischenwertsatz: Sei f : [a,b] R stetig und c R mit f(a) c f(b) oder f(b) c f(a). Dann gibt es ein x [a,b] mit f(x) = c. Frage: Wie lässt

Mehr

Teil 6. Differentialrechnung mehrerer Veränderlicher

Teil 6. Differentialrechnung mehrerer Veränderlicher Teil 6 Differentialrechnung mehrerer Veränderlicher 95 96 6.1 Topologie von Mengen Umgebung ε-umgebung eines Punktes x R n : B ε (x) = {y : y x < ε} Umgebung U von x: Menge, die eine ε-umgebung von x enthält

Mehr

KAPITEL 5. Nichtlineare Gleichungssysteme

KAPITEL 5. Nichtlineare Gleichungssysteme KAPITEL 5. Nichtlineare Gleichungssysteme Beispiel 5.1. Gravitationskraft zwischen zwei Punktmassen m 1 und m 2 mit gegenseitigem Abstand r: F = G m 1m 2 r 2, wobei G = 6.67 10 11 Nm 2 /kg. Gravitationsfeld

Mehr

Inhaltsübersicht für heute:

Inhaltsübersicht für heute: Inhaltsübersicht für heute: Freie Nichtlineare Optimierung Orakel, lineares/quadratisches Modell Optimalitätsbedingungen Das Newton-Verfahren Line-Search-Verfahren Inhaltsübersicht für heute: Freie Nichtlineare

Mehr

(a), für i = 1,..., n.

(a), für i = 1,..., n. .4 Extremwerte Definition Sei M R n eine Teilmenge, f : M R stetig, a M ein Punkt. f hat in a auf M ein relatives (oder lokales) Maximum bzw. ein relatives (oder lokales) Minimum, wenn es eine offene Umgebung

Mehr

1 Umkehrfunktionen und implizite Funktionen

1 Umkehrfunktionen und implizite Funktionen Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13

Mehr

Das Trust-Region-Verfahren

Das Trust-Region-Verfahren Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein

Mehr

Nichtlineare Gleichungen, mehrere Unbekannte

Nichtlineare Gleichungen, mehrere Unbekannte Dritte Vorlesung, 6. März 2008, Inhalt Aufarbeiten von Themen der letzten Vorlesung, und Nichtlineare Gleichungen, mehrere Unbekannte Systeme nichtlinearer Gleichungen Vektor- und Matrixnormen Fixpunkt-Iteration,

Mehr

Mathematik. für das Ingenieurstudium. 10 Funktionen mit mehreren Variablen. Jürgen Koch Martin Stämpfle.

Mathematik. für das Ingenieurstudium. 10 Funktionen mit mehreren Variablen. Jürgen Koch Martin Stämpfle. 10 Funktionen mit mehreren Variablen www.mathematik-fuer-ingenieure.de 2010 und, Esslingen Dieses Werk ist urheberrechtlich geschützt. Alle Rechte, auch die der Übersetzung, des Nachdruckes und der Vervielfältigung

Mehr

Optimale Steuerung 1

Optimale Steuerung 1 Optimale Steuerung 1 Kapitel 6: Nichtlineare Optimierung unbeschränkter Probleme Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Parameteranpassung für Phasengleichgewicht

Mehr

Fixpunkt-Iterationen

Fixpunkt-Iterationen Fixpunkt-Iterationen 2. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 27. Februar 2014 Gliederung Wiederholung: Gleichungstypen, Lösungsverfahren Grundprinzip

Mehr

Übungsaufgaben Folgen und Reihen

Übungsaufgaben Folgen und Reihen Kallenrode, www.sotere.uos.de Übungsaufgaben Folgen und Reihen. Untersuchen Sie die folgenden Folgen auf Monotonie, Beschränktheit und Konvergenz (geben Sie gegebenenfalls den Grenzwert an): inverse Fakultäten:,,

Mehr

5 Numerische Mathematik

5 Numerische Mathematik 6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul

Mehr

Finite Elemente Methoden (aus der Sicht des Mathematikers) Alfred Schmidt

Finite Elemente Methoden (aus der Sicht des Mathematikers) Alfred Schmidt Finite Elemente Methoden (aus der Sicht des Mathematikers) Alfred Schmidt Übersicht Partielle Differentialgleichungen, Approximation der Lösung Finite Elemente, lineare und höhere Ansatzfunktionen Dünn

Mehr

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren

Mehr

18.4 Das Newton-Verfahren

18.4 Das Newton-Verfahren 18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift

Mehr

Approximation von Nullstellen mit Hilfe der Ableitung Mit Tangenten geht es oft einfacher und schneller als mit Sehnen oder Sekanten

Approximation von Nullstellen mit Hilfe der Ableitung Mit Tangenten geht es oft einfacher und schneller als mit Sehnen oder Sekanten Gegeben ist die Funktion f mit f(x :' x 4 & 2@x 3 & 3@x 2 % 3@x % 2 Man erkennt leicht, dass es durch die Dominanz des vierten Potenzterms ( x 4 genügt, die Funktion über dem Intervall [ -3 ; 3 ] zu betrachten,

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

7. Nichtlineare Gleichngssysteme. Problem 7: Sei f : R n R n stetig. Löse f(x) = 0.

7. Nichtlineare Gleichngssysteme. Problem 7: Sei f : R n R n stetig. Löse f(x) = 0. 7. Nichtlineare Gleichngssysteme Problem 7: Sei f : R n R n stetig. Löse f(x) = 0. Das Gleichungssystem f(x) = 0 lässt sich in die Fixpunktgleichung x = φ(x) umschreiben, wobei φ : D R n R n. Beispielsweise

Mehr

Kapitel 16 : Differentialrechnung

Kapitel 16 : Differentialrechnung Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen

Mehr

Klausurlösung Einführung in Numerische Methoden und FEM Universität Siegen, Department Maschinenbau,

Klausurlösung Einführung in Numerische Methoden und FEM Universität Siegen, Department Maschinenbau, Universität Siegen, Department Maschinenbau, 7.7. Aufgabe y 3 l 3 3 F l l x Das dargestellte Fachwerk soll statisch mit Hilfe der FEM untersucht werden. Die Knoten und Elemente sind in der Abbildung nummeriert.

Mehr

Das Gradientenverfahren

Das Gradientenverfahren Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1

Mehr

Ausgleichsproblem. Definition (1.0.3)

Ausgleichsproblem. Definition (1.0.3) Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst

Mehr

Lösung zur Serie 8. x + 2x 2 sin(1/x), falls x 0, f(x) := 0, falls x = 0. = lim

Lösung zur Serie 8. x + 2x 2 sin(1/x), falls x 0, f(x) := 0, falls x = 0. = lim Lösung zur Serie 8 Aufgabe 40 Wir zeigen in dieser Aufgabe, dass die Voraussetzung dass die Funktion in einer kleinen Umgebung injektiv sein muss, beim Satz über die Umkehrfunktion notwendig ist. Hierzu

Mehr

9 Differentialrechnung für Funktionen in n Variablen

9 Differentialrechnung für Funktionen in n Variablen $Id: diff.tex,v.7 29/7/2 3:4:3 hk Exp $ $Id: ntaylor.tex,v.2 29/7/2 3:26:42 hk Exp $ 9 Differentialrechnung für Funktionen in n Variablen 9.6 Lagrange Multiplikatoren Die Berechnung von Maxima und Minima

Mehr

Übungsaufgaben zur Kurvendiskussion

Übungsaufgaben zur Kurvendiskussion SZ Neustadt Mathematik Torsten Warncke FOS 12c 30.01.2008 Übungsaufgaben zur Kurvendiskussion 1. Gegeben ist die Funktion f(x) = x(x 3) 2. (a) Untersuchen Sie die Funktion auf Symmetrie. (b) Bestimmen

Mehr

10.6. Implizite ebene Kurven und Tangenten

10.6. Implizite ebene Kurven und Tangenten 0.6. Implizite ebene Kurven und Tangenten Im Gegensatz zu expliziten Darstellungen sind weder implizite noch Parameterdarstellungen einer Kurve eindeutig. Der Übergang von impliziten zu expliziten Darstellungen

Mehr

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b.

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b. NumaMB F14 Verständnisfragen-Teil (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Bewertung: Vier Fragen richtig beantwortet

Mehr

AM3: Differenzial- und Integralrechnung im R n. 1 Begriffe. 2 Norm, Konvergenz und Stetigkeit. x 1. x 2. f : x n. aus Platzgründen schreibt man:

AM3: Differenzial- und Integralrechnung im R n. 1 Begriffe. 2 Norm, Konvergenz und Stetigkeit. x 1. x 2. f : x n. aus Platzgründen schreibt man: AM3: Differenzial- und Integralrechnung im R n 1 Begriffe f : x 1 f 1 x 1, x 2,..., x n ) x 2... f 2 x 1, x 2,..., x n )... x n f m x 1, x 2,..., x n ) }{{}}{{} R n R m aus Platzgründen schreibt man: f

Mehr

7.11. Extrema unter Nebenbedingungen

7.11. Extrema unter Nebenbedingungen 7.11. Extrema unter Nebenbedingungen Randextrema Wir haben schon bemerkt, daß die üblichen Tests mit Hilfe von (eventuell höheren) Ableitungen nur Kriterien für (lokale) Extrema im Inneren des Definitionsgebietes

Mehr

NEXTLEVEL im WiSe 2011/12

NEXTLEVEL im WiSe 2011/12 Fachbereich Mathematik der Universität Hamburg Dr. H. P. Kiani NEXTLEVEL im WiSe 2011/12 Vorlesung 5, Teil 2 Linearisierung, einige Eigenschaften differenzierbarer Funktionen Die ins Netz gestellten Kopien

Mehr

Vorlesung: Analysis I für Ingenieure

Vorlesung: Analysis I für Ingenieure Vorlesung: Analysis I für Ingenieure Michael Karow Thema: Satz von Taylor Die Taylor-Entwicklung I Satz von Taylor. Sei f : R D R an der Stelle x n-mal differenzierbar. Dann gilt für x D, n f (k) (x )

Mehr

2.6 Lokale Extrema und Mittelwertsatz

2.6 Lokale Extrema und Mittelwertsatz 2.6. Lokale Etrema und Mittelwertsatz 49 2.6 Lokale Etrema und Mittelwertsatz In diesem Kapitel bezeichne f stets eine reellwertige Funktion, definiert auf einem abgeschlossenen Intervall [a, b]. Unter

Mehr

18.2 Implizit definierte Funktionen

18.2 Implizit definierte Funktionen 18.2 Implizit definierte Funktionen Ziel: Untersuche Lösungsmengen von nichtlinearen Gleichungssystemen g(x) = 0 mit g : D R m, D R n, d.h. betrachte m Gleichungen für n Unbekannte mit m < n, d.h. wir

Mehr

Kapitel 6. Nichtlineare Gleichungen. 6.1 Einführung. Problem: Idee: Beispiel:

Kapitel 6. Nichtlineare Gleichungen. 6.1 Einführung. Problem: Idee: Beispiel: Kapitel 6 Nichtlineare Gleichungen 6. Einführung Problem: Gesucht sind Lösungen nichtlinearer Gleichungen bzw. Systeme, das heißt es geht beispielsweise um die Bestimmung der Nullstellen eines Polynoms

Mehr

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016 Verständnisfragen-Teil ( Punkte) Jeder der Verständnisfragenblöcke besteht aus Verständnisfragen. Werden alle Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block Punkte.

Mehr

Algorithmen zur Nullstellenbestimmung Ac 2018

Algorithmen zur Nullstellenbestimmung Ac 2018 Algorithmen zur Nullstellenbestimmung Ac 2018 Bestimmt werden sollen Lösungen x der Gleichung f(x) = 0 für eine stetige Funktion f. Diese Lösungen x nennt man Nullstellen von f. 1. Methode: Bisektionsverfahren

Mehr

Fixpunkt-Iterationen

Fixpunkt-Iterationen Fixpunkt-Iterationen 2. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 3. März 2016 Nichtlineare Gleichungen, Fixpunkt-Iterationen 1 Wiederholung Aufgabentypen

Mehr

2 Funktionen in mehreren Variablen: Differentiation

2 Funktionen in mehreren Variablen: Differentiation Satz 2. (Richtungsableitung) Für jede auf der offenen Menge D R n total differenzierbaren Funktion f (insbesondere für f C 1 (D, R) und für jeden Vektor v R n, v 0, gilt: n v f(x) = f(x) v = f xi (x)v

Mehr

Kapitel 6 Differential- und Integralrechnung in mehreren Variablen

Kapitel 6 Differential- und Integralrechnung in mehreren Variablen Kapitel 6 Differential- und Integralrechnung in mehreren Variablen Inhaltsverzeichnis FUNKTIONEN IN MEHREREN VARIABLEN... 3 BEISPIELE UND DARSTELLUNGEN... 3 GRENZWERT UND STETIGKEIT (ABSTANDSBEGRIFF)...

Mehr

Mathematischer Vorkurs NAT-ING II

Mathematischer Vorkurs NAT-ING II Mathematischer Vorkurs NAT-ING II (02.09.2013 20.09.2013) Dr. Jörg Horst WS 2013-2014 Mathematischer Vorkurs TU Dortmund Seite 1 / 252 Kapitel 7 Differenzierbarkeit Mathematischer Vorkurs TU Dortmund Seite

Mehr

Weitere Anwendungen der Differentialrechnung

Weitere Anwendungen der Differentialrechnung Weitere Anwendungen der Differentialrechnung Informationsblatt Aus der großen Zahl von Anwendungsmöglichkeiten der Differentialrechnung werden das Newton sche Näherungsverfahren und die Taylor-Reihen vorgestellt.

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Aufgaben zur nicht-linearen Optimierung Teil II Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Aufgabe 5 Bestimmen

Mehr

Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung

Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung TU Bergakademie Freiberg Sommersemester Dr. Gunter Semmler Dr. Anja Kohl Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung Differentialrechnung für Funktionen

Mehr

Unterprogramme: Formalargumente und Übergabeargumente

Unterprogramme: Formalargumente und Übergabeargumente Unterprogramme: Formalargumente und Übergabeargumente SUBROUTINE name(var1,var2,var3) Deklarationen ausführbare Anweisungen name= END SUBROUTINE name Formalargumente Der Aufruf des Unterprogramms: CALL

Mehr

Problem lokaler Minima

Problem lokaler Minima Optimierung Optimierung Häufige Aufgabe bei Parameterschätzung: Minimierung der negativen log-likelihood-funktion F(a) oder der Summe der quadratischen Abweichungen S(a) und Berechnung der Unsicherheit

Mehr

Kontinuierliche Optimierung

Kontinuierliche Optimierung Kontinuierliche Optimierung Markus Herrich Wintersemester 2018/19 ii Inhaltsverzeichnis 2 Optimalitäts- und Regularitätsbedingungen 1 2.1 Einleitung und Wiederholung.................... 1 2.2 Optimalitätsbedingungen

Mehr

Mathematik I Herbstsemester 2018 Kapitel 4: Anwendungen der Differentialrechnung

Mathematik I Herbstsemester 2018 Kapitel 4: Anwendungen der Differentialrechnung Mathematik I Herbstsemester 2018 Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/ farkas 1 / 55 4. Anwendungen der Differentialrechnung Monotonie Krümmung Linearisierung einer Funktion Extremwerte

Mehr

5 Differenzialrechnung für Funktionen einer Variablen

5 Differenzialrechnung für Funktionen einer Variablen 5 Differenzialrechnung für Funktionen einer Variablen Ist f eine ökonomische Funktion, so ist oft wichtig zu wissen, wie sich die Funktion bei kleinen Änderungen verhält. Beschreibt etwa f einen Wachstumsprozess,

Mehr

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h. Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,

Mehr

Klausur. Physik auf dem Computer SS JP Dr. Axel Arnold Dr. Olaf Lenz Florian Fahrenberger Dominic Röhm 15. August 2012

Klausur. Physik auf dem Computer SS JP Dr. Axel Arnold Dr. Olaf Lenz Florian Fahrenberger Dominic Röhm 15. August 2012 Universität Stuttgart Institut für Computerphysik Klausur Physik auf dem Computer SS 2012 JP Dr. Axel Arnold Dr. Olaf Lenz Florian Fahrenberger Dominic Röhm 15. August 2012 Name Vorname Matrikelnummer

Mehr

1 Polynome III: Analysis

1 Polynome III: Analysis 1 Polynome III: Analysis Definition: Eine Eigenschaft A(x) gilt nahe bei a R, falls es ein δ > 0 gibt mit A(x) gilt für alle x (a δ, a + δ)\{a} =: U δ (a) Beispiele: x 2 5 nahe bei 0 (richtig). Allgemeiner:

Mehr

Mathematik für Sicherheitsingenieure I A

Mathematik für Sicherheitsingenieure I A Priv.-Doz. Dr. J. Ruppenthal Wuppertal, 9.0.08 Dr. T. Pawlaschyk Mathematik für Sicherheitsingenieure I A Aufgabe. (5+5+6+4 Punkte) a) Geben Sie für jede der folgenden Aussagen an, ob sie WAHR oder FALSCH

Mehr

QUADRATISCHE FUNKTIONEN

QUADRATISCHE FUNKTIONEN QUADRATISCHE FUNKTION DARSTELLUNG MIT DER FUNKTIONSGLEICHUNG Allgemeine Form - Vorzeichen von a gibt an, ob die Funktion nach oben (+) oder unten (-) geöffnet ist. Der Wert (Betrag) von gibt an, ob die

Mehr

Nichtlineare Ausgleichsrechnung

Nichtlineare Ausgleichsrechnung 10. Großübung Nichtlineare Ausgleichsrechnung Allgemeines Problem: Wir betrachten ein nichtlineares System F : R n R m mit (m > n, d.h. das System ist überbestimmt und F i (x g(t i ; x g i! 0 i 1,.., m.

Mehr

Name: Matr.-Nr.: 2. Aufgabe 1. Gegeben sei die Matrix

Name: Matr.-Nr.: 2. Aufgabe 1. Gegeben sei die Matrix Name: Matr.-Nr.: 2 Aufgabe 1. Gegeben sei die Matrix 1 1 1 A = 3 3 3 2 2 2 (a) Bestimmen Sie Rang(A), Kern(A) und Bild(A). Ist A invertierbar? Geben Sie zwei verschiedene rechte Seiten b 1, b 2 an, so

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 2 Nichtlineare Gleichungssysteme Problem: Für vorgegebene Abbildung f : D R n R n finde R n mit oder ausführlicher f() = 0 (21) f 1 ( 1,, n ) = 0, f n ( 1,, n ) = 0 Einerseits führt die mathematische

Mehr

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum. Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit

Mehr

Musterlösungen zur Leistungsnachweisklausur vom Studiengang Informatik, Ingenieurinformatik, Lehramt

Musterlösungen zur Leistungsnachweisklausur vom Studiengang Informatik, Ingenieurinformatik, Lehramt TU ILMENAU Institut für Mathematik Numerische Mathematik PD Dr. W. Neundorf Musterlösungen zur Leistungsnachweisklausur vom.0.006 Studiengang Informatik, Ingenieurinformatik, Lehramt 1. Lineare Algebra

Mehr

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf. IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN

TECHNISCHE UNIVERSITÄT MÜNCHEN Prof Dr M Keyl M Kech TECHNISCHE UNIVERSITÄT MÜNCHEN Zentrum Mathematik Mathematik für Physiker 3 (Analysis 2) MA923 http://wwwm5matumde/allgemeines/ma923_26s Sommersem 26 Probeklausur (4726) Krümmung

Mehr

1 Übungsaufgaben zu Kapitel 1

1 Übungsaufgaben zu Kapitel 1 Übungsaufgaben zu Kapitel. Übungsaufgaben zu Abschnitt... Aufgabe. Untersuchen Sie die nachstehend definierten Folgen ( a k ) k und ( b k ) k auf Konvergenz und bestimmen Sie ggf. den jeweiligen Grenzwert:

Mehr

Dierentialrechnung mit einer Veränderlichen

Dierentialrechnung mit einer Veränderlichen Dierentialrechnung mit einer Veränderlichen Beispiel: Sei s(t) die zum Zeitpunkt t zurückgelegte Wegstrecke. Dann ist die durchschnittliche Geschwindigkeit zwischen zwei Zeitpunkten t 1 und t 2 gegeben

Mehr

Berechnung von Extrema

Berechnung von Extrema KAPITEL 2 Berechnung von Extrema 1. Partielle Ableitungen Definition 2.1 (partielle Ableitung). Sei U R n offen und e j der j-te Einheitsvektor. Eine Funktion f : U R ist in x u partiell differenzierbar

Mehr

dx nf(x 0). dx f(n 1) (x 0 ) = dn

dx nf(x 0). dx f(n 1) (x 0 ) = dn 4.3. Höhere Ableitungen, Konveität, Newtonverfahren 65 4.3 Höhere Ableitungen, Konveität, Newtonverfahren Ist f:i R differenzierbar auf einem Intervall I, so erhalten wir eine neue Funktion auf I, nämlich

Mehr