Das Gradientenverfahren

Größe: px
Ab Seite anzeigen:

Download "Das Gradientenverfahren"

Transkript

1 Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, / 28

2 Gliederung 0 Einführung 1 Allgemeines Abstiegsverfahren 2 Schrittweitenberechnung 3 Das Gradientenverfahren David Beisel Das Gradientenverfahren December 10, / 28

3 Einführung Einführung Bisher: Ableitungsfreie Verfahren Auch hier: Unresigniertes Optimierungsproblem: (PU) min x R n f (x) Unterschied: Zielfunktion f : R n R muss wenigstens stetig differenzierbar sein Ziel: Unter Verwendung von Ableitungen berechnen wir eine lokale Lösung von (PU) Ableitungsbasierte Verfahren Heute: Das Gradientenverfahren David Beisel Das Gradientenverfahren December 10, / 28

4 Einführung Einführung Was ist ein Gradient? Ein Gradient ist ein mathematischer Operator bzw. Differentialoperator Der Gradient ordnet einem Skalarfeld ein Gradientenfeld (Vektorfeld) zu, das die Änderungsrate und Richtung der größten Änderung es Skalarfeldes angibt Der Gradient wird mit dem sogenannten Nabla-Operator gebildet David Beisel Das Gradientenverfahren December 10, / 28

5 Einführung Einführung Grundidee des Gradientenverfahrens Das Gradientenverfahren wird auch Verfahren des steilsten Abstiegs genannt Von einem Startwert bzw. Näherungswert schreitet man in Richtung des negativen Gradienten fort, bis keine numerische Verbesserung mehr erzielt wird Es wird der negative Gradient verwendet, weil der Gradient die Richtung des größten Anstiegs angibt, wir aber die Richtung des steilsten Abstiegs von dem Näherungswert aus verwenden wollen David Beisel Das Gradientenverfahren December 10, / 28

6 Allgemeines Abstiegsverfahren 1. Allgemeines Abstiegsverfahren 1.1. Standardvoraussetzung Mit einem gegebenen Punkt x (0) R n (dies ist bei Verfahren der Startpunkt) ist die Niveaumenge N 0 := N (f, f (x (0) )) = {x R n f (x) f (x (0) )} kompakt. Die Zielfunktion f ist auf einer konvexen, offenen Obermenge D 0 von N 0 stetig differenzierbar. David Beisel Das Gradientenverfahren December 10, / 28

7 Allgemeines Abstiegsverfahren 1. Allgemeines Abstiegsverfahren 1.2. Optimalitätsbedingung Sei (PU) weiterhin min x R n f (x) In jeder lokalen Lösung x von (PU) ist die notwendige Optimalitätsbedingung f ( x) = f ( x) T = 0 n (1.2.1) erfüllt d.h. x ist stationärer Punkt von f. David Beisel Das Gradientenverfahren December 10, / 28

8 Allgemeines Abstiegsverfahren 1. Allgemeines Abstiegsverfahren 1.2. Optimalitätsbedingung Sei (PU) weiterhin min x R n f (x) In jeder lokalen Lösung x von (PU) ist die notwendige Optimalitätsbedingung f ( x) = f ( x) T = 0 n (1.2.1) erfüllt d.h. x ist stationärer Punkt von f. Um eine lokale Lösung von (PU) zu berechnen, löst man die Gleichung (1.2.1) um einen stationären Punkt zu erhalten. Dies ist nur bei einfachen Fällen analytisch möglich Man benötigt ein numerisches Verfahren. David Beisel Das Gradientenverfahren December 10, / 28

9 Allgemeines Abstiegsverfahren 1. Allgemeines Abstiegsverfahren Bemerkung: Bei konvexen Zielfunktionen entspricht ein stationärer Punkt einem globalen Minimalpunkt. In der Praxis wird sich in den meisten Fällen schon mit einem lokalen Minimalpunkt zufrieden gegeben Es wird schon als Erfolg gewertet überhaupt einen lokalen Minimalpunkt zu finden. Auch durch einen lokalen Minimalpunkt wird bei der Problemstellung eine Verbesserung erzielt David Beisel Das Gradientenverfahren December 10, / 28

10 Allgemeines Abstiegsverfahren 1. Allgemeines Abstiegsverfahren 1.3. Lemma Die Funktion f : R n R sei differenzierbar in x. Weiter sei d R n mit f (x) T d < 0 (1.3.1) Dann gibt es ein σ > 0 mit f (x + σd) < f (x) für alle σ ]0, σ[. David Beisel Das Gradientenverfahren December 10, / 28

11 Allgemeines Abstiegsverfahren 1. Allgemeines Abstiegsverfahren 1.3. Lemma Die Funktion f : R n R sei differenzierbar in x. Weiter sei d R n mit f (x) T d < 0 (1.3.1) Dann gibt es ein σ > 0 mit f (x + σd) < f (x) für alle σ ]0, σ[. Bemerkung: Die Bedingung ist im Zusammenhang mit Optimierungsverfahren die Standardbedingung für Abstiegsrichtungen David Beisel Das Gradientenverfahren December 10, / 28

12 Allgemeines Abstiegsverfahren 1. Allgemeines Abstiegsverfahren 1.4. Definition Ist f : R n R differenzierbar in x, dann heißt der Vektor d R n Abstiegsrichtung von f in Punkt x, wenn f (x) T d < 0 ist. David Beisel Das Gradientenverfahren December 10, / 28

13 Allgemeines Abstiegsverfahren 1. Allgemeines Abstiegsverfahren 1.5. Verfahren (1) Wähle einen Startpunkt x (0) R n und setze k := 0. (2) Ist f (x (k) ) = 0 n, dann stoppe das Verfahren. (3) Berechne eine Abstiegsrichtung d (k), eine Schrittweite σ k > 0 mit f (x (k) + σ k d (k) ) < f (x (k) ) und x (k+1) = x (k) + σ k d (k). (4) Setze k := k + 1 und gehe zu 2. David Beisel Das Gradientenverfahren December 10, / 28

14 Allgemeines Abstiegsverfahren 1. Allgemeines Abstiegsverfahren Beispiel Geogebra-Beispiel im 1-Dimensionalen Optimierungsfall: f (x) = 2x 2 x + 3 In diesem Beispiel ist x = 0, 25 Da f (x) eine konvexe Funktion ist, ist x sogar globales Minimum David Beisel Das Gradientenverfahren December 10, / 28

15 Schrittweitenberechnung 2. Schrittweitenberechnung 2.1. Problemstellung Bei einem Abstiegsverfahren sei im Iterationspunkt x (k) eine Abstiegsrichtung d (k) berechnet worden. Wählt man eine hinreichend kleine Schrittweite σ k, so gilt mit x (k+1) = x (k) + σ k d (k) nach Lemma 1.3: f (x (k+1) ) < f (x (k) ), d.h. man erhält eine streng monoton fallende Folge {f (x (k) )}. Dies alleine reicht aber nicht aus, um Konvergenz zu erhalten. David Beisel Das Gradientenverfahren December 10, / 28

16 Schrittweitenberechnung 2 Schrittweitenberechnung 2.2. Beispiel Wir betrachten die Funktion f (x) = x 2 mit x (0) = 1. Weiter sei Dann ist d (k) = 1 und σ k = ( 1 2 )k+2 k 0 x (k+1) = x (k) σ k = x (0) k i=0 ( 1 2 )i+2 = ( 1 2 )k+2 David Beisel Das Gradientenverfahren December 10, / 28

17 Schrittweitenberechnung 2 Schrittweitenberechnung 2.2. Beispiel Wir betrachten die Funktion f (x) = x 2 mit x (0) = 1. Weiter sei Dann ist d (k) = 1 und σ k = ( 1 2 )k+2 k 0 x (k+1) = x (k) σ k = x (0) k i=0 ( 1 2 )i+2 = ( 1 2 )k+2 Also gilt x (k+1) < x (k) und daher f (x (k+1) ) < f (x (k) ) für alle k 0, aber x (k) 1 2, d.h., die Folge {x (k) } konvergiert nicht gegen den Minimalpunkt x = 0 von f. David Beisel Das Gradientenverfahren December 10, / 28

18 Schrittweitenberechnung 2. Schrittweitenberechnung 2.3. Lösungsansatz Damit die Folge {x (k) } gegen einen stationären Punkt konvergiert muss f (x (k) ) 0 n für k gelten. Diese Bedingung sollte ein vernünftiges Abstiegsverfahren mindestens erfüllen. Benötigen eine Abschätzung wann eine Schrittweite bzw. eine Schrittweitenstrategie gut gewählt ist. David Beisel Das Gradientenverfahren December 10, / 28

19 Schrittweitenberechnung 2. Schrittweitenberechnung 2.4. Definition (1) Eine Schrittweitenstrategie σ = σ(x, d) erfüllt das Prinzip des hinreichenden Abstiegs, falls es von x N 0 und der Abstiegsrichtung d unabhänginge Konstanten c 1 > 0 und c 2 > 0 gibt mit und f (x + σd) f (x) + c 1 σ f (x) T d σ c 2 f (x) T d d 2 David Beisel Das Gradientenverfahren December 10, / 28

20 Schrittweitenberechnung 2. Schrittweitenberechnung 2.4. Definition (2) Eine Schrittweitenstrategie σ = σ(x, d) heißt effizient, falls es eine von x N 0 und der Abstiegsrichtung d unabhänginge Konstante c > 0 gibt mit f (x + σd) f (x) c( f (x)t d d ) 2 Eine Schrittweitenfolge {σ k } heißt effizient, falls sie mit einer effizienten Schrittweitenstrategie berechnet wird. David Beisel Das Gradientenverfahren December 10, / 28

21 Schrittweitenberechnung 2 Schrittweitenberechnung 2.5. Armijo-Verfahren Seien x N 0 und eine Abstiegsrichtung d R n von f in x gegeben. Weiter seien δ ]0, 1[, c 2 > 0 und 0 < β 1 β 2 < 1 von x und d unabhängige Konstanten. f (x) (1) Wähle eine Startschrittweite σ 0 für die σ 0 c T d 2 gilt. Setze d 2 j := 0. (2) Ist die Bedingung f (x + σ j d) f (x) + δσ j f (x) T d erfüllt, dann setzte σ A := σ j und stoppe das Verfahren. (3) Wähle σ j+1 [β 1 σ j, β 2 σ j ]. (4) Setze j := j + 1 und gehe zu 2. David Beisel Das Gradientenverfahren December 10, / 28

22 Das Gradientenverfahren 3. Das Gradientenverfahren 3.1. Verfahren Wir betrachten wieder das Problem (PU) und benutzen das allgemeine Abstiegsverfahren (1.4) mit der Suchrichtung d (k) = f (x (k) ). (1) Wähle einen Startpunkt x (0) R n und setze k := 0. (2) Ist f (x (k) ) = 0 n, dann stoppe das Verfahren. (3) Berechne eine effiziente Schrittweite σ k und x (k+1) = x (k) σ k f (x (k) ). (4) Setze k := k + 1 und gehe zu 2. David Beisel Das Gradientenverfahren December 10, / 28

23 Das Gradientenverfahren 3. Das Gradientenverfahren 3.2. Satz Die Voraussetzung (1.1) sei erfüllt. Stoppt das Verfahren nicht nach endlich vielen Iterationen, dann konvergiert die Folge {x (k) } gegen eine Nullstelle von f. David Beisel Das Gradientenverfahren December 10, / 28

24 Das Gradientenverfahren 3. Das Gradientenverfahren 3.2. Satz Die Voraussetzung (1.1) sei erfüllt. Stoppt das Verfahren nicht nach endlich vielen Iterationen, dann konvergiert die Folge {x (k) } gegen eine Nullstelle von f. Bemerkung: In der Praxis ist die Gleichung f (x (k) ) = 0 n oftmals nicht in endlich vielen Iterationen zu erreichen. Man schränkt die Bedingung in vielen Fällen auf f (x (k) ) ε ein. David Beisel Das Gradientenverfahren December 10, / 28

25 Das Gradientenverfahren 3. Das Gradientenverfahren 3.3. Satz (1) Folgende Voraussetzung sei erfüllt: Sei f : R n R, x (0) R und D N 0 sei nichtleer, offen und konvex. Die Funktion f sei zweimal stetig differenzierbar auf D und mit einer Konstante α 1 > 0 gelte: d T f (x)d α 1 d 2 d R n für alle x D, d.h. f ist gleichmäßig positiv definit auf D. David Beisel Das Gradientenverfahren December 10, / 28

26 Das Gradientenverfahren 3. Das Gradientenverfahren 3.3. Satz (2) Beim Allgemeinen Abstiegsverfahren (1.5) sei die Folge der Suchrichtungen {d (k) } gradientenbezogen, und die Schrittweitenfolge {σ k } sei effizient. Stoppt das Verfahren nicht nach endlich vielen Iterationen, dann konvergiert die berechnete Folge {x (k) } gegen den eindeutig bestimmten, globalen Minimalpunkt x von f. David Beisel Das Gradientenverfahren December 10, / 28

27 Das Gradientenverfahren 3. Das Gradientenverfahren 3.3. Satz (2) Beim Allgemeinen Abstiegsverfahren (1.5) sei die Folge der Suchrichtungen {d (k) } gradientenbezogen, und die Schrittweitenfolge {σ k } sei effizient. Stoppt das Verfahren nicht nach endlich vielen Iterationen, dann konvergiert die berechnete Folge {x (k) } gegen den eindeutig bestimmten, globalen Minimalpunkt x von f. Weiter gibt es eine Konstante L ]0, 1[ mit f (x (k) ) f ( x) L k (f (x (0) ) f ( x)), x (k) x 2 2 α 1 L k (f (x (0) ) f ( x)) für k 0. David Beisel Das Gradientenverfahren December 10, / 28

28 Das Gradientenverfahren 3. Das Gradientenverfahren 3.4. Satz Satz und Beweis an der Tafel David Beisel Das Gradientenverfahren December 10, / 28

29 Das Gradientenverfahren 3. Das Gradientenverfahren 3.5. Beispiel Betrachten wir die Rosenbrock-Funktion (f (x, y) = (1 x) (y x 2 ) 2 ). Über das Armijoverfahren erhalten wir effiziente Schrittweiten für das Gradientenverfahren. Mit dem Gradientenverfahren erhalten wir als einzigen stationären Punkt x = (1, 1) T. Daher konvergiert die vom Gradientenverfahren berechnete Folge {x (k) } gegen x. David Beisel Das Gradientenverfahren December 10, / 28

30 Das Gradientenverfahren 3. Das Gradientenverfahren 3.5. Beispiel Betrachten wir die Rosenbrock-Funktion (f (x, y) = (1 x) (y x 2 ) 2 ). Über das Armijoverfahren erhalten wir effiziente Schrittweiten für das Gradientenverfahren. Mit dem Gradientenverfahren erhalten wir als einzigen stationären Punkt x = (1, 1) T. Daher konvergiert die vom Gradientenverfahren berechnete Folge {x (k) } gegen x. Genauer: Wählen wir als Startpunkt ( 1.9, 2) T, stoppt das Gradientenverfahren nach 1280 Iterationen und 4539 Funktions- und Gradientenauswertungen. Die berechnete Lösung ist x = ( , ) T mit f (x) = David Beisel Das Gradientenverfahren December 10, / 28

31 Das Gradientenverfahren 3. Das Gradientenverfahren David Beisel Das Gradientenverfahren December 10, / 28

32 Das Gradientenverfahren 3. Das Gradientenverfahren David Beisel Das Gradientenverfahren December 10, / 28

33 Das Gradientenverfahren Vielen Dank für die Aufmerksamkeit! David Beisel Das Gradientenverfahren December 10, / 28

34 Das Gradientenverfahren Hausaufgaben 1) Gegeben sei das Optimierungsproblem (PU1) min x R f (x) mit f (x) = 2x 2 x + 3. Man ermittle mit dem Gradientenverfahren einen lokalen Minimalpunkt. Für die Berechnung der effizienten Schrittweite soll das Armijo-Verfahren verwendet werden, mit β 1 = β 2 = 1 2, δ = 1 2 und c 2 = 1. Der Startpunkt ist x (0) = 1. 2) Gegeben sei das 2-dimensionale Optimierungsproblem (PU2) min x R 2 f (x) mit f (x) = x x 2 2 2x 1 + x Berechne die ersten zwei Iterationen des Gradientenverfahrens mit Startpunkt x (0) = (0, 0). Für die Berechnung der effizienten Schrittweite soll weiterhin das Armijo-Verfahren verwendet werden, diesmal mit β 1 = β 2 = 1 4, δ = 1 4 und c 2 = 1. 3) Man zeige, dass bei beliebiger Startschrittweite nach endlich viele Iterationsschritten im Armijo-Verfahren die Armijo-Bedingung f (x + σ j d) f (x) + δσ j f (x) T d erfüllt ist. Hinweis: Für das Armijo-Verfahren bitte Startschrittweite 1 verwenden! David Beisel Das Gradientenverfahren December 10, / 28

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

8.3 Lösen von Gleichungen mit dem Newton-Verfahren

8.3 Lösen von Gleichungen mit dem Newton-Verfahren 09.2.202 8.3 Lösen von Gleichungen mit dem Newton-Verfahren Beispiel: + 2 e Diese Gleichung kann nicht nach aufgelöst werden, da die beiden nicht zusammengefasst werden können. e - - 2 0 Die gesuchten

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Aufgaben zur nicht-linearen Optimierung Teil II Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Aufgabe 5 Bestimmen

Mehr

3 Nichtlineare Gleichungssysteme

3 Nichtlineare Gleichungssysteme 3 Nichtlineare Gleichungsssteme 3.1 Eine Gleichung in einer Unbekannten Problemstellung: Gegeben sei die stetige Funktion f(). Gesucht ist die Lösung der Gleichung f() = 0. f() f() a) f ( ) 0 b) f ( )

Mehr

Numerische Ableitung

Numerische Ableitung Numerische Ableitung Die Ableitung kann angenähert werden durch den Differentenquotient: f (x) f(x + h) f(x) h oder f(x + h) f(x h) 2h für h > 0, aber h 0. Beim numerischen Rechnen ist folgendes zu beachten:

Mehr

ε δ Definition der Stetigkeit.

ε δ Definition der Stetigkeit. ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 2 Nichtlineare Gleichungssysteme Problem: Für vorgegebene Abbildung f : D R n R n finde R n mit oder ausführlicher f() = 0 (21) f 1 ( 1,, n ) = 0, f n ( 1,, n ) = 0 Einerseits führt die mathematische

Mehr

Universität des Saarlandes Seminar der Fachrichtung Mathematik Rudolf Umla

Universität des Saarlandes Seminar der Fachrichtung Mathematik Rudolf Umla Universität des Saarlandes Seminar der Fachrichtung Mathematik Rudolf Umla Sätze über Konvexität von Kapitel 4.7 bis 4.10 Theorem 4.7-1. Sei U ein konvexer Unterraum eines normierten Vektorraums. Dann

Mehr

Partielle Ableitungen, Gradient, Lineare Näherung, Extrema, Fehlerfortpflanzung

Partielle Ableitungen, Gradient, Lineare Näherung, Extrema, Fehlerfortpflanzung Partielle Ableitungen, Gradient, Lineare Näherung, Extrema, Fehlerfortpflanzung Jörn Loviscach Versionsstand: 29. Juni 2009, 18:41 1 Partielle Ableitungen, Gradient Die Ableitung einer Funktion f an einer

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra

Mehr

18 Höhere Ableitungen und Taylorformel

18 Höhere Ableitungen und Taylorformel 8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a

Mehr

Übungen zur Vorlesung MATHEMATIK II

Übungen zur Vorlesung MATHEMATIK II Fachbereich Mathematik und Informatik der Philipps-Universität Marburg Übungen zur Vorlesung MATHEMATIK II Prof. Dr. C. Portenier unter Mitarbeit von Michael Koch Marburg, Sommersemester 2005 Fassung vom

Mehr

Taylor-Entwicklung der Exponentialfunktion.

Taylor-Entwicklung der Exponentialfunktion. Taylor-Entwicklung der Exponentialfunktion. Betrachte die Exponentialfunktion f(x) = exp(x). Zunächst gilt: f (x) = d dx exp(x) = exp(x). Mit dem Satz von Taylor gilt um den Entwicklungspunkt x 0 = 0 die

Mehr

Iterative Methods for Improving Mesh Parameterizations

Iterative Methods for Improving Mesh Parameterizations Iterative Methods for Improving Mesh Parameterizations Autoren: Shen Dong & Michael Garland, SMI 07 Nicola Sheldrick Seminar Computergrafik April 6, 2010 Nicola Sheldrick (Seminar Computergrafik)Iterative

Mehr

2 Stetigkeit und Differenzierbarkeit

2 Stetigkeit und Differenzierbarkeit 2.1) Sei D R. a) x 0 R heißt Häufungspunkt von D, wenn eine Folge x n ) n N existiert mit x n D,x n x 0 und lim n x n = x 0. D sei die Menge der Häufungspunkte von D. b) x 0 D heißt innerer Punkt von D,

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

Anwendungen des Fréchet-Abstandes Das Constrained Free Space Diagram zur Analyse von Körperbewegungen

Anwendungen des Fréchet-Abstandes Das Constrained Free Space Diagram zur Analyse von Körperbewegungen Anwendungen des Fréchet-Abstandes Das Constrained Free Space Diagram zur Analyse von Körperbewegungen David Knötel Freie Universität Berlin, Institut für Informatik Seminar über Algorithmen Leitfaden Wiederholung

Mehr

Lineare Optimierung. bei Prof. Walter Alt. Semester: SS 2006 und WS 2009

Lineare Optimierung. bei Prof. Walter Alt. Semester: SS 2006 und WS 2009 Lineare Optimierung bei Prof. Walter Alt Semester: SS 2006 und WS 2009 Vorwort Dieses Dokument wurde als Skript für die auf der Titelseite genannte Vorlesung erstellt und wird jetzt im Rahmen des Projekts

Mehr

KLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen)

KLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen) Mathematisches Institut WS 2012/13 der Heinrich-Heine-Universität 7.02.2013 Düsseldorf Prof. Dr. Achim Schädle KLAUSUR zu Einführung in die Optimierung Bitte folgende Angaben ergänzen und DEUTLICH LESBAR

Mehr

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

Analysis I - Stetige Funktionen

Analysis I - Stetige Funktionen Kompaktheit und January 13, 2009 Kompaktheit und Funktionengrenzwert Definition Seien X, d X ) und Y, d Y ) metrische Räume. Desweiteren seien E eine Teilmenge von X, f : E Y eine Funktion und p ein Häufungspunkt

Mehr

Aufgaben für die 6. Übung zur Vorlesung Mathematik 2 für Informatiker: Analysis Sommersemester 2010

Aufgaben für die 6. Übung zur Vorlesung Mathematik 2 für Informatiker: Analysis Sommersemester 2010 Aufgaben für die 6. Übung zur Vorlesung Mathematik für Informatiker: Analysis Sommersemester 00 6. Wie hat man eine reelle Zahl α > 0 so in a b 3 positive Summanden x, y, z zu zerlegen, damit fx, y x y

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Funktionsgrenzwerte, Stetigkeit

Funktionsgrenzwerte, Stetigkeit Funktionsgrenzwerte, Stetigkeit Häufig tauchen in der Mathematik Ausdrücke der Form lim f(x) auf. x x0 Derartigen Ausdrücken wollen wir jetzt eine präzise Bedeutung zuweisen. Definition. b = lim f(x) wenn

Mehr

Mathematik-Tutorium für Maschinenbauer II: Differentialgleichungen und Vektorfelder

Mathematik-Tutorium für Maschinenbauer II: Differentialgleichungen und Vektorfelder DGL Schwingung Physikalische Felder Mathematik-Tutorium für Maschinenbauer II: Differentialgleichungen und Vektorfelder Johannes Wiedersich 23. April 2008 http://www.e13.physik.tu-muenchen.de/wiedersich/

Mehr

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz Mathematik für Bioinformatik und Systembiologie - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz WS 2009/10 Universität Freiburg Dieses Vorlesungsskript ist auf der Basis von Vorlesungen

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 4

Technische Universität München Zentrum Mathematik. Übungsblatt 4 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 4 Hausaufgaben Aufgabe 4. Gegeben sei die Funktion f : D R mit f(x) :=

Mehr

Der Abschluss D ist die Menge, die durch Hinzunahme der Intervallränder entsteht, in den obigen Beispielen also

Der Abschluss D ist die Menge, die durch Hinzunahme der Intervallränder entsteht, in den obigen Beispielen also Festlegung Definitionsbereich 11.1 Festlegung Definitionsbereich Festlegung: Wir betrachten Funktionen f : D Ñ R, deren Definitionsbereich eine endliche Vereinigung von Intervallen ist, also z.b. D ra,

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag

Mehr

II. Nichtlineare Optimierung

II. Nichtlineare Optimierung II. Nichtlineare Optimierung 1. Problemstellungen 2. Grundlagen 3. Probleme ohne Nebenbedingungen 4. Probleme mit Nebenbedingungen Theorie 5. Probleme mit Nebenbedingungen Verfahren H. Weber, FHW, OR SS06,

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.

Mehr

Dynamische Systeme eine Einführung

Dynamische Systeme eine Einführung Dynamische Systeme eine Einführung Seminar für Lehramtstudierende: Mathematische Modelle Wintersemester 2010/11 Dynamische Systeme eine Einführung 1. Existenz und Eindeutigkeit von Lösungen 2. Flüsse,

Mehr

Mathematik 1 für Wirtschaftsinformatik

Mathematik 1 für Wirtschaftsinformatik Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration

Mehr

Vorlesung: Nicht-kooperative Spieltheorie. Teil 2: Spiele in Normalform

Vorlesung: Nicht-kooperative Spieltheorie. Teil 2: Spiele in Normalform Vorlesung: Nicht-kooperative Spieltheorie Teil 2: Spiele in Normalform Dr. Thomas Krieger Wintertrimester 2009 Dr. Thomas Krieger Vorlesung: Nicht-kooperative Spieltheorie 1 Inhaltliche Motivation Es gibt

Mehr

Stetigkeit von Funktionen

Stetigkeit von Funktionen 9 Stetigkeit von Funktionen Definition 9.1 : Sei D R oder C und f : D R, C. f stetig in a D : ε > 0 δ > 0 mit f(z) f(a) < ε für alle z D, z a < δ. f stetig auf D : f stetig in jedem Punkt a D. f(a) ε a

Mehr

35 Stetige lineare Abbildungen

35 Stetige lineare Abbildungen 171 35 Stetige lineare Abbildungen Lernziele: Konzepte: Lineare Operatoren und ihre Normen Resultate: Abschätzungen für Matrizennormen Kompetenzen: Abschätzung von Operatornormen 35.1 Lineare Abbildungen.

Mehr

2. Stetige lineare Funktionale

2. Stetige lineare Funktionale -21-2. Stetige lineare Funktionale Die am Ende von 1 angedeutete Eigenschaft, die ein lineares Funktional T : D(ú) 6 verallgemeinerten Funktion macht, ist die Stetigkeit von T in jedem n 0 0 D(ú). Wenn

Mehr

Lösungsvorschläge Blatt 4

Lösungsvorschläge Blatt 4 Theoretische Informatik Departement Informatik Prof. Dr. Juraj Hromkovič http://www.ita.inf.ethz.ch/theoinf16 Lösungsvorschläge Blatt 4 Zürich, 21. Oktober 2016 Lösung zu Aufgabe 10 (a) Wir zeigen mit

Mehr

Thema 4 Limiten und Stetigkeit von Funktionen

Thema 4 Limiten und Stetigkeit von Funktionen Thema 4 Limiten und Stetigkeit von Funktionen Wir betrachten jetzt Funktionen zwischen geeigneten Punktmengen. Dazu wiederholen wir einige grundlegende Begriffe und Schreibweisen aus der Mengentheorie.

Mehr

Die Gamma-Funktion, das Produkt von Wallis und die Stirling sche Formel. dt = lim. = lim = Weiters erhalten wir durch partielle Integration, dass

Die Gamma-Funktion, das Produkt von Wallis und die Stirling sche Formel. dt = lim. = lim = Weiters erhalten wir durch partielle Integration, dass Die Gamma-Funktion, das Produkt von Wallis und die Stirling sche Formel Zuerst wollen wir die Gamma-Funktion definieren, die eine Verallgemeinerung von n! ist. Dazu benötigen wir einige Resultate. Lemma.

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

Multivariate Analysis

Multivariate Analysis Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle

Mehr

4.7 Der Taylorsche Satz

4.7 Der Taylorsche Satz 288 4 Differenziation 4.7 Der Taylorsche Satz Die Differenzierbarkeit, also die Existenz der ersten Ableitung einer Funktion, erlaubt bekanntlich, diese Funktion lokal durch eine affine Funktion näherungsweise

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

4. DIE ABLEITUNG (DERIVATIVE)

4. DIE ABLEITUNG (DERIVATIVE) 31 Dieses Skript ist ein Auszug mit Lücken aus Einführung in die mathematische Behandlung der Naturwissenschaften I von Hans Heiner Storrer, Birkhäuser Skripten. Als StudentIn sollten Sie das Buch auch

Mehr

Stetigkeit. Kapitel 4. Stetigkeit. Peter Becker (H-BRS) Analysis Sommersemester / 543

Stetigkeit. Kapitel 4. Stetigkeit. Peter Becker (H-BRS) Analysis Sommersemester / 543 Kapitel 4 Stetigkeit Peter Becker (H-BRS) Analysis Sommersemester 2016 254 / 543 Inhalt Inhalt 4 Stetigkeit Eigenschaften stetiger Funktionen Funktionenfolgen und gleichmäßige Konvergenz Umkehrfunktionen

Mehr

Mathematik II für Inf und WInf

Mathematik II für Inf und WInf Gruppenübung Mathematik II für Inf und WInf 8. Übung Lösungsvorschlag G 28 (Partiell aber nicht total differenzierbar) Gegeben sei die Funktion f : R 2 R mit f(x, ) := x. Zeige: f ist stetig und partiell

Mehr

Einführung in die Analysis

Einführung in die Analysis Ergänzungen zur Vorlesung Einführung in die Analysis Christian Schmeiser 1 Vorwort In dieser Vorlesung werden Grundbegriffe der Analysis wie Folgen und Reihen, Konvergenz und Vollständigkeit am Beispiel

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel

Mehr

Lösungsvorschläge zum 14. Übungsblatt.

Lösungsvorschläge zum 14. Übungsblatt. Übung zur Analysis III WS / Lösungsvorschläge zum 4. Übungsblatt. Aufgabe 54 Sei a R\{}. Ziel ist die Berechnung des Reihenwertes k a + k. Definiere dazu f : [ π, π] R, x coshax. Wir entwickeln f in eine

Mehr

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit) 3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände

Mehr

Dierentialgleichungen 2. Ordnung

Dierentialgleichungen 2. Ordnung Dierentialgleichungen 2. Ordnung haben die allgemeine Form x = F (x, x, t. Wir beschränken uns hier auf zwei Spezialfälle, in denen sich eine Lösung analytisch bestimmen lässt: 1. reduzible Dierentialgleichungen:

Mehr

Wenn man eine Folge gegeben hat, so kann man auch versuchen, eine Summe. a 0 + a 1 + a 2 +

Wenn man eine Folge gegeben hat, so kann man auch versuchen, eine Summe. a 0 + a 1 + a 2 + 8 Reihen 38 8 Reihen Wenn man eine Folge gegeben hat, so kann man auch versuchen, eine Summe a 0 + a + a 2 + zu bilden. Wir wollen nun erklären, was wir darunter verstehen wollen. Zunächst kann man die

Mehr

Caputo fraktionale Differentialgleichungen. 1 Riemann Liouville fraktionale Differentialgleichungen

Caputo fraktionale Differentialgleichungen. 1 Riemann Liouville fraktionale Differentialgleichungen Seminar Fraktionale Differentialgleichungen Prof. Dr. P.E. Kloeden, WS1000/2001 Caputo fraktionale Differentialgleichungen Lars Grüne, 25.1.2001 Basierend auf Fractional Differential Equations, Theory

Mehr

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei

Mehr

Numerisches Lösen von Gleichungen

Numerisches Lösen von Gleichungen Numerisches Gesucht ist eine Lösung der Gleichung f(x) = 0. Das sverfahren ist eine numerische Methode zur Bestimmung einer Nullstelle. Es basiert auf dem Zwischenwertsatz: Satz (1.1.1) Zwischenwertsatz:

Mehr

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort: Tangentengleichung Wie Sie wissen, gibt die erste Ableitung einer Funktion deren Steigung an. Betrachtet man eine fest vorgegebene Stelle, gibt f ( ) also die Steigung der Kurve und somit auch die Steigung

Mehr

27 Taylor-Formel und Taylor-Entwicklungen

27 Taylor-Formel und Taylor-Entwicklungen 136 IV. Unendliche Reihen und Taylor-Formel 27 Taylor-Formel und Taylor-Entwicklungen Lernziele: Konzepte: klein o - und groß O -Bedingungen Resultate: Taylor-Formel Kompetenzen: Bestimmung von Taylor-Reihen

Mehr

Flüsse, Fixpunkte, Stabilität

Flüsse, Fixpunkte, Stabilität 1 Flüsse, Fixpunkte, Stabilität Proseminar: Theoretische Physik Yannic Borchard 7. Mai 2014 2 Motivation Die hier entwickelten Formalismen erlauben es, Aussagen über das Verhalten von Lösungen gewöhnlicher

Mehr

Definition: Differenzierbare Funktionen

Definition: Differenzierbare Funktionen Definition: Differenzierbare Funktionen 1/12 Definition. Sei f :]a, b[ R eine Funktion. Sie heißt an der Stelle ξ ]a, b[ differenzierbar, wenn der Grenzwert existiert. f(ξ + h) f(ξ) lim h 0 h = lim x ξ

Mehr

Definition (Reguläre Ausdrücke) Sei Σ ein Alphabet, dann gilt: (ii) ε ist ein regulärer Ausdruck über Σ.

Definition (Reguläre Ausdrücke) Sei Σ ein Alphabet, dann gilt: (ii) ε ist ein regulärer Ausdruck über Σ. Reguläre Ausdrücke Definition (Reguläre Ausdrücke) Sei Σ ein Alphabet, dann gilt: (i) ist ein regulärer Ausdruck über Σ. (ii) ε ist ein regulärer Ausdruck über Σ. (iii) Für jedes a Σ ist a ein regulärer

Mehr

Die Funktion f sei (zumindest) in einem Intervall I = [a, b] definiert und dort hinreichend oft differenzierbar. f(x 0 ) f(x)

Die Funktion f sei (zumindest) in einem Intervall I = [a, b] definiert und dort hinreichend oft differenzierbar. f(x 0 ) f(x) 3.2.4. Analyse von Funktionen Die Funktion f sei (zumindest) in einem Intervall I = [a, b] definiert und dort hinreichend oft differenzierbar. Begriffe: Die Funktion f hat in x 0 I eine stationäre Stelle,

Mehr

Mathematik für Anwender I. Beispielklausur I mit Lösungen

Mathematik für Anwender I. Beispielklausur I mit Lösungen Fachbereich Mathematik/Informatik Prof. Dr. H. Brenner Mathematik für Anwender I Beispielklausur I mit en Dauer: Zwei volle Stunden + 10 Minuten Orientierung, in denen noch nicht geschrieben werden darf.

Mehr

Analysis II WS 11/12 Serie 9 Musterlösung

Analysis II WS 11/12 Serie 9 Musterlösung Analysis II WS / Serie 9 Musterlösung Aufgabe Bestimmen Sie die kritischen Punkte und die lokalen Extrema der folgenden Funktionen f : R R: a fx, y = x + y xy b fx, y = cos x cos y Entscheiden Sie bei

Mehr

Jeweils am Montag um 18:30 treffen sich Studenten in Seminarraum 3 zum gemeinsamen Lernen.

Jeweils am Montag um 18:30 treffen sich Studenten in Seminarraum 3 zum gemeinsamen Lernen. Jeweils am Montag um 18:30 treffen sich Studenten in Seminarraum 3 zum gemeinsamen Lernen. Betrachtungen zu Sprache, Logik und Beweisen Sprache Wir gehen von unserem Alphabet einigen Zusatzsymbolen aus.

Mehr

2. VEKTORANALYSIS 2.1 Kurven Definition: Ein Weg ist eine stetige Abbildung aus einem Intervall I = [a; b] R in den R n : f : I R n

2. VEKTORANALYSIS 2.1 Kurven Definition: Ein Weg ist eine stetige Abbildung aus einem Intervall I = [a; b] R in den R n : f : I R n 2. VEKTORANALYSIS 2.1 Kurven Definition: Ein Weg ist eine stetige Abbildung aus einem Intervall I = [a; b] R in den R n : f : I R n f ist in dem Fall ein Weg in R n. Das Bild f(t) des Weges wird als Kurve

Mehr

Optimierung. Florian Jarre Josef Stoer. Springer

Optimierung. Florian Jarre Josef Stoer. Springer 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Florian Jarre Josef Stoer Optimierung Springer Inhaltsverzeichnis

Mehr

2 Euklidische Vektorräume

2 Euklidische Vektorräume Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,

Mehr

Nichtlineare Optimierungsprobleme mit Komplexität

Nichtlineare Optimierungsprobleme mit Komplexität Definition eines Nichtlinearen Optimierungsproblemes (NLP) min f (x) bzw. min f (x) s.d. x S x S wobei die zulässige Menge S R n typischerweise definiert ist durch S {x R n : h(x) =, c(x) } für Gleichungs-

Mehr

Inhalt. Vorwort Mittelwertsatz der Integralrechnung... 31

Inhalt. Vorwort Mittelwertsatz der Integralrechnung... 31 Inhalt Vorwort... 5 1 Stammfunktionen... 7 1.1 Erklärung der Stammfunktionen........................................... 7 1.2 Eigenschaften der Stammfunktionen.................................... 10 1.3

Mehr

Mathematik für Wirtschaftswissenschaftler

Mathematik für Wirtschaftswissenschaftler Knut Sydsaeter Peter HammondJ Mathematik für Wirtschaftswissenschaftler Basiswissen mit Praxisbezug 2., aktualisierte Auflage Inhaltsverzeichnis Vorwort 13 Vorwort zur zweiten Auflage 19 Kapitel 1 Einführung,

Mehr

4.1 Grundlegende Konstruktionen Stetigkeit von Funktionen Eigenschaften stetiger Funktionen... 92

4.1 Grundlegende Konstruktionen Stetigkeit von Funktionen Eigenschaften stetiger Funktionen... 92 Kapitel 4 Funktionen und Stetigkeit In diesem Kapitel beginnen wir Funktionen f : Ê Ê systematisch zu untersuchen. Dazu bauen wir auf den Begriff des metrischen Raumes auf und erhalten offene und abgeschlossene

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare

Mehr

Algorithmen mit konstantem Platzbedarf: Die Klasse REG

Algorithmen mit konstantem Platzbedarf: Die Klasse REG Algorithmen mit konstantem Platzbedarf: Die Klasse REG Sommerakademie Rot an der Rot AG 1 Wieviel Platz brauchen Algorithmen wirklich? Daniel Alm Institut für Numerische Simulation Universität Bonn August

Mehr

TEILWEISE ASYNCHRONE ALGORITHMEN

TEILWEISE ASYNCHRONE ALGORITHMEN TEILWEISE ASYNCHRONE ALGORITHMEN FRANK LANGBEIN Literatur: D. Berseas, J. Tsitsilis: Parallel and distributed computatoin, pp. 48 489 URI: http://www.langbein.org/research/parallel/ Modell teilweiser asynchroner

Mehr

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57 Vorwort... 13 Vorwort zur 3. deutschen Auflage... 17 Kapitel 1 Einführung, I: Algebra... 19 1.1 Die reellen Zahlen... 20 1.2 Ganzzahlige Potenzen... 23 1.3 Regeln der Algebra... 29 1.4 Brüche... 34 1.5

Mehr

Mathematik Übungsblatt - Lösung. b) x=2

Mathematik Übungsblatt - Lösung. b) x=2 Hochschule Regensburg Fakultät Informatik/Mathematik Christoph Böhm Sommersemester 204 Technische Informatik Bachelor IT2 Vorlesung Mathematik 2 Mathematik 2 4. Übungsblatt - Lösung Differentialrechnung

Mehr

UNIVERSITÄT DORTMUND FACHBEREICH INFORMATIK

UNIVERSITÄT DORTMUND FACHBEREICH INFORMATIK UNIVERSITÄT DORTMUND FACHBEREICH INFORMATIK Thomas Fober Experimentelle Analyse Evolutionärer Algorithmen auf dem CEC 2005 Testfunktionensatz Diplomarbeit 01.07.2006 I N T E R N E B E R I C H T E I N T

Mehr

17. Penalty- und Barriere-Methoden

17. Penalty- und Barriere-Methoden H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende

Mehr

2004, x 0 (e 2x + x) x 1, x > 0. Untersuchen Sie die Funktion auf Stetigkeit an der Stelle x 0 = 0!

2004, x 0 (e 2x + x) x 1, x > 0. Untersuchen Sie die Funktion auf Stetigkeit an der Stelle x 0 = 0! Klausur 25.02.2004 Aufgabe 5 Gegeben ist die Funktion f(x) = 2004, x 0 (e 2x + x) x 1, x > 0. Untersuchen Sie die Funktion auf Stetigkeit an der Stelle x 0 = 0! Klausur 06.08.2003 Aufgabe 5 Gegeben ist

Mehr

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes

Mehr

Operations Research II (Nichtlineare und dynamische Optimierung)

Operations Research II (Nichtlineare und dynamische Optimierung) Operations Research II (Nichtlineare und dynamische Optimierung) 5. April 007 Frank Köller,, Hans-Jörg von Mettenheim & Michael H. Breitner 8.4.007 # Nichtlineare Optimierung: Überblick Allgemeine Form:

Mehr

2.3.1 Explizite Runge-Kutta-Verfahren

2.3.1 Explizite Runge-Kutta-Verfahren Somit ist y(t + h) = y + hf(t, y ) + h (f t (t, y ) + f y (t, y )f(t, y )) + O(h 3 ) Setzen wir Φ(t, y, h) := f(t, y) + h (f t(t, y) + f y (t, y)f(t, y)), so erhalten wir ein Verfahren mit der Konsistenzordnung

Mehr

Gleichmäßige Konvergenz und Funktionenräume

Gleichmäßige Konvergenz und Funktionenräume Gleichmäßige Konvergenz und Funktionenräume Isabella Lukasewitz und Andreas Brack 07.06.2010 Vortrag zum Proseminar zur Analysis Konvergenz und Funktionenräume INHALTSVERZEICHNIS Bereits in den Vorlesungen

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

9 Die Normalverteilung

9 Die Normalverteilung 9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,

Mehr

11. Folgen und Reihen.

11. Folgen und Reihen. - Funktionen Folgen und Reihen Folgen Eine Folge reeller Zahlen ist eine Abbildung a: N R Statt a(n) für n N schreibt man meist a n ; es handelt sich also bei einer Folge um die Angabe der Zahlen a, a

Mehr

6. Flüsse und Zuordnungen

6. Flüsse und Zuordnungen 6. Flüsse und Zuordnungen In diesem Kapitel werden Bewertungen von Kanten als maximale Kapazitäten interpretiert, die über solch eine Kante pro Zeiteinheit transportiert werden können. Wir können uns einen

Mehr

Die Taylorreihe einer Funktion

Die Taylorreihe einer Funktion Kapitel 6 Die Taylorreihe einer Funktion Dieser Abschnitt beschäftigt sich mit Taylorreihen, Taylorpolynomen und der Restgliedabschätzung für Taylorpolynome. Die Taylorreihe einer reellen Funktion ist

Mehr

Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation

Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation www.math.ethz.ch/education/bachelor/lectures/fs2015/other/mathematik2 biol Prof. Dr. Erich Walter

Mehr

entspricht der Länge des Vektorpfeils. Im R 2 : x =

entspricht der Länge des Vektorpfeils. Im R 2 : x = Norm (oder Betrag) eines Vektors im R n entspricht der Länge des Vektorpfeils. ( ) Im R : x = x = x + x nach Pythagoras. Allgemein im R n : x x = x + x +... + x n. Beispiele ( ) =, ( 4 ) = 5, =, 4 = 0.

Mehr

FACHCURRICULUM KL. 9. Raum und Form Figuren zentrisch strecken Üben und Festigen. Strahlensätze. Rechtwinklige Dreiecke.

FACHCURRICULUM KL. 9. Raum und Form Figuren zentrisch strecken Üben und Festigen. Strahlensätze. Rechtwinklige Dreiecke. MATHEMATIK Schönbuch-Gymnasium Holzgerlingen Seite 1/5 Ähnliche Figuren - Strahlensätze Figuren zentrisch strecken Eigenschaften der zentrischen Streckung kennen und Zentrische Streckung anwenden Strahlensätze

Mehr

Newtonverfahren Die folgende Abbildung beschreibt das Newtonverfahren zur näherungsweisen Berechnung von Nullstellen:

Newtonverfahren Die folgende Abbildung beschreibt das Newtonverfahren zur näherungsweisen Berechnung von Nullstellen: BspNr: J0011 Themenbereich Näherungsverfahren zur Nullstellenberechnung (Newtonverfahren) Ziele Probleme, die bei der näherungsweisen Nullstellenberechnung auftreten können, erkennen. Analoge Aufgabenstellungen

Mehr

Rekursiv aufzählbare Sprachen

Rekursiv aufzählbare Sprachen Kapitel 4 Rekursiv aufzählbare Sprachen 4.1 Grammatiken und die Chomsky-Hierarchie Durch Zulassung komplexer Ableitungsregeln können mit Grammatiken größere Klassen als die kontextfreien Sprachen beschrieben

Mehr

KAPITEL 6. Nichtlineare Ausgleichsrechnung

KAPITEL 6. Nichtlineare Ausgleichsrechnung KAPITEL 6 Nichtlineare Ausgleichsrechnung Beispiel 61 Gedämpfte Schwingung: u + b m u + D m u = 0, Lösungen haben die Form: u(t) = u 0 e δt sin(ω d t + ϕ 0 ) Modell einer gedämpften Schwingung y(t; x 1,

Mehr

(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.)

(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.) 3. Untergruppen 19 3. Untergruppen Nachdem wir nun einige grundlegende Gruppen kennengelernt haben, wollen wir in diesem Kapitel eine einfache Möglichkeit untersuchen, mit der man aus bereits bekannten

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr