Vorlesung und Übung WS 2012/2013. Univ.-Prof. Dr. techn. Andreas KUGI OPTIMIERUNG

Größe: px
Ab Seite anzeigen:

Download "Vorlesung und Übung WS 2012/2013. Univ.-Prof. Dr. techn. Andreas KUGI OPTIMIERUNG"

Transkript

1 - Vorlesung und Übung WS 22/23 Univ.-Prof. Dr. techn. Andreas KUGI OPTIMIERUNG

2 Optimierung Vorlesung und Übung WS 22/23 Univ.-Prof. Dr. techn. Andreas KUGI TU Wien Institut für Automatisierungs- und Regelungstechnik Gruppe für komplexe dynamische Systeme Gusshausstrasse Wien Telefon: Internet: Institut für Automatisierungs- und Regelungstechnik, TU Wien

3 Inhaltsverzeichnis Einleitung. Statische Optimierungsprobleme Mathematische Formulierung Beispiele Dynamische Optimierungsprobleme Mathematische Formulierung Beispiele Mathematische Grundlagen Infimum, Supremum, Minimum und Maximum Existenz von Minima und Maxima Gradient und Hessematrix Konvexität Konvexe Mengen Konvexe Funktionen Literatur Statische Optimierung: Unbeschränkter Fall 2 2. Optimalitätsbedingungen Rechnergestützte Minimierungsverfahren: Grundlagen Liniensuchverfahren Wahl der Schrittweite Intervallschachtelungsverfahren ( Goldener Schnitt ) Quadratische Interpolation Heuristische Wahl der Schrittlänge Wahl der Suchrichtung Gradientenmethode Newton Methode Konjugierte Gradientenmethode Quasi Newton Methode Methode der Vertrauensbereiche Direkte Suchverfahren Beispiel: Rosenbrock s Bananenfunktion Literatur Statische Optimierung: Mit Beschränkungen Optimalitätsbedingungen Gleichungsbeschränkungen

4 Inhaltsverzeichnis Seite II 3..2 Sensitivitätsbetrachtung Ungleichungsbeschränkungen Rechnergestützte Optimierungsverfahren Methode der aktiven Beschränkungen Gradienten Projektionsmethode Methode der Straf- und Barrierefunktionen Straffunktionen Barrierefunktionen Sequentielle Quadratische Programmierung (SQP) Lokales SQP-Verfahren Globalisierung des SQP-Verfahrens Beispiel: Rosenbrock s Bananenfunktion Software Übersicht Literatur Dynamische Optimierung Grundlagen der Variationsrechnung Problemformulierung Optimalitätsbedingungen Stückweise stetig differenzierbare Extremale Entwurf von Optimalsteuerungen Problemformulierung Existenz einer optimalen Lösung Variationsformulierung Minimumsprinzip von Pontryagin Minimumsprinzip für eingangsaffine Systeme Kostenfunktional mit verbrauchsoptimalem Anteil Kostenfunktional mit energieoptimalem Anteil Zeitoptimales Kostenfunktional Der singuläre Fall Literatur

5 Einleitung Einzelne Teile dieses Skriptums orientieren sich am Skriptum Optimierung, das Herr Dr.-Ing. Knut Graichen im WS 29/2 im Rahmen seiner Tätigkeit am Institut für Automatisierungs- und Regelungstechnik aufgebaut hat. Ein wesentlicher Punkt in unserem Berufs- und Privatleben besteht darin, richtige Entscheidungen zu treffen bzw. optimale Lösungen zu finden. Ein Entscheidungsfindungsprozess setzt dabei voraus, dass man in der Wahl der Entscheidung bzw. Lösung einen Spielraum hat, der naturgemäß gewissen Einschränkungen unterliegt. Die Suche nach einer optimalen Lösung macht nur in Zusammenhang mit einer genau spezifizierten Zielsetzung Sinn. Dementsprechend kann eine Lösung als optimal bezüglich einer Zielsetzung bezeichnet werden, wenn sie unter Berücksichtigung der vorhandenen Restriktionen das gewünschte Ziel am ehesten erfüllt. Um für eine bestimmte Aufgabenstellung eine optimale Lösung berechnen zu können, ist es erforderlich, diese in Form eines mathematischen Optimierungsproblems, im Folgenden kurz auch oft als OP abgekürzt, zu formulieren. Generell wird dabei zwischen statischen und dynamischen Optimierungsproblemen unterschieden. Statisches Optimierungsproblem: Minimierung einer Funktion mit Optimierungsvariablen, die Elemente eines Euklidischen Raumes sind. Dynamisches Optimierungsproblem: Minimierung eines Funktionals, bei dem die Optimierungsvariablen Elemente eines (unendlich-dimensionalen) Funktionenraumes sind (z. B. Zeitfunktionen). In diesem Kapitel soll zunächst anhand von einigen Beispielen ein Eindruck vom prinzipiellen Unterschied zwischen der statischen und dynamischen Optimierung vermittelt werden.. Statische Optimierungsprobleme Unter einem statischen Optimierungsproblem wird das Minimieren einer Funktion f(x) unter Berücksichtigung gewisser Nebenbedingungen verstanden, wobei die Optimierungsvariablen x Elemente des Euklidischen RaumesR n sind.

6 . Statische Optimierungsprobleme Seite 2.. Mathematische Formulierung Die Standardformulierung eines statischen Optimierungsproblems lautet min f(x) Kostenfunktion (.a) x R n u.b.v. g i (x) =, i =,..., p Gleichungsbeschränkungen (.b) h i (x), i =,..., q Ungleichungsbeschränkungen. (.c) Ist ein Optimierungsproblem ohne die Gleichungs- und Ungleichungsbeschränkungen (.b) und (.c) gegeben, spricht man von einem unbeschränkten Optimierungsproblem. Im allgemeinen Fall, d. h. unter Berücksichtigung der Nebenbedingungen (.b) (.c), handelt es sich um ein beschränktes Optimierungsproblem. Die Menge X ad R n, die die Gleichungs- und Ungleichungsbeschränkungen (.b) und (.c) erfüllt, X ad = { x R n : g i (x) =, i =,..., p, h i (x), i =,..., q } (.2) wird als zulässiger Bereich (Englisch: admissible or feasible region) und jedes x X ad als zulässiger Punkt bezeichnet. Damit lässt sich das statische Optimierungsproblem (.) auch in der äquivalenten Form min f(x) (.3) x X ad angeben. Im Falle von unbeschränkten Problemen gilt X ad =R n. Es ist direkt ersichtlich, dass X ad nicht die leere Menge sein darf, da das Optimierungsproblem (.3) ansonsten keine Lösung besitzt. Eine weitere notwendige Bedingung für X ad kann aus den Gleichungsbeschränkungen (.b) abgeleitet werden, da sich durch die algebraischen Restriktionen g i (x) = die Anzahl der freien Optimierungsvariablen x R n auf n p reduziert. Somit darf die Anzahl p der Gleichungsbeschränkungen (.b) nicht größer als die Anzahl der Optimierungsvariablen x R n sein, da die zulässige Menge X ad ansonsten leer wäre. Im Laufe der Jahrzehnte hat sich die Formulierung als Minimierungsproblem (.a) standardisiert. Analog dazu kann ein Maximierungsproblem ebenfalls als Minimierungsproblem gemäß (.a) geschrieben werden: max x R n f(x) = min f(x). x R n Neben der Bezeichnung statische Optimierung werden häufig auch die Begriffe Mathematische Programmierung oder Endlich Dimensionale Optimierung verwendet. Der Begriff Programmierung ist eher im Sinne von Planung zu verstehen als im Sinne der Erstellung eines Computerprogramms. Er wurde schon Mitte der 94er Jahre von George Dantzig, einem der Begründer der Linearen Optimierung, geprägt, bevor Computer zur Lösung linearer Optimierungsprobleme eingesetzt wurden. Unterschieden werden bei statischen Optimierungsproblemen häufig folgende Klassen: Lineare Programmierung: Die Kostenfunktion und die Beschränkungen sind linear.

7 . Statische Optimierungsprobleme Seite 3 Quadratische Programmierung: Die Kostenfunktion ist quadratisch, während die Beschränkungen linear sind. Nichtlineare Programmierung: Die Kostenfunktion oder mindestens eine Beschränkung ist nichtlinear. Konvexe Programmierung: Konvexität ist ein mathematischer Begriff, der im Hinblick auf die Optimierung eine besondere Bedeutung spielt, denn er erlaubt es, eine Klasse von Optimierungsproblemen zu formulieren, für die die notwendigen Optimalitätsbedingungen erster Ordnung gleichzeitig hinreichende Bedingungen für ein globales Optimum sind. Integer Programmierung: Alle Variablen sind diskret. Mixed Integer Programmierung: Kontinuierliche und diskrete Variablen treten auf...2 Beispiele Insbesondere die lineare Programmierung wird häufig bei wirtschaftlichen Fragestellungen, wie Produktions, Planungs oder Investitionsproblemen, eingesetzt. Das folgende Beispiel ist ein stark vereinfachtes Beispiel einer Portfolio Optimierung. Beispiel. (Portfolio Optimierung). Ein Anleger möchte. Euro gewinnbringend investieren und hat die Auswahl zwischen drei Aktienfonds mit unterschiedlicher Gewinnerwartung und Risikoeinstufung: Fonds erwarteter Gewinn/Jahr Risikoeinstufung A % 4 B 7 % 2 C 4 % Der Anleger möchte nach einem Jahr mindestens 6 Euro Gewinn erzielen. Andererseits möchte er sein Geld eher konservativ anlegen, d. h. er möchte mindestens 4. Euro in Fonds C investieren und das Risiko minimieren. Wie muss der Anleger die. Euro verteilen, damit diese Kriterien erfüllt werden? Zunächst werden die Optimierungsvariablen x, x 2, x 3 eingeführt, die den prozentualen Anteil der investierten. Euro an den jeweiligen Fonds A, B, C kennzeichnen. Dabei kann x 3 durch die Beziehung x 3 = x x 2 ersetzt werden. Der geforderte Mindestgewinn von 6 Euro lässt sich als die Beschränkung. [.x +.7x 2 +.4( x x 2 ) ] 6 6x + 3x 2 2 (.4) ausdrücken. Die Mindestanlage von 4. Euro in Fonds C führt zu.( x x 2 ) 4. x + x 2.6. (.5)

8 . Statische Optimierungsprobleme Seite 4 Des Weiteren muss x, x 2, x 3 gelten. Das Ziel ist die Minimierung des Anlagerisikos, was sich durch die Funktion ausdrücken lässt. f(x) = 4x + 2x 2 + ( x x 2 ) = + 3x + x 2 (.6) x x + 3x 2 = 2 x + x 2 =.6 x + x 2 = Optimum x Höhenlinien f(x) = konst. mit abnehmendem Betrag 3 zulässige Menge x Abbildung.: Veranschaulichung der Portfolio Optimierung in Beispiel.. Somit kann das statische Optimierungsproblem in der Form min f(x) = + 3x + x 2 (.7a) x R 2 u.b.v. 6x + 3x 2 2 (.7b) x + x 2.6 x + x 2 x, x 2 (.7c) (.7d) (.7e) geschrieben werden. Abbildung. stellt die einzelnen Beschränkungen sowie den zulässigen Bereich grafisch dar. Aus dem Verlauf der Höhenlinien f(x) = konst. der Kostenfunktion (.7a) ist direkt ersichtlich, dass der Punkt x des zulässigen Bereiches mit dem niedrigsten Wert von f(x) an der Ecke x liegt. Somit ergibt sich für die optimale Verteilung der. Euro auf die einzelnen Fonds x = 5, x 2 = 8 5, x 3 = 6 5. (.8)

9 . Statische Optimierungsprobleme Seite 5 Das folgende (akademische) Beispiel der quadratischen Programmierung soll den Einfluss von Beschränkungen auf eine optimale Lösung verdeutlichen. Beispiel.2. Betrachtet wird das (zunächst) unbeschränkte Problem min x R 2 f(x) = (x 2) 2 + (x 2 ) 2. (.9) Die Höhenlinien f(x) = konst. der Funktion f(x) sind in Abbildung.2 in Abhängigkeit der beiden Optimierungsvariablen x = x x 2 dargestellt. Es ist direkt [ ] T [ T ersichtlich, dass das Minimum f(x ) = an der Stelle x = 2 ] auftritt. 3 x 2 Optimum: x = [ 2 ] T, f(x ) = f = x 2 Optimum: x = [.8.6] T, f(x ) =.8 g(x) = f = f = 2 f = f =.25 f =.25 f = f = 2 3 x 2 3 x Abb..2: Geometrische Darstellung des unbeschränkten OP (.9). Abb..3: Geometrische Darstellung des beschränkten OP (.9), (.). Um den Einfluss verschiedener Beschränkungen zu untersuchen, wird zunächst eine zusätzliche Gleichungsbeschränkung der Form (.b) betrachtet g(x) = x 2 2x =. (.) Die Gleichungsbeschränkung entspricht einer algebraischen Zwangsbedingung, wodurch lediglich noch eine Optimierungsvariable frei wählbar ist. Geometrisch interpretiert bedeutet dies, dass eine mögliche Lösung auf der Gerade liegen muss, die durch (.) definiert wird, siehe Abbildung.3. Die optimale Lösung liegt dabei auf dem Berührpunkt der Geraden g(x) = mit der Höhenlinie f(x) =.8. Anstelle der Gleichungsbeschränkung (.) wird nun die Ungleichungsbeschränkung h (x) = x + x 2 2 (.)

10 .2 Dynamische Optimierungsprobleme Seite 6 [ ] T betrachtet, wodurch sich die Menge der zulässigen Punkte x = x x 2 auf die Region unterhalb der Geraden h (x) = beschränkt (siehe Abbildung.4). Das [ T Optimum f(x ) =.5 an der Stelle x =.5.5] befindet sich an der Grenze des zulässigen Bereiches und liegt, wie im vorherigen Szenario, auf einer Höhenlinie, die die Gerade h (x) = tangential berührt. Zusätzlich zur ersten Ungleichungsbeschränkung (.) soll eine weitere Ungleichung der Form h 2 (x) = x 2 x 2 (.2) betrachtet werden, durch die sich die Menge der zulässigen Punkte weiter verkleinert [ T (Abbildung.5). Der optimale Punkt x = ] mit dem Minimum f(x ) = liegt nun im Schnittpunkt der Kurven h (x) = und h 2 (x) =, d. h.beide Beschränkungen (.) und (.2) sind aktiv. 3 x 2 Optimum: x = [.5.5] T, f(x ) =.5 3 x 2 Optimum: x = [ ] T, f(x ) = h 2 (x) = 2 h (x) = f = f =.5 2 h (x) = f = f =.25 zulässige Menge f = zulässige Menge f = 2 3 x 2 3 x Abb..4: Geometrische Darstellung des beschränkten OP (.9), (.). Abb..5: Geometrische Darstellung des beschränkten OP (.9), (.), (.2). Das obige Beispiel.2 verdeutlicht den Einfluss von Gleichungs und Ungleichungsbeschränkungen auf die Lösung (und Lösbarkeit) des Optimierungsproblems (.a) (.c). Für eine systematische Untersuchung von statischen Optimierungsproblemen sowie die zugehörigen Verfahren zur numerischen Lösung sei auf die folgenden Kapitel verwiesen..2 Dynamische Optimierungsprobleme Bei den Problemstellungen der statischen Optimierung im vorherigen Abschnitt. stellen die Optimierungsvariablen x Elemente aus dem Euklidischen RaumR n dar. Bei der

11 .2 Dynamische Optimierungsprobleme Seite 7 dynamischen Optimierung handelt es sich darum, Funktionen einer unabhängigen Variablen zu bestimmen. Da es sich bei der unabhängigen Variablen meistens um die Zeit t handelt, wird in diesem Zusammenhang von dynamischer Optimierung gesprochen..2. Mathematische Formulierung Die generelle Struktur eines dynamischen Optimierungsproblems lautet min u( ) t J(u) = ϕ(t, x(t )) + l(t, x(t), u(t)) dt Kostenfunktional (.3a) t u.b.v. ẋ = f(t, x, u), x(t ) = x Systemdynamik & AB (.3b) ψ(t, x(t )) = Endbedingungen (EB) (.3c) h i (x, u), i =,..., q Ungleichungsbeschr. (.3d) Dabei stellt u R m die Eingangsgröße des nichtlinearen Systems (.3b) mit dem Zustand x R n dar. Zusätzlich zu den Anfangsbedingungen in (.3b) sind häufig Endbedingungen der Form (.3c) gegeben, um z. B. einen gewünschten Zustand x f zur Endzeit t zu erreichen (also ψ(t, x(t )) = x(t ) x f ). Ein häufiges Problem in der Praxis ist das Auftreten von Ungleichungsbeschränkungen (.3d), die z. B. die Begrenzung einer Stellgröße oder Sicherheitsschranken eines Zustandes darstellen können. Die Problemstellung der dynamischen Optimierung besteht nun darin, eine Eingangstrajektorie u(t), t [t, t ] derart zu finden, dass die Zustandstrajektorie x(t), t [t, t ] des dynamischen Systems (.3b), die Endbedingungen (.3c) und Beschränkungen (.3d) erfüllt und gleichzeitig das Kostenfunktional (.3a) minimiert wird. Abhängig davon, ob t vorgegeben oder unbekannt ist, spricht man von einer festen oder freien Endzeit t. Neben der Bezeichnung dynamische Optimierung werden häufig auch die Begriffe Unendlich Dimensionale Optimierung, Optimalsteuerungsproblem oder Dynamische Programmierung verwendet. Im Folgenden sind einige Beispiele angegeben, um die Problemund Aufgabenstellung der dynamischen Optimierung zu erläutern..2.2 Beispiele Beispiel.3 (Inverses Pendel). Ein klassisches Problem in der Regelungstechnik ist das inverse Pendel, das an einem Wagen drehbar befestigt ist. Als Beispielproblem soll das seitliche Versetzen des Pendels betrachtet werden min u( ) u.b.v. J(u) = t + c u 2 dt, (.4a) [ ] [ẍ ] [ ] ε cos θ ε = θ2 sin θ + u, ε = m/(m + m) (.4b) cos θ θ sin θ x() = [ T [ T π ], x(t ) = π ], (.4c) u. (.4d)

12 .2 Dynamische Optimierungsprobleme Seite 8 [ Die vereinfachten Bewegungsgleichungen (.4b) für die Zustände x = x ẋ θ θ sind normiert. Der Eingang u stellt die am Wagen angreifende Kraft dar und ist durch (.4d) beschränkt. Die Masse des Pendels wird mit m, diejenige des Wagens mit M bezeichnet. Abbildung.6 zeigt exemplarisch das seitliche Versetzen des Pendels, um die Bewegung zu verdeutlichen. Das Kostenfunktional (.4a) und somit der Charakter des Optimierungsproblems hängt von dem Parameter c ab. Für c = ergibt sich die Aufgabe, die Endzeit t zu minimieren J(u) = t ] T dt = t. (.5) Für c > wird der Eingang u im Kostenfunktional und somit der Aspekt der Energieoptimalität mitberücksichtigt. Abbildung.7 zeigt die optimalen Trajektorien für den Parameterwert ε =.5 sowie für die Werte c =, c =.25 und c =. Für c = weist der Eingang u ein Bang bang Verhalten auf, während für c > die Steueramplituden kleiner werden und die Versatzzeit t zunimmt Abb..6: Momentaufnahmen des Versetzens des inversen Pendels Position x Winkel θ Eingang u Zeit t c = c =.25 c = Abb..7: Optimale Trajektorien für das Versetzen des inversen Pendels. Das inverse Pendel ist ein gutes Beispiel um zu verdeutlichen, dass nicht zu jedem Optimierungsproblem eine Lösung existiert, insbesondere wenn die Endzeit t nicht festgelegt ist. Wie in Abbildung.7 dargestellt ist, vergrößert sich die Endzeit t bei zunehmender Gewichtung von u 2 im Vergleich zum zeitoptimalen Anteil in dem Kostenfunktional (.4a). Wenn reine Energieoptimalität gefordert würde, d. h. J(u) = t u 2 dt, (.6)

13 .2 Dynamische Optimierungsprobleme Seite 9 hätte das Optimierungsproblem keine Lösung, da das Versetzen des Pendels dann unendlich langsam mit t ablaufen würde. Beispiel.4 (Goddard Rakete [.,.2]). Ein klassisches Optimierungsproblem aus der Raumfahrt ist die Maximierung der Flughöhe einer Rakete unter dem Einfluss von Luftreibung und Erdbeschleunigung. Dieses Problem wurde von dem amerikanischen Raketenpionier Robert H. Goddard im Jahr 99 aufgestellt und kann in der Form (normiert) min u( ) h(t ) u.b.v. ḣ = v, v = u D(h, v) m (.7a) h 2, ṁ = u c, (.7b) h() =, v() =, m() =, m(t ) =.6, (.7c) u 3.5 (.7d) geschrieben werden. Die Zustandsgrößen sind die Flughöhe h, die Geschwindigkeit v und die Masse m der Rakete. Die Luftreibung D(h, v) hängt über die Funktion D(h, v) = D v 2 e [β( h)] (.8) von den Zuständen h und v ab. Die Randbedingungen in (.7c) umfassen die normierten Anfangsbedingungen sowie die Endbedingung für m(t ), die dem Leergewicht der Rakete ohne Treibstoff entspricht. Der Eingang des Systems ist der Schub u, der innerhalb der Beschränkungen (.7d) liegen muss. In Abbildung.8 sind die optimalen Trajektorien für die Goddard Rakete dargestellt. Die verwendeten Parameterwerte lauten c =.5, D = 3 und β = 5. Der Schub u(t) ist am Anfang maximal und weist dann einen parabelförmigen Verlauf auf, bevor der Treibstoff verbraucht ist. Dieses Verhalten wird durch den Luftwiderstand D(h, v) hervorgerufen, der mit zunehmender Höhe abnimmt. Es ist somit optimaler, im Falle eines hohen Luftwiderstandes nicht mit vollem Schub zu fliegen. Beispiel.5 (Ökonomisches Modell [.3,.4]). Ein weiterer Anwendungszweig der dynamischen Optimierung sind wirtschaftliche Prozesse. Das folgende Beispiel beschreibt das Verhalten eines typischen Konsumenten, der Konsum, Freizeit und Bildung über die Lebensdauer maximieren will. Der Bildungsgrad B und das Kapital K eines durchschnittlichen Konsumenten lassen sich durch folgendes Modell beschreiben Ḃ = K = Weiterbildung Vergessen {}}{{}}{ B ε u 2 u 3 δb, B() = B (.9a) ik }{{} Verzinsung + Bu 2 g(u 3 ) }{{} Einkommen u }{{}, K() = K. (.9b) Konsum

14 .2 Dynamische Optimierungsprobleme Seite Flughöhe h..5 Masse m Zeit t.5..5 Zeit t Geschwindigkeit v..5 Schub u Zeit t.5..5 Zeit t Abbildung.8: Trajektorien für die Goddard Rakete in Beispiel.4. Die Eingangsgrößen sind der Konsum u, der Anteil der Arbeitszeit an der Gesamtzeit u 2 sowie der Anteil der Fortbildungszeit an der Arbeitszeit u 3. Die Eingänge unterliegen den Beschränkungen u >, u 2, u 3 <. (.2) Das Optimierungsziel des Konsumenten ist die Maximierung von Konsum, Freizeit und Bildung über die Lebensdauer von t = 75 Jahren, was in dem (zu minimierenden) Kostenfunktional ausgedrückt ist. Der Integralanteil t J(u) = K κ (t ) U(t, u, u 2, B)e ρ t dt. (.2) t U(t, u, u 2, B) = α u α + β ( u 2 ) β + γ tb γ (.22) gewichtet dabei den Konsum u, die Freizeit u 2 und den Bildungsgrad B, während der Endwert K κ (t ) in (.2) zusätzlich das Vererbungskapital berücksichtigt. Die optimalen Zeitverläufe des Bildungsgrades B(t) und des Kapitals K(t) sind in Abbildung.9 dargestellt. Die Funktion g(u 3 ) in (.9b) ist durch die Parabel g(u 3 ) = ( a)u 3 au 2 3 gegeben. Die verwendeten Parameterwerte lauten a =.3, α =, α =, β =.5, β =, γ =.2, γ = 5, κ =.2, ρ =., ε =.35, δ =., i =.4, B = und K = 3. Die ersten 7 Jahre stellen die Lernphase dar (d. h. u 3 = ). Daraufhin folgt eine lange Arbeitsphase von 34 Jahren mit einem hohen Maß an Weiterbildung, bevor in den nächsten Jahren ( Lebensjahr) eine reine Arbeitsphase mit zusätzlich reduzierter Arbeitszeit u 2 stattfindet. Ab dem 62. Lebensjahr setzt der Ruhestand

15 .3 Mathematische Grundlagen Seite ein. Der Bildungsgrad B ist besonders hoch im Alter von 3 6 Jahren. Das Kapital K ist negativ während der ersten Lebenshälfte, was der Aufnahme eines Kredites entspricht. Im Laufe des Lebens wird dies aber durch das steigende Einkommen kompensiert. Bildungsgrad B Konsum u Zeit t Zeit t.6 Arbeitsanteil u2 Kapital K Zeit t Zeit t. Fortbildungsant. u Zeit t Abbildung.9: Optimale Trajektorien für das Konsumentenverhalten in Beispiel.5..3 Mathematische Grundlagen In diesem Abschnitt werden in aller Kürze einige mathematische Begriffe und Grundkonzepte erläutert, die für das Verständnis der weiteren Kapitel vonnöten sind..3. Infimum, Supremum, Minimum und Maximum Definition. (Infimum und Supremum). Es sei X Reine nichtleere Menge. Das Infimum von X, kurz inf X geschrieben, bezeichnet die größte untere Schranke von X, d. h. es existiert eine Zahl α so, dass gilt (a) x α für alle x X (b) für alle ᾱ > α existiert ein x X so, dass x < ᾱ. Das Supremum von X, kurz sup X geschrieben, bezeichnet die kleinste obere Schranke von X, d. h. es existiert eine Zahl α so, dass gilt (a) x α für alle x X (b) für alle ᾱ < α existiert ein x X so, dass x > ᾱ.

16 .3 Mathematische Grundlagen Seite 2 Es sollte an dieser Stelle erwähnt werden, dass auch wenn für die nichtleere Menge X ein Infimum oder Supremum existieren, diese nicht automatisch in X enthalten sind. Als Beispiel dazu betrachte man die Menge X = {x R x > } = (, + ). In diesem Fall gilt offensichtlich = inf X / X. Für die folgende Definition wird angenommen, dass X ad R n den zulässigen Bereich des betrachteten OP gemäß (.2) bezeichnet. Definition.2 (Globale und lokale Minima). Die Funktion f(x) besitzt in X ad an der Stelle x (a) ein lokales Minimum, falls ein ε > so existiert, dass gilt f(x ) f(x) für alle x U ε X ad, wobei U ε eine hinreichend kleine ε-umgebung von x bezeichnet, (b) ein striktes lokales Minimum, falls ein ε > so existiert, dass gilt f(x ) < f(x) für alle x U ε \{x } X ad (c) ein globales (absolutes) Minimum, falls f(x ) f(x) für alle x X ad, (d) ein striktes (eindeutiges) globales Minimum, falls f(x ) < f(x) für alle x X ad \{x }. Abbildung. gibt eine grafische Darstellung der unterschiedlichen Arten von Minima. Definition.2 lässt sich direkt auf lokale und globale Maxima übertragen. f(x) lokal lokal, strikt global, strikt x Abbildung.: Verschiedene Minima einer Funktion f(x) mit x R. An dieser Stelle sollte nochmals betont werden, dass im Falle eines Minimums (Maximums) der Wert min {f (x) x X ad } bzw. max {f (x) x X ad } in X ad enthalten sein muss, wohingegen der Wert inf {f (x) x X ad } bzw. sup {f (x) x X ad } nicht unbedingt ein zulässiger Punkt ist. Die Menge aller Minima wird oftmals auch in der Form G = arg min {f (x) : x X ad } := {x X ad f (x) = inf {f (x) : x X ad }} (.23) angeschrieben, wobei die Menge sowohl leer sein kann als auch aus endlich oder unendlich vielen Punkten bestehen kann. Im Falle eines strikten globalen Minimums in X ad versteht man unter dem Ausdruck x = arg min {f (x) : x X ad } meist jene Funktion, die den die Funktion f (x) minimierenden Wert x in X ad berechnet.

17 .3 Mathematische Grundlagen Seite 3 f(x) f(x) f(x) f(γ) α x β γ x α β α (a) (b) (c) + x Abbildung.: Nichtexistenz von Minima..3.2 Existenz von Minima und Maxima Abbildung. zeigt drei unterschiedliche Fälle, bei denen ein Minimum nicht existiert. In Abbildung.(a) ist das Infimum von f(x) in der Menge X := (α, β) durch f(β) gegeben. Da aber X nicht abgeschlossen ist und somit β / X, existiert in diesem Fall kein Minimum. In Abbildung.(b) ist der linksseitige Grenzwert lim x γ f (x) das Infimum von f(x) in der Menge X := [α, β]. Auch in diesem Fall existiert auf Grund der Unstetigkeit von f(x) das Minimum nicht. Im letzten Fall, Abbildung.(c), existiert das Minimum ebenfalls nicht, da f(x) in der unbeschränkten Menge X := {x R x α} nach unten hin nicht beschränkt ist. Der nachfolgende Satz gibt nun Bedingungen für die Existenz einer Lösung von Optimierungsproblemen an. Satz. (Weierstrass). Es sei X eine nichtleere und kompakte (abgeschlossene und beschränkte) Menge und f : X R stetig auf X. Dann ist die Menge aller Minima G = arg min {f (x) : x X } nichtleer und kompakt. Für den Beweis dieses Satzes sei auf die am Ende angeführte Literatur verwiesen. Es sei an dieser Stelle jedoch ausdrücklich betont, dass Satz. lediglich eine hinreichende Bedingung für die Existenz einer optimierenden Lösung angibt. Als Beispiel dazu betrachte man die Minimierungsaufgabe min x (,) x 2, die zeigt, dass mit x = ein Minimum gegeben ist, obwohl die Menge X := {x R < x < } offen und damit nicht kompakt ist..3.3 Gradient und Hessematrix Die Berechnung von Ableitungen erster und zweiter Ordnung einer Kostenfunktion f(x) ist von fundamentaler Bedeutung in der Optimierung. Da im Falle von unstetigen Funktionen oder unstetigen Ableitungen Probleme auftreten können (sowohl numerischer als auch theoretischer Natur), wird oft angenommen, dass alle Funktionen eines Optimierungsproblems stetig und hinreichend oft differenzierbar sind. Im Rahmen der Optimierungsalgorithmen spielen der Gradient und die Hessematrix eine bedeutende Rolle.

18 .3 Mathematische Grundlagen Seite 4 Definition.3 (Gradient). Es sei f : X R eine stetig differenzierbare Funktion, d. h. f C. Dann bezeichnet ( f) (x) = f ( ) f T x = x. (.24) f x n den Gradienten (also die. partielle Ableitung) von f(x) an der Stelle x = [ x... x n ] T. Definition.4 (Hessematrix). Es sei f : X R eine zweifach stetig differenzierbare Funktion, d. h. f C 2. Dann bezeichnet ( ) 2 f (x) = 2 f x f x n x... 2 f x x n. 2 f x 2 n die Hessematrix (also die 2. partielle Ableitung) von f(x) an der Stelle x = (.25) [ x... x n ] T. Im Falle von ein dimensionalen Funktionen f(x) wird die Notation normalerweise durch f (x) und f (x) ersetzt. Aus der Stetigkeit der 2. partiellen Ableitungen folgt Kommutativität, d. h. 2 f x i x j = 2 f x j x i. Somit ist die Hessematrix symmetrisch ( ( 2 f ) (x) = ( 2 f ) T (x)) und hat stets reelle Eigenwerte. In der Optimierung ist oft von Bedeutung, ob Hessematrizen positiv (semi-)definit sind. Diese Eigenschaft kann wie folgt untersucht werden. Satz.2 (Definitheit von Matrizen). Die Definitheit einer symmetrischen Matrix A R n n lässt sich durch folgende Bedingungen charakterisieren: (a) (b) (c) Matrix A ist für alle p R n alle n Eigenwerte λ i sind minoren D i für alle n Haupt- mit p gilt gilt positiv semi definit: p T - A p reell und positiv definit: p T A p > reell und > D i > negativ semi definit: p T - A p reell und negativ definit: p T A p < reell und < ( ) i+ D i < Die Eigenwerte λ i, i =,..., n der Matrix A sind die Lösungen der Gleichung det(λe A) =,

19 .3 Mathematische Grundlagen Seite 5 wobei E die Einheitsmatrix der Dimension n darstellt. Die Hauptminoren D i sind die Determinanten der linken oberen Untermatrizen von A, ([ ]) a ])... a n a a 2 D = det ([a, D 2 = det,, D n = det..... a 2 a, 22 a n... a nn wobei a ij die Elemente der i-ten Zeile und j-ten Spalte der Matrix A bezeichnen. Um die Definitheit einer symmetrischen Matrix A zu bestimmen, muss lediglich eine der drei Bedingungen (a) (c) ausgewertet werden, da jede für sich notwendig und hinreichend ist. Das Kriterium (c) wird auch Sylvester Kriterium genannt und kann nicht für semidefinite Matrizen verwendet werden. Bei der Abschätzung von Funktionen werden häufig der Gradient und die Hessematrix im Rahmen des Mittelwertsatzes (Satz von Taylor) verwendet. Satz.3 (Mittelwertsatz, Satz von Taylor). Es sei f(x) eine stetig differenzierbare Funktion, d. h. f C, in einer Menge X, die das Liniensegment [x, x 2 ] beinhaltet, dann existiert eine reelle Zahl α, α, so, dass gilt f(x 2 ) = f(x ) + (x 2 x ) T ( f) (αx + ( α)x 2 ). (.26) Ist die Funktion f(x) zweifach stetig differenzierbar, d. h. f C 2, dann existiert eine reelle Zahl α, α, so, dass die Beziehung f(x 2 ) = f(x )+(x 2 x ) T ( f) (x )+ ( ) 2 (x 2 x ) T 2 f (αx + ( α)x 2 ) (x 2 x ) gilt. (.27).3.4 Konvexität Die Eigenschaft der Konvexität ist von fundamentaler Bedeutung in der Optimierung und führt im Allgemeinen zu einer einfacheren (numerischen) Lösung des Optimierungsproblems. Der Begriff konvex kann sowohl auf Mengen als auch auf Funktionen angewandt werden Konvexe Mengen Definition.5 (Konvexe Menge). Eine Menge X R n nennt man konvex, falls für alle x, y X und alle reellen Zahlen α mit < α < gilt α x + ( α) y = z X. (.28) Eine geometrische Interpretation dieser Definition ist, dass eine Menge X R n genau dann konvex ist, falls die Verbindungslinie zwischen zwei beliebigen Punkten x, y X komplett in X enthalten ist. Abbildung.2 zeigt einige Beispiele konvexer und nicht konvexer Mengen. Für konvexe Mengen gelten nun folgende Eigenschaften:

20 .3 Mathematische Grundlagen Seite 6 y y y x y x x x (a) konvex (b) konvex (c) nicht-konvex (d) nicht-konvex Abbildung.2: Beispiele von konvexen und nicht konvexen Mengen. (a) Die Schnittmenge von konvexen Mengen ist wiederum konvex. (b) Wenn X eine konvexe Menge ist und α eine reelle Zahl, dann ist die Menge ebenfalls konvex. {y : y = αx, x X } (c) Das Bild einer konvexen Menge unter einer linearen Transformation ist konvex. (d) Wenn X und Y konvexe Mengen sind, dann ist die Menge ebenfalls konvex. {z : z = x + y, x X, y Y} Diese Eigenschaften sind u. a. bei der Charakterisierung der Konvexität der zulässigen Menge X ad von Optimierungsproblemen von Bedeutung Konvexe Funktionen Definition.6 (Konvexe und konkave Funktionen). Es sei X R n eine konvexe Menge. Man nennt die Funktion f : X Rkonvex auf X, falls für alle x, y X und alle reellen Zahlen α mit α gilt f(z) α f(x) + ( α) f(y) mit z = α x + ( α) y. (.29) Die Funktion f nennt man strikt konvex, falls für alle α mit < α < und x y gilt f(z) < α f(x) + ( α) f(y) mit z = α x + ( α) y. (.3) Man nennt die Funktion f (strikt) konkav, falls f (strikt) konvex ist. Die Definition.6 kann wie folgt geometrisch interpretiert werden: Eine Funktion f ist konvex (konkav), falls alle Funktionswerte f(z) für z = α x + ( α) y mit < α < unterhalb (oberhalb) der Verbindungslinie zwischen f(x) und f(y) liegen. Abbildung.3

21 .3 Mathematische Grundlagen Seite 7 f(z) f(z) f(z) f(z) x y z x y z x y z x y z (a) strikt konvex (b) konvex (nicht strikt) (c) konkav (d) weder konvex noch konkav Abbildung.3: Beispiele von konvexen und konkaven Funktionen. zeigt einige Beispiele konvexer und konkaver Funktionen. Es ist direkt ersichtlich, dass lineare Funktionen sowohl konkav als auch konvex sind. Konvexe Funktionen besitzen einige interessante Eigenschaften, die im Folgenden dargestellt sind. (a) Die Summenfunktion k f(x) = a i f i (x) (.3) i= von auf der konvexen Menge X konvexen Funktionen f i (x), i =,..., k mit den reellen Koeffizienten a i, i =,..., k ist auf X ebenfalls konvex. (b) Ist die Funktion f(x) auf der konvexen Menge X konvex, so ist die Menge S = {x : x X, f(x) c} (.32) für alle reellen Zahlen c > ebenfalls konvex, siehe Abbildung.4. (c) Eine stetig differenzierbare Funktion f C ist genau dann konvex auf der konvexen Menge X, wenn für alle x, y X die Ungleichung f(y) f(x) + (y x) T ( f) (x) (.33) erfüllt ist. Die geometrische Interpretation der Ungleichung (.33) ist, dass an jedem Punkt x einer konvexen Funktion f(x) eine sogenannte stützende Hyperebene (skalarer Fall: stützende Tangente) existieren muss, oberhalb der f(x) verläuft. Dies ist in Abbildung.5 veranschaulicht. (d) Eine zweifach stetig differenzierbare Funktion f C 2 ist genau dann konvex auf der konvexen Menge X, wenn die Hessematrix ( 2 f ) (x) positiv semi-definit auf X ist. Falls die Hessematrix ( 2 f ) (x) positiv definit ist, folgt auch die strikte Konvexität der Funktion f(x). Die Umkehrung der letzteren Aussage ist jedoch nicht gültig, denn wie man sich bei der Funktion f(x) = x 4 einfach überzeugen kann, ist die Funktion strikt konvex aber die Hessematrix an der Stelle x = ist identisch Null.

22 .3 Mathematische Grundlagen Seite 8 f(x) Konvexe Funktion f(x) f(z) Schnittebene f(x) = c f(x) f(y) x x 2 Konvexe Schnittmenge S = {x R 2 : f(x) c} f(x) + (y x)f (x) Abb..4: Konvexe Menge S, die durch den Schnitt einer konvexen Funktion Abb..5: Stützende Tangente einer konvexen Funktion f(z). f(x) mit der Ebene f(x) = konst. entsteht. x y z Aufgabe.. Beweisen Sie die Eigenschaften (a) (d) von konvexen Funktionen. Nutzen Sie für den Beweis der Eigenschaft (d) den Mittelwertsatz, siehe Satz.3, im Speziellen (.27). Aufgabe.2. Zeigen Sie, dass die Funktion f(x) = x 4 + x2 2x x 2 + x 2 [ ] 2 T gesamten Definitionsbereich x = x x 2 R 2 konvex ist. über ihrem

23 .4 Literatur Seite 9.4 Literatur [.] A. Bryson, Dynamic Optimization. Menlo Park, CA: Addison Wesley, 999. [.2] R. Goddard, A method for reaching extreme altitudes, Smithsonian Miscellaneous Collections 7, 99. [.3] K. Pohmer, Mikroökonomische Theorie der personellen Einkommens und Vermögensverteilung. Studies in Contemporary Economics. Springer, 985, Bd. 6. [.4] H. Oberle und R. Rosendahl, Numerical computation of a singular state subarc in an economic optimal control model, Optimal Control Applications and Methods, Bd. 27, S , 26. [.5] J. Nocedal und S. Wright, Numerical Optimization. Springer, 26. [.6] S. Boyd und L. Vandenberghe, Convex Optimization. Cambridge University Press, 24. [.7] M. Papageorgiou, Optimierung. München: Oldenbourg Verlag, 99. [.8] D. Bertsekas, Nonlinear Programming. Athena Scientific, 999. [.9] D. Luenberger und Y. Ye, Linear and Nonlinear Programming. Springer, 28. [.] B. Chachuat, Nonlinear and Dynamic Optimization: From Theory to Practice, 27.

24 2 Statische Optimierung: Unbeschränkter Fall 2. Optimalitätsbedingungen Bevor in den Abschnitten die numerischen Verfahren zur Lösung statischer Optimierungsprobleme ohne Beschränkungen behandelt werden, sollen in diesem Abschnitt die Optimalitätsbedingungen für ein allgemeines beschränktes Optimierungsproblem der Form (.3) min f(x) (2.) x X ad mit dem zulässigen Bereich X ad diskutiert werden. Zur Definition der Begriffe lokaler und globaler Minima sei auf Abschnitt.3. und im Speziellen auf Definition.2 verwiesen. Um die notwendigen Bedingungen für ein lokales Minimum x der Optimierungsaufgabe (2.) zu formulieren, führt man den Begriff einer zulässigen Richtung ein. Für x X ad ist der Vektor d eine zulässige Richtung am Punkt x, wenn ein ᾱ > so existiert, dass x + αd X ad für alle α, α ᾱ. Satz 2. (Notwendige Optimalitätsbedingungen erster Ordnung). Es sei X ad R n die zulässige Menge des Optimierungsproblems (2.) und f C eine Funktion definiert auf X ad. Wenn x ein lokales Minimum von f auf X ad ist, dann gilt für jede zulässige Richtung d am Punkt x die Ungleichungsbedingung d T ( f) (x ). (2.2) Gilt darüberhinaus, dass x im Inneren von X ad liegt (wie dies bespielsweise bei X ad = R n der Fall ist), dann folgt die Bedingung ( f) (x ) =. (2.3) Beweis. Da d eine zulässige Richtung am Punkt x ist, gilt für jedes α, α ᾱ, dass der Punkt x(α) = x +αd X ad. Nun definiert man für α ᾱ die Funktion g(α) = f(x(α)), die am Punkt α = ein lokales Minimum besitzt. Entwickelt man g(α) um den Punkt α = in eine Taylorreihe und bricht diese nach dem linearen Glied ab, erhält man g(α) = g() + g ()α + o(α), (2.4) wobei o(α) den Restterm bezeichnet, der schneller nach Null abklingt als α. Wäre nun g () <, dann würde für ein hinreichend kleines α > gelten g(α) g() <, was ein Widerspruch zur Annahme ist, dass α = bzw. x ein Minimum ist. Daher

25 2. Optimalitätsbedingungen Seite 2 muss gelten g () = d T ( f) (x ). Wenn x im Inneren von X ad liegt, dann ist jede Richtung am Punkt x zulässig, d. h. d T ( f) (x ) für alle d R n. Dies kann aber nur für alle d erfüllt sein, wenn ( f) (x ) = ist. Beispiel 2.. Man betrachte das Optimierungsproblem min f(x, x 2 ) = x 2 x R 2 x x 2 + x 2 2 3x 2. (2.5) Berechnet man nun die notwendige Optimalitätsbedingung erster Ordnung gemäß (2.3) 2x x 2 = x + 2x 2 = 3, (2.6a) (2.6b) [ T dann erkennt man, dass x = 2] eine eindeutige Lösung von (2.6) ist, welche in diesem Fall sogar das globale Minimum beschreibt. Beispiel 2.2. In einem weiteren Beispiel betrachte man die Optimierungsaufgabe mit der zulässigen Menge min f(x, x 2 ) = x 2 x + x 2 + x x 2 (2.7) x X ad X ad = { } x R 2 : x, x 2. (2.8) [ ] T Das Problem hat an der Stelle x = 2 ein globales Minimum. Wertet man den Gradienten an der Stelle x aus, so erhält man f (x ) = x 2x + x 2 = (2.9a) f (x ) = x 2 + x = 3 2. (2.9b) Wie man erkennt, verschwindet in diesem Fall der Gradient an der Stelle x nicht, aber die notwendige Bedingung (2.2) ist für alle zulässigen Richtungen d erfüllt, da die zweite Komponente von d wegen der Definition von X ad gemäß (2.8) größer gleich Null sein muss. Die notwendige Optimalitätsbedingung erster Ordnung für einen inneren Punkt (2.3) gemäß Satz 2. gibt lediglich an, dass es sich bei diesem Punkt um einen Extremalpunkt (auch als stationären Punkt bezeichnet) handelt, die Bedingung wird aber von einem Minimum, Maximum oder Sattelpunkt gleichermaßen erfüllt, siehe Abbildung 2.. Man kann nun Satz 2. weiter präzisieren, indem man bei der Taylorreihenentwicklung (2.4) Terme höherer Ordnung in α hinzunimmt.

26 2. Optimalitätsbedingungen Seite 22 f(x) Maximum f(x, x 2 ) Sattelpunkt Sattelpunkt (a) Minimum x x 2 Höhenlinien Abbildung 2.: Beispiele von stationären Punkten im ein und zwei dimensionalen Fall. (b) x Satz 2.2 (Notwendige Optimalitätsbedingungen zweiter Ordnung). Es sei X ad R n die zulässige Menge des Optimierungsproblems (2.) und f C 2 eine Funktion definiert auf X ad. Wenn x ein lokales Minimum von f auf X ad ist, dann gelten für jede zulässige Richtung d am Punkt x die Bedingungen (a) d T ( f) (x ) ( (2.a) ) (b) wenn d T ( f) (x ) =, dann d T 2 f (x )d. (2.b) Gilt darüberhinaus, dass x im Inneren von X ad liegt (wie dies bespielsweise bei X ad = R n der Fall ist), dann folgen die Bedingungen (a) ( f) (x ) = ( (2.a) ) (b) für alle d gilt d T 2 f (x )d. (2.b) Aufgabe 2.. Beweisen Sie Satz 2.2. Hinweis: Orientieren Sie sich dabei am Beweis von Satz 2.. Die Bedingung (2.b) entspricht der Forderung, dass die Hessematrix ( 2 f ) (x) an der Stelle x = x positiv semi-definit ist. Aufgabe 2.2. Betrachten Sie die Optimierungsaufgabe mit der zulässigen Menge min f(x, x 2 ) = x 3 x 2 x 2 + 2x 2 2 (2.2) x X ad X ad = { } x R 2 : x, x 2. (2.3)

27 2. Optimalitätsbedingungen Seite 23 [ T Zeigen Sie, dass der Punkt x = 6 9] zwar die Optimalitätsbedingung erster Ordnung erfüllt, aber trotzdem kein lokales Minimum beschreibt. Die Optimalitätsbedingungen von Satz 2.2 sind lediglich notwendig, wie man sich einfach anhand der Funktion f(x) = x 3 überzeugen kann. Die Funktion besitzt an der Stelle x = einen Extremalpunkt (f (x ) = 3(x ) 2 = ) und obwohl die zweite Ableitung f (x ) = 6x = positiv semi definit ist, ist x = kein Minimum, sondern ein Sattelpunkt (siehe Abbildung 2.). Für einen inneren Punkt von X ad lassen sich durch leichte Umformulierung von Satz 2.2 hinreichende Optimalitätsbedingungen angeben. Satz 2.3 (Hinreichende Optimalitätsbedingungen zweiter Ordnung). Es sei X ad R n die zulässige Menge des Optimierungsproblems (2.) und f C 2 eine Funktion definiert auf X ad. Wenn x ein innerer Punkt von X ad ist und folgende Bedingungen (a) ( f) (x ) = (2.4a) ( ) (b) 2 f (x ) > (positiv definite Hessematrix am Punkt x ) (2.4b) erfüllt sind, dann ist x ein striktes lokales Minimum von f. Aufgabe 2.3. Beweisen Sie Satz 2.3. Beispiel 2.3. Für das Optimierungsproblem min f(x) = x R x2 2 + ax 2 2 x x 2 (2.5) sollen die stationären Werte x in Abhängigkeit des Parameters a 4 charakterisiert werden. Der Gradient und die Hessematrix von f(x) ergeben sich zu [ ] 2x x 2 ( f) (x) =, 2ax 2 x Aus ( f) (x ) = folgt x = ( ) 2 f (x) = [ ] 2. (2.6) 2a [ ] T als einziger stationärer Punkt. Die Definitheit der Hessematrix ( 2 f ) (x) an der Stelle x lässt sich mit Hilfe der Hauptminoren (Sylvesterkriterium, siehe (c) in Satz.2) untersuchen D = 2, D 2 = 4a. (2.7) Somit ist ( 2 f ) (x ) positiv definit für a > 4 und x = [ ] T stellt ein striktes Minimum dar. Für a < 4 ist D > und D 2 < und ( 2 f ) (x) somit indefinit. In [ T diesem Fall ist x = ] ein Sattelpunkt, wie er in Abbildung 2.(b) für a = dargestellt ist. Wenn die Funktion f(x) (strikt) konvex ist, dann lassen sich stärkere Aussagen im

28 2. Optimalitätsbedingungen Seite 24 Vergleich zu den bisherigen Sätzen treffen. Der Grund dafür liegt darin, dass aus der Konvexität von f(x) unmittelbar die positive Semi-Definitheit der Hessematrix von f(x) folgt. Satz 2.4 (Minimierung konvexer Funktionen Menge der Minima). Es sei f(x) eine konvexe Funktion auf der konvexen Menge X ad. Dann ist die Menge aller Minima G = arg min {f (x) : x X ad } ebenfalls konvex und jedes lokale Minimum von f(x) ist ein globales Minimum. Beweis. Angenommen c beschreibt das Minimum von f. Dann ist die Menge G = {x : x X ad, f(x) c } gemäß (.32) ebenfalls konvex, womit der erste Teil des Satzes gezeigt ist. Im Weiteren nehme man an, dass x X ad ein lokales Minimum von f ist und ein weiterer Punkt y X ad so existiert, dass gilt f(y) < f(x ). Auf Grund der Konvexität von f folgt nach Definition.6, im Speziellen (.29), für alle α mit < α < die Ungleichung f (α y + ( α) x ) α f(y) + ( α) f(x ) < f(x ). (2.8) Da α hinreichend klein sein kann, folgt aber aus (2.8), dass ein weiterer Punkt z = α y + ( α) x in einer hinreichend kleinen Umgebung von x existiert, der die Funktion f noch kleiner macht, was gemäß Definition.2 ein Widerspruch dazu ist, dass x ein lokales Minimum von f ist. Der nächste Satz zeigt, dass für eine stetig differenzierbare und konvexe Funktion f die notwendigen Optimalitätsbedingungen erster Ordnung notwendig und hinreichend für die Existenz eines globalen Minimums sind. Satz 2.5 (Minimierung konvexer Funktionen globales Minimum). Es sei f C eine konvexe Funktion auf der konvexen Menge X ad. Existiert ein Punkt x X ad so, dass für alle y X ad gilt (y x ) T ( f) (x ), (2.9) dann ist x ein globales Minimum von f auf X ad. Gilt darüberhinaus, dass x im Inneren von X ad liegt, dann kann die Ungleichung (2.9) durch die Bedingung ( f) (x ) = ersetzt werden. Beweis. Da d = y x eine zulässige Richtung am Punkt x ist, entspricht (2.9) der notwendigen Optimalitätsbedingung erster Ordnung (2.2) von Satz 2.. Auf Grund der Konvexität von f folgt nach (.33) die Ungleichung f(y) f(x ) + (y x ) T ( f) (x ) f(x ) (2.2) für alle y X ad, womit der Satz bewiesen ist.

29 2.2 Rechnergestützte Minimierungsverfahren: Grundlagen Seite Rechnergestützte Minimierungsverfahren: Grundlagen Da die Stationaritätsbedingung ( f) (x ) = von (2.4a) (n nichtlineare Gleichungen in x ) nur in seltenen Fällen analytisch ausgewertet werden kann, ist man im Allgemeinen auf numerische Verfahren angewiesen, um einen stationären Punkt x zu finden. Im Wesentlichen basieren die Algorithmen auf der Idee, dass man beginnend bei einem Startpunkt x eine Folge {x k } so generiert, dass die Funktion f(x) in jedem Iterationsschritt abnimmt, d. h. f(x k+ ) < f(x k ), k =,, 2,.... (2.2) Das Ziel dabei ist es, dass die Folge für k gegen das (lokale) Minimum konvergiert lim x k = x. (2.22) k In der englischsprachigen Literatur werden solche Algorithmen auch als iterative descent algorithms bezeichnet. Bezüglich der genauen Analyse des (globalen) Konvergenzverhaltens der im Weiteren vorgestellten Algorithmen sei auf die am Ende angeführte Literatur verwiesen. An dieser Stelle sei lediglich der Begriff der Konvergenzordnung eines Algorithmus erläutert. Definition 2. (Konvergenzordnung). Es sei {x k } eine Folge, die gegen den Grenzwert x konvergiert. Die Konvergenzordnung der Folge {x k } ist das Supremum der nichtnegativen Zahlen p, für die gilt x k+ x lim k x k x p <. (2.23) Im Wesentlichen beschreibt die Konvergenzordnung das Verhalten der Folge für k. Größere Werte der Konvergenzordnung p bedeuten, dass die Folge schneller konvergiert, da der Abstand von x (zumindest für sehr große Werte von k) in einem Iterationsschritt um die p-te Potenz reduziert wird. Beispiel 2.4. Die Folge {a k } mit < a < konvergiert mit der Konvergenzordnung p = nach Null, da nur für p die Bedingung erfüllt ist. a k+ lim k a kp = lim k a+k( p) < (2.24) Aufgabe 2.4. Zeigen Sie, dass die Folge {a 2k } mit < a < mit der Konvergenzordnung 2 gegen konvergiert. Besonders häufig treten in diesem Zusammenhang Algorithmen mit linearer Konvergenzordnung auf. Definition 2.2 (Lineare Konvergenzordnung Konvergenzrate). Es sei {x k } eine Folge, die gegen den Grenzwert x konvergiert und es gelte x k+ x lim k x k x = β <. (2.25)

30 2.3 Liniensuchverfahren Seite 26 Man sagt dann, die Folge {x k } konvergiert linear gegen den Grenzwert x mit der Konvergenzrate β. Die Konvergenzgeschwindigkeit eines Algorithmus mit linearer Konvergenzordnung ist daher umso schneller, je kleiner die Konvergenzrate β ist. Der Grenzfall β = wird auch als superlinear bezeichnet, wobei unmittelbar einsichtig ist, dass jeder Algorithmus mit Konvergenzordnung größer superlinear ist. Beispiel 2.5. Die Folge { } hat eine lineare Konvergenzordnung, da nur für p k k die Bedingung lim k erfüllt ist. Die Auswertung von (2.25) für die Folge { k k } lim k k k = lim (k + ) k+ k k kp < (2.26) (k + ) k+ zeigt, dass die Folge { k k } superlinear gegen Null konvergiert. ( ) k k = β = (2.27) k + k + Bei den betrachteten Optimierungsalgorithmen für (2.) hat man es typischerweise mit Folgen von Vektoren der Form {x k }, die gegen ein Minimum x konvergieren, zu tun. Um die Konvergenzeigenschaft einer unendlichen Folge von Vektoren zu untersuchen, erfolgt zumeist eine Abbildung dieser Folge in eine Folge von Skalaren. Wenn f(x) die zu minimierende Funktion gemäß (2.) ist, dann wird üblicherweise das Konvergenzverhalten von {f(x k )} gegen f(x ) analysiert. Die Funktion f(x) wird in diesem Zusammenhang der Konvergenzanalyse auch als Fehlerfunktion bezeichnet. Man könnte natürlich als Fehlerfunktion auch eine Norm, beispielsweise x k x, verwenden, doch zeigt sich, dass die Konvergenzordnung einer Folge von Vektoren weitestgehend unabhängig von der Wahl der Fehlerfunktion ist. Die bekanntesten numerischen Verfahren zur Lösung unbeschränkter statischer Optimierungsprobleme sind die so genannten Liniensuchverfahren (Englisch: line search strategies). Daher wird im folgenden Abschnitt ein kurzer Überblick über die bekanntesten Liniensuchverfahren gegeben. Im Anschluss daran werden noch kurz zwei alternative Strategien, nämlich die Methode der Vertrauensbereiche und die direkten Suchverfahren, vorgestellt. 2.3 Liniensuchverfahren Die grundsätzliche algorithmische Struktur eines Liniensuchverfahrens sieht folgendermaßen aus: Zum Iterationsschritt k ermittelt man vorerst eine geeignete Suchrichtung bzw. Abstiegsrichtung s k so, dass wenn man sich hinreichend wenig vom Punkt x k aus in diese Richtung bewegt, also x k+ = x k + α k s k (2.28) mit einer geeigneten Schrittweite α k >, dann erfüllt man die Ungleichungsbedingung (2.2) f(x k+ ) = f(x k + α k s k ) < f(x k ). (2.29)

31 2.3 Liniensuchverfahren Seite 27 x k g(α k ) x k s k Höhenlinien α k Abbildung 2.2: Veranschaulichung des Liniensuchproblems (2.3). Nun muss die optimale Schrittweite α k > durch Lösung eines skalaren Optimierungsproblems min g (α k) = f (x k + α k s k ) (2.3) α k > gefunden werden. Diese Iteration wird nun solange durchgeführt, bis eine gewählte Fehlerfunktion betraglich kleiner als eine vorgegebene untere Schranke ist. Abbildung 2.2 veranschaulicht das Prinzip der Liniensuche für eine (nicht konvexe) Kostenfunktion f(x) mit x R 2 und einer gegebenen Suchrichtung s k. In diesem Zusammenhang wird auch der Name Liniensuchverfahren verständlich, da sich bei gegebener Suchrichtung s k die Optimierungsaufgabe auf das Auffinden eines Minimums entlang einer Linie reduziert Wahl der Schrittweite Intervallschachtelungsverfahren ( Goldener Schnitt ) Das Intervallschachtelungsverfahren generiert für das skalare Optimierungsproblem (2.3) eine konvergierende Folge von Intervallschachtelungen, um das Minimum von g(α k ) einzugrenzen. Zunächst muss ein Intervall [l, r ] gefunden werden, in dem die Funktion g(α k ) ein Minimum aufweist, siehe Abbildung 2.3. Dies kann z. B. dadurch erreicht werden, dass mit einem hinreichend kleinen l gestartet und r (ausgehend von l ) sukzessive vergrößert wird, bis der Funktionswert g(r ) anfängt zuzunehmen. Für das Folgende wird

Statisches Optimierungsproblem: Minimierung einer Funktion mit Optimierungsvariablen, die Elemente eines Euklidischen Raumes sind.

Statisches Optimierungsproblem: Minimierung einer Funktion mit Optimierungsvariablen, die Elemente eines Euklidischen Raumes sind. Einleitung Einzelne Teile dieses Skriptums orientieren sich am Skriptum Optimierung, das Herr Dr.-Ing. Knut Graichen im WS 9/ im Rahmen seiner Tätigkeit am Institut für Automatisierungs- und Regelungstechnik

Mehr

Vorlesung und Übung WS 2011/2012. Univ.-Prof. Dr. techn. Andreas KUGI OPTIMIERUNG

Vorlesung und Übung WS 2011/2012. Univ.-Prof. Dr. techn. Andreas KUGI OPTIMIERUNG - Vorlesung und Übung WS 2/22 Univ.-Prof. Dr. techn. Andreas KUGI OPTIMIERUNG Optimierung Vorlesung und Übung WS 2/22 Univ.-Prof. Dr. techn. Andreas KUGI TU Wien Institut für Automatisierungs- und Regelungstechnik

Mehr

METHODEN DER OPTIMIERUNG UND OPTIMALEN STEUERUNG

METHODEN DER OPTIMIERUNG UND OPTIMALEN STEUERUNG METHODEN DER OPTIMIERUNG UND OPTIMALEN STEUERUNG Wintersemester 218/219 Prof. Dr.-Ing. Knut Graichen Institut für Mess, Regel und Mikrotechnik Fakultät für Ingenieurwissenschaften und Informatik Universität

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

2 Statische Optimierung: Unbeschränkter Fall

2 Statische Optimierung: Unbeschränkter Fall 2 Statische Optimierung: Unbeschränkter Fall 2. Optimalitätsbedingungen Bevor in den Abschnitten 2.2 2.6 die numerischen Verfahren zur Lösung statischer Optimierungsprobleme ohne Beschränkungen behandelt

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h. Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

AM3: Differenzial- und Integralrechnung im R n. 1 Begriffe. 2 Norm, Konvergenz und Stetigkeit. x 1. x 2. f : x n. aus Platzgründen schreibt man:

AM3: Differenzial- und Integralrechnung im R n. 1 Begriffe. 2 Norm, Konvergenz und Stetigkeit. x 1. x 2. f : x n. aus Platzgründen schreibt man: AM3: Differenzial- und Integralrechnung im R n 1 Begriffe f : x 1 f 1 x 1, x 2,..., x n ) x 2... f 2 x 1, x 2,..., x n )... x n f m x 1, x 2,..., x n ) }{{}}{{} R n R m aus Platzgründen schreibt man: f

Mehr

(a), für i = 1,..., n.

(a), für i = 1,..., n. .4 Extremwerte Definition Sei M R n eine Teilmenge, f : M R stetig, a M ein Punkt. f hat in a auf M ein relatives (oder lokales) Maximum bzw. ein relatives (oder lokales) Minimum, wenn es eine offene Umgebung

Mehr

Kontinuierliche Optimierung

Kontinuierliche Optimierung Kontinuierliche Optimierung Markus Herrich Wintersemester 2018/19 ii Inhaltsverzeichnis 2 Optimalitäts- und Regularitätsbedingungen 1 2.1 Einleitung und Wiederholung.................... 1 2.2 Optimalitätsbedingungen

Mehr

Lösungsvorschlag zur Nachklausur zur Analysis

Lösungsvorschlag zur Nachklausur zur Analysis Prof Dr H Garcke, D Depner SS 09 NWF I - Mathematik 080009 Universität Regensburg Lösungsvorschlag zur Nachklausur zur Analysis Aufgabe Untersuchen Sie folgende Reihen auf Konvergenz und berechnen Sie

Mehr

NICHTRESTRINGIERTE OPTIMIERUNG

NICHTRESTRINGIERTE OPTIMIERUNG 3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene

Mehr

Konvexe Optimierungsprobleme

Konvexe Optimierungsprobleme von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel

Mehr

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x

Mehr

Analysis 2, Woche 9. Mehrdimensionale Differentialrechnung I. 9.1 Differenzierbarkeit

Analysis 2, Woche 9. Mehrdimensionale Differentialrechnung I. 9.1 Differenzierbarkeit A Analysis, Woche 9 Mehrdimensionale Differentialrechnung I A 9. Differenzierbarkeit A3 =. (9.) Definition 9. Sei U R m offen, f : U R n eine Funktion und a R m. Die Funktion f heißt differenzierbar in

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Das Trust-Region-Verfahren

Das Trust-Region-Verfahren Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein

Mehr

Übungen zur Ingenieur-Mathematik III WS 2011/12 Blatt Aufgabe 25: Berechnen Sie den kritischen Punkt der Funktion

Übungen zur Ingenieur-Mathematik III WS 2011/12 Blatt Aufgabe 25: Berechnen Sie den kritischen Punkt der Funktion Übungen zur Ingenieur-Mathematik III WS 11/1 Blatt 8 3.11.11 Aufgabe 5: Berechnen Sie den kritischen Punkt der Funktion fx, y 3x 5xy y + 3 und entscheiden Sie, ob ein Maximum, Minimum oder Sattelpunkt

Mehr

5.10. Mehrdimensionale Extrema und Sattelpunkte

5.10. Mehrdimensionale Extrema und Sattelpunkte 5.1. Mehrdimensionale Extrema und Sattelpunkte Zur Erinnerung: Eine Funktion f von einer Teilmenge A des R n nach R hat im Punkt a ein (strenges) globales Maximum, falls f( x ) f( a ) (bzw. f( x ) < f(

Mehr

8 Extremwerte reellwertiger Funktionen

8 Extremwerte reellwertiger Funktionen 8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R

Mehr

Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II. x 2

Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II. x 2 Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II Wiederholungsblatt: Analysis Sommersemester 2011 W. Werner, F. Springer erstellt von: Max Brinkmann Aufgabe 1: Untersuchen Sie, ob die

Mehr

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum. Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit

Mehr

Übung 5, Analytische Optimierung

Übung 5, Analytische Optimierung Übung 5, 5.7.2011 Analytische Optimierung Aufgabe 5.1 Bei der Herstellung von Konserven werden für Boden und Deckel bzw. für den Konservenmantel verschiedene Materialien verwendet, die g 1 = bzw. g 2 =

Mehr

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1

Mehr

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1

Mehr

3. Approximation von Funktionen und Extremwertprobleme im R n

3. Approximation von Funktionen und Extremwertprobleme im R n 3. Approximation von Funktionen und Extremwertprobleme im R n Wie in D ist es wichtig Funktionen mit mehreren Variablen durch Polynome lokal approximieren zu können. Polynome lassen sich im Gegensatz zu

Mehr

Analysis I für Studierende der Ingenieurwissenschaften

Analysis I für Studierende der Ingenieurwissenschaften Analysis I für Studierende der Ingenieurwissenschaften Ingenuin Gasser Department Mathematik Universität Hamburg Technische Universität Hamburg Harburg Wintersemester 2008/2009 1 Definition: Sei M R, alsom

Mehr

2.4 Verallgemeinerte Ungleichungen

2.4 Verallgemeinerte Ungleichungen 2.4 Verallgemeinerte Ungleichungen 2.4.1 Eigentliche Kegel und verallgemeinerte Ungleichungen Ein Kegel K R heißt eigentlicher Kegel, wenn er die folgenden Bedingungen erfüllt: K ist konvex K ist abgeschlossen

Mehr

1 0, x C X (A). = 1 χ A(x).

1 0, x C X (A). = 1 χ A(x). Aufgabe 1 a) Wir müssen nur zeigen, dass χ A B (x) = χ A (x) χ B (x) für alle x X gilt. (Dass χ A χ B Abbildung von X in {0, 1} ist, ist klar.) Sei also x X beliebig. Fall 1: x A B. Dies bedeutet x A und

Mehr

i j m f(y )h i h j h m

i j m f(y )h i h j h m 10 HÖHERE ABLEITUNGEN UND ANWENDUNGEN 56 Speziell für k = 2 ist also f(x 0 + H) = f(x 0 ) + f(x 0 ), H + 1 2 i j f(x 0 )h i h j + R(X 0 ; H) mit R(X 0 ; H) = 1 6 i,j,m=1 i j m f(y )h i h j h m und passendem

Mehr

1 Übungsaufgaben zu Kapitel 1

1 Übungsaufgaben zu Kapitel 1 Übungsaufgaben zu Kapitel. Übungsaufgaben zu Abschnitt... Aufgabe. Untersuchen Sie die nachstehend definierten Folgen ( a k ) k und ( b k ) k auf Konvergenz und bestimmen Sie ggf. den jeweiligen Grenzwert:

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle

Mehr

Analysis I. Guofang Wang Universität Freiburg

Analysis I. Guofang Wang Universität Freiburg Universität Freiburg 30.11.2016 5. Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,..., x n ) : x i R} = } R. {{.. R }. n mal Für x R ist x der Abstand zum

Mehr

Kapitel 16 : Differentialrechnung

Kapitel 16 : Differentialrechnung Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen

Mehr

Extrema multivariater Funktionen

Extrema multivariater Funktionen Extrema multivariater Funktionen Ist f (x ) ein Minimum (Maximum) einer stetig differenzierbaren skalaren Funktion f auf einer Umgebung U von x, so gilt grad f (x ) = (0,..., 0) t. Extrema multivariater

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09 ................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 Obige Angaben sind richtig: Unterschrift der Kandidatin/des Kandidaten 3 TECHNISCHE UNIVERSITÄT

Mehr

Extremwerte von Funktionen mehrerer reeller Variabler

Extremwerte von Funktionen mehrerer reeller Variabler Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein

Mehr

Musterlösung zu Blatt 1

Musterlösung zu Blatt 1 Musterlösung zu Blatt Analysis III für Lehramt Gymnasium Wintersemester 0/4 Überprüfe zunächst die notwendige Bedingung Dfx y z = 0 für die Existenz lokaler Extrema Mit x fx y z = 8x und y fx y z = + z

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

14. Das Minimumprinzip

14. Das Minimumprinzip H.J. Oberle Variationsrechnung u. Optimale Steuerung SoSe 2008 14. Das Minimumprinzip In diesem Abschnitt behandeln wir die Idee der dynamischen Programmierung, die auf Bellmann 31 (1957) zurückgeht und

Mehr

Praktische Optimierung

Praktische Optimierung Grundlagen klassischer Optimiertechniken Praktische Optimierung Wintersemester 2008/09 Prof Dr Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund Themen der heutigen

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

12. Trennungssätze für konvexe Mengen 83

12. Trennungssätze für konvexe Mengen 83 12. Trennungssätze für konvexe Mengen 83 C_1 C_2 a Abbildung 12.4. Trennung konvexer Mengen durch eine Hyperebene mit Normalenvektor a Dann ist int(c) nicht leer (warum?) und [als Minkowski-Summe von C

Mehr

Berechnung von Extrema

Berechnung von Extrema KAPITEL 2 Berechnung von Extrema 1. Partielle Ableitungen Definition 2.1 (partielle Ableitung). Sei U R n offen und e j der j-te Einheitsvektor. Eine Funktion f : U R ist in x u partiell differenzierbar

Mehr

1 Umkehrfunktionen und implizite Funktionen

1 Umkehrfunktionen und implizite Funktionen Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13

Mehr

Heinrich-Hertz-Oberschule, Berlin

Heinrich-Hertz-Oberschule, Berlin Reellwertige Funktionen mehrerer Variabler Teilnehmer: Maximilian Ringleb Jakob Napiontek Kay Makowsky Mallku Schlagowski Trung Duc Nguyen Alexander Reinecke Herder-Oberschule, Berlin Heinrich-Hertz-Oberschule,

Mehr

Praktische Optimierung

Praktische Optimierung Praktische Optimierung Dozent: Günter Rudolph Vertretung: Nicola Beume Wintersemester 2007/08 Universität Dortmund Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS11) Fachgebiet Computational

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrange.tex,v 1.6 2012/11/06 14:26:21 hk Exp hk $ 2 Extrema unter Nebenbedingungen 2.1 Restringierte Optimierungsaufgaben Nachdem wir jetzt die bereits bekannten Techniken zur Bestimmung der lokalen

Mehr

Höhere Mathematik für Physiker II

Höhere Mathematik für Physiker II Universität Heidelberg Sommersemester 2013 Wiederholungsblatt Übungen zur Vorlesung Höhere Mathematik für Physiker II Prof Dr Anna Marciniak-Czochra Dipl Math Alexandra Köthe Fragen Machen Sie sich bei

Mehr

18.2 Implizit definierte Funktionen

18.2 Implizit definierte Funktionen 18.2 Implizit definierte Funktionen Ziel: Untersuche Lösungsmengen von nichtlinearen Gleichungssystemen g(x) = 0 mit g : D R m, D R n, d.h. betrachte m Gleichungen für n Unbekannte mit m < n, d.h. wir

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Teil 6. Differentialrechnung mehrerer Veränderlicher

Teil 6. Differentialrechnung mehrerer Veränderlicher Teil 6 Differentialrechnung mehrerer Veränderlicher 95 96 6.1 Topologie von Mengen Umgebung ε-umgebung eines Punktes x R n : B ε (x) = {y : y x < ε} Umgebung U von x: Menge, die eine ε-umgebung von x enthält

Mehr

5.3.5 Abstiegs & Gradientenverfahren

5.3.5 Abstiegs & Gradientenverfahren 5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3.5 Abstiegs & Gradientenverfahren Die bisher kennengelernten Iterationsverfahren zur Approximation von linearen Gleichungssystemen haben

Mehr

Klausur zu Analysis II - Lösungen

Klausur zu Analysis II - Lösungen Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Dr. Axel Grünrock WS 1/11 11..11 Klausur zu Analysis II - Lösungen 1. Entscheiden Sie, ob die folgenden Aussagen richtig oder falsch sind.

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Gliederung 1 : Einführung 2 Differenzieren 2 3 Deskriptive 4 Wahrscheinlichkeitstheorie

Mehr

Das Gradientenverfahren

Das Gradientenverfahren Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

Inhaltsverzeichnis. Vorlesung und Übung Optimierung (WS 2017/2018) Steinböck, Kugi,Institut für Automatisierungs- und Regelungstechnik, TU Wien

Inhaltsverzeichnis. Vorlesung und Übung Optimierung (WS 2017/2018) Steinböck, Kugi,Institut für Automatisierungs- und Regelungstechnik, TU Wien Inhaltsverzeichnis 3 Statische Optimierung mit Beschränkungen 66 3.1 Optimalitätsbedingungen........................... 67 3.1.1 Optimalitätsbedingungen basierend auf zulässigen Richtungen... 67 3.1.2

Mehr

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie

Mehr

Extremalprobleme mit Nebenbedingungen

Extremalprobleme mit Nebenbedingungen Extremalprobleme mit Nebenbedingungen In diesem Abschnitt untersuchen wir Probleme der folgenden Form: g(x 0 ) = inf{g(x) : x Ω, f(x) = 0}, (x 0 Ω, f(x 0 ) = 0). (1) Hierbei sind Ω eine offene Menge des

Mehr

ε δ Definition der Stetigkeit.

ε δ Definition der Stetigkeit. ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x

Mehr

KAPITEL 3. Konvexe Funktionen

KAPITEL 3. Konvexe Funktionen KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn

Mehr

Wirtschaftsmathematik Formelsammlung

Wirtschaftsmathematik Formelsammlung Wirtschaftsmathematik Formelsammlung Binomische Formeln Stand März 2019 (a + b) 2 = a 2 + 2ab + b 2 (a b) 2 = a 2 2ab + b 2 (a + b) (a b) = a 2 b 2 Fakultät (Faktorielle) n! = 1 2 3 4 (n 1) n Intervalle

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

Wie in der reellen Analysis üblich notiert man Folgen f in der Form

Wie in der reellen Analysis üblich notiert man Folgen f in der Form 2.1.3 Folgen und Konvergenz Viele aus der Analysisvorlesung bekannte Begriffe lassen sich in den Bereich der metrischen Räume verallgemeinern. Diese Verallgemeinerung hat sich als sehr nützliches mathematisches

Mehr

Übungen zu Einführung in die Analysis

Übungen zu Einführung in die Analysis Übungen zu Einführung in die Analysis (Nach einer Zusammengestellung von Günther Hörmann) Sommersemester 2011 Vor den folgenden Aufgaben werden in den ersten Wochen der Übungen noch jene zur Einführung

Mehr

Das Lagrange-duale Problem

Das Lagrange-duale Problem Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h

Mehr

Nachklausur zur Analysis 2, SoSe 2017

Nachklausur zur Analysis 2, SoSe 2017 BERGISCHE UNIVERSITÄT WUPPERTAL 18.9.17 Fakultät 4 - Mathematik und Naturwissenschaften Prof. N. V. Shcherbina Dr. T. P. Pawlaschyk www.kana.uni-wuppertal.de Nachklausur zur Analysis 2, SoSe 217 Aufgabe

Mehr

Begleitmaterial zur Vorlesung Numerik II

Begleitmaterial zur Vorlesung Numerik II Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik

Mehr

Seminarvortrag: Trust-Region-Verfahren

Seminarvortrag: Trust-Region-Verfahren Seminarvortrag: Trust-Region-Verfahren Helena Klump Universität Paderborn Dezember 2012 Helena Klump 1 / 22 Trust-Region-Verfahren Problemstellung Sei die Funktion f : R n R gegeben. Betrachtet wird das

Mehr

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende) . Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)

Mehr

5 Stetigkeit und Differenzierbarkeit

5 Stetigkeit und Differenzierbarkeit 5 Stetigkeit und Differenzierbarkeit 5.1 Stetigkeit und Grenzwerte von Funktionen f(x 0 ) x 0 Graph einer stetigen Funktion. Analysis I TUHH, Winter 2006/2007 Armin Iske 127 Häufungspunkt und Abschluss.

Mehr

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist: Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,

Mehr

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016 Verständnisfragen-Teil ( Punkte) Jeder der Verständnisfragenblöcke besteht aus Verständnisfragen. Werden alle Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block Punkte.

Mehr

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang Sommersemester 03 6.06.03 Höhere Mathematik II für die Fachrichtungen Elektrotechnik und Informationstechnik

Mehr

Inexakte Newton Verfahren

Inexakte Newton Verfahren Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n

Mehr

Vorlesung Mathematik für Ingenieure 2 (Sommersemester 2009)

Vorlesung Mathematik für Ingenieure 2 (Sommersemester 2009) 1 Vorlesung Mathematik für Ingenieure 2 (Sommersemester 2009) Kapitel 10: Differenzialrechnung R n R m Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 27. März 2009) Differenzialrechnung

Mehr

HM I Tutorium 2. Lucas Kunz. 3. November 2016

HM I Tutorium 2. Lucas Kunz. 3. November 2016 HM I Tutorium 2 Lucas Kunz 3. November 2016 Inhaltsverzeichnis 1 Theorie 2 1.1 Reelle Zahlen.................................. 2 1.2 Intervalle..................................... 2 1.3 Beträge.....................................

Mehr

Misterlösung zur Klausur zur Vorlesung Analysis I, WS08/09, Samstag, (Version C)

Misterlösung zur Klausur zur Vorlesung Analysis I, WS08/09, Samstag, (Version C) Misterlösung zur Klausur zur Vorlesung Analysis I, WS08/09, Samstag, 14..009 (Version C Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen aus der Vorlesung

Mehr

Probeklausur zur Analysis 2, SoSe 2017

Probeklausur zur Analysis 2, SoSe 2017 BERGISCHE UNIVERSITÄT WUPPERTAL 21717 Fakultät 4 - Mathematik und Naturwissenschaften Prof N V Shcherbina Dr T P Pawlaschyk wwwkanauni-wuppertalde Probeklausur zur Analysis 2, SoSe 217 Hinweis Die Lösungen

Mehr

Analysis II. Aufgaben zum Stoff der Analysis I und II Lösungsvorschlag

Analysis II. Aufgaben zum Stoff der Analysis I und II Lösungsvorschlag Prof Dr H Garcke, D Depner SS 9 NWF I - Mathematik 1979 Universität Regensburg Aufgabe 1 Analysis II Aufgaben zum Stoff der Analysis I und II Lösungsvorschlag i Erinnern Sie sich an die Konvergenzkriterien

Mehr

Stetige Funktionen. Definition. Seien (X, d) und (Y, D) metrische Räume und f : X Y eine Abbildung. i) f heißt stetig in x 0 (x 0 D(f)), wenn

Stetige Funktionen. Definition. Seien (X, d) und (Y, D) metrische Räume und f : X Y eine Abbildung. i) f heißt stetig in x 0 (x 0 D(f)), wenn Stetige Funktionen Eine zentrale Rolle in der Analysis spielen Abbildungen f : X Y, wobei X und Y strukturierte Mengen sind (wie z.b. Vektorräume oder metrische Räume). Dabei sind i.a. nicht beliebige

Mehr

Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript

Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript Janko Latschev Fachbereich Mathematik Universität Hamburg www.math.uni-hamburg.de/home/latschev Hamburg,

Mehr

Klausur HM II/III F 2003 HM II/III : 1

Klausur HM II/III F 2003 HM II/III : 1 Klausur HM II/III F 3 HM II/III : Aufgabe : (7 Punkte) Untersuchen Sie die Funktion f : R R gegeben durch x 3 y 3 f(x, y) x + y sin, (x, y) (, ) x + y, (x, y) (, ) auf Stetigkeit und Differenzierbarkeit.

Mehr

Integraldarstellung des Restgliedes; Lagrangesche Restgliedformel;

Integraldarstellung des Restgliedes; Lagrangesche Restgliedformel; Kapitel Der Satz von Taylor. Taylor-Formel und Taylor-Reihe (Taylor-Polynom; Restglied; Integraldarstellung des Restgliedes; Lagrangesche Restgliedformel; die Klasse C ; reell analytische Funktionen) In

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 39 Definitheit von Bilinearformen Wir möchten die symmetrischen Bilinearformen über den reellen Zahlen klassifizieren.

Mehr

Nichtlineare Optimierung

Nichtlineare Optimierung Nichtlineare Optimierung Roland Griesse Numerische Mathematik Chemnitzer Skiseminar Gerlosberg, 07. 14. März 2009 Gliederung Konvexe Optimierung 1 Konvexe Optimierung Bedeutung Beispiele Charakterisierung

Mehr

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen

20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20 Gleichmäßige Konvergenz für Folgen und Reihen von Funktionen 20.1 Folgen und Reihen von Funktionen 20.3 Die Supremumsnorm 20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20.7 Das Cauchy-Kriterium

Mehr

(alternierendes Vorzeichen) a n := ( 1)n n + 1 a n := 3n 2 7n a n := n(n 1)(n 2), n 3

(alternierendes Vorzeichen) a n := ( 1)n n + 1 a n := 3n 2 7n a n := n(n 1)(n 2), n 3 ANALYSIS FÜR PHYSIK UND VERWANDTE FÄCHER I 43 2. Folgen und Reihen Folgen und Reihen werden in jedem Analysislehrbuch besprochen, siehe etwa [H, Kapitel III], [K, Kapitel 5], [J2, Kapitel 23] oder [M,

Mehr

Mathematik für Anwender. Testklausur mit Lösungen

Mathematik für Anwender. Testklausur mit Lösungen Fachbereich Mathematik/Informatik 4. Januar 0 Prof. Dr. H. Brenner Mathematik für Anwender Testklausur mit en Dauer: Zwei volle Stunden + 0 Minuten Orientierung, in denen noch nicht geschrieben werden

Mehr