Nichtlineare modellprädiktive Regelung

Größe: px
Ab Seite anzeigen:

Download "Nichtlineare modellprädiktive Regelung"

Transkript

1 Nichtlineare modellprädiktive Regelung Sabine Böhm, Miriam Kießling Mathematisches Institut Universität Bayreuth 23. und 30. Mai 2006 / Seminar MPC, Bayreuth

2 Inhalt 1. Einleitung Einsatz von NMPC Unterschied zu LMPC Problemstellung 2. Lösung durch Linearisierung Lineare Variablentransformation Verwendung von multiplen linearen Modellen

3 Inhalt 1. Einleitung Einsatz von NMPC Unterschied zu LMPC Problemstellung 2. Lösung durch Linearisierung Lineare Variablentransformation Verwendung von multiplen linearen Modellen

4 Inhalt 1. Einleitung Einsatz von NMPC Unterschied zu LMPC Problemstellung 2. Lösung durch Linearisierung Lineare Variablentransformation Verwendung von multiplen linearen Modellen

5 Inhalt 1. Einleitung Einsatz von NMPC Unterschied zu LMPC Problemstellung 2. Lösung durch Linearisierung Lineare Variablentransformation Verwendung von multiplen linearen Modellen

6 Inhalt 1. Einleitung Einsatz von NMPC Unterschied zu LMPC Problemstellung 2. Lösung durch Linearisierung Lineare Variablentransformation Verwendung von multiplen linearen Modellen

7 Inhalt 1. Einleitung Einsatz von NMPC Unterschied zu LMPC Problemstellung 2. Lösung durch Linearisierung Lineare Variablentransformation Verwendung von multiplen linearen Modellen

8 Inhalt 1. Einleitung Einsatz von NMPC Unterschied zu LMPC Problemstellung 2. Lösung durch Linearisierung Lineare Variablentransformation Verwendung von multiplen linearen Modellen

9 3. Indirekte Lösung von NMPC Anwendung des Pontryaginsches Minimumprinzip (a) Hamilton-Funktion (b) Pontryaginsches Minimumprinzip (c) Lösung des Randwertproblems,single und multiple shooting (d) Variationsrechnung als Grundlage des PMP (e) Anwendungsbeispiel

10 3. Indirekte Lösung von NMPC Anwendung des Pontryaginsches Minimumprinzip (a) Hamilton-Funktion (b) Pontryaginsches Minimumprinzip (c) Lösung des Randwertproblems,single und multiple shooting (d) Variationsrechnung als Grundlage des PMP (e) Anwendungsbeispiel

11 3. Indirekte Lösung von NMPC Anwendung des Pontryaginsches Minimumprinzip (a) Hamilton-Funktion (b) Pontryaginsches Minimumprinzip (c) Lösung des Randwertproblems,single und multiple shooting (d) Variationsrechnung als Grundlage des PMP (e) Anwendungsbeispiel

12 3. Indirekte Lösung von NMPC Anwendung des Pontryaginsches Minimumprinzip (a) Hamilton-Funktion (b) Pontryaginsches Minimumprinzip (c) Lösung des Randwertproblems,single und multiple shooting (d) Variationsrechnung als Grundlage des PMP (e) Anwendungsbeispiel

13 3. Indirekte Lösung von NMPC Anwendung des Pontryaginsches Minimumprinzip (a) Hamilton-Funktion (b) Pontryaginsches Minimumprinzip (c) Lösung des Randwertproblems,single und multiple shooting (d) Variationsrechnung als Grundlage des PMP (e) Anwendungsbeispiel

14 3. Indirekte Lösung von NMPC Anwendung des Pontryaginsches Minimumprinzip (a) Hamilton-Funktion (b) Pontryaginsches Minimumprinzip (c) Lösung des Randwertproblems,single und multiple shooting (d) Variationsrechnung als Grundlage des PMP (e) Anwendungsbeispiel

15 3. Indirekte Lösung von NMPC Anwendung des Pontryaginsches Minimumprinzip (a) Hamilton-Funktion (b) Pontryaginsches Minimumprinzip (c) Lösung des Randwertproblems,single und multiple shooting (d) Variationsrechnung als Grundlage des PMP (e) Anwendungsbeispiel

16 3. Indirekte Lösung von NMPC Dynamische Programmierung nach Bellman 4. direct multiple shooting 5. Zustandsschätzung mittels Erweitertem Kalman-Filter 6. Anwendung auf Destillationskolonne

17 3. Indirekte Lösung von NMPC Dynamische Programmierung nach Bellman 4. direct multiple shooting 5. Zustandsschätzung mittels Erweitertem Kalman-Filter 6. Anwendung auf Destillationskolonne

18 3. Indirekte Lösung von NMPC Dynamische Programmierung nach Bellman 4. direct multiple shooting 5. Zustandsschätzung mittels Erweitertem Kalman-Filter 6. Anwendung auf Destillationskolonne

19 3. Indirekte Lösung von NMPC Dynamische Programmierung nach Bellman 4. direct multiple shooting 5. Zustandsschätzung mittels Erweitertem Kalman-Filter 6. Anwendung auf Destillationskolonne

20 3. Indirekte Lösung von NMPC Dynamische Programmierung nach Bellman 4. direct multiple shooting 5. Zustandsschätzung mittels Erweitertem Kalman-Filter 6. Anwendung auf Destillationskolonne

21 1. Einleitung

22 Einleitung Meistens verwendet man Linearisierung Warum dann nichtlineare prädiktive Regelung?

23 Einleitung Linearisierung ist nicht geeignet, bei starken Nichtlinearitäten im Betriebspunkt. bei zwar lokal nur schwach Nichtlinearitäten, aber weiten Arbeitsbereich. Hier Linearisierungen zu wenig genau (wegen z.b.: strengeren Umweltgesetzen und ökonomischen Gesichtspunkten)

24 Einleitung Linearisierung ist nicht geeignet, bei starken Nichtlinearitäten im Betriebspunkt. bei zwar lokal nur schwach Nichtlinearitäten, aber weiten Arbeitsbereich. Hier Linearisierungen zu wenig genau (wegen z.b.: strengeren Umweltgesetzen und ökonomischen Gesichtspunkten)

25 Beispiele Reinst-Destillationanlagen (Beispiel am Ende) Mehrprodukt-Polymerisationsanlagen Kraftwerkanlagen mit häufigen großen Lastenwechseln

26 Beispiele Reinst-Destillationanlagen (Beispiel am Ende) Mehrprodukt-Polymerisationsanlagen Kraftwerkanlagen mit häufigen großen Lastenwechseln

27 Beispiele Reinst-Destillationanlagen (Beispiel am Ende) Mehrprodukt-Polymerisationsanlagen Kraftwerkanlagen mit häufigen großen Lastenwechseln

28 Unterschied von NMPC zu linearer MPC Größerer Aufwand bei der Entwicklung des Prozessmodells Parameteridentifikation nichtlinearer dynamischer Systeme schwieriger größerer Aufwand zur Lösung von Optimierungsproblems (nichtkonvexes Problem) Stabilität, Optimalität und Robustheit viel komplizierter

29 Unterschied von NMPC zu linearer MPC Größerer Aufwand bei der Entwicklung des Prozessmodells Parameteridentifikation nichtlinearer dynamischer Systeme schwieriger größerer Aufwand zur Lösung von Optimierungsproblems (nichtkonvexes Problem) Stabilität, Optimalität und Robustheit viel komplizierter

30 Unterschied von NMPC zu linearer MPC Größerer Aufwand bei der Entwicklung des Prozessmodells Parameteridentifikation nichtlinearer dynamischer Systeme schwieriger größerer Aufwand zur Lösung von Optimierungsproblems (nichtkonvexes Problem) Stabilität, Optimalität und Robustheit viel komplizierter

31 Unterschied von NMPC zu linearer MPC Größerer Aufwand bei der Entwicklung des Prozessmodells Parameteridentifikation nichtlinearer dynamischer Systeme schwieriger größerer Aufwand zur Lösung von Optimierungsproblems (nichtkonvexes Problem) Stabilität, Optimalität und Robustheit viel komplizierter

32 Nichtkonvexes Problem Zur Lösung des Problems muss Konvexität gelten, da bei konvexen Programmen gilt: Jeder lokale Minimierer ist ein globaler Minimierer globale Lösung Problem: nichtlineare Systeme sind im Allg. nichtkonvex

33 Nichtkonvexes Problem

34 Einleitung Problem: ẋ(t) = f (x(t), u(t)) x(0) = x 0 y(t) = h(x(t), u(t)) mit den Eingängen und Zuständen: u(t) U R m x(t) X R n

35 Einleitung Problem: ẋ(t) = f (x(t), u(t)) x(0) = x 0 y(t) = h(x(t), u(t)) mit den Eingängen und Zuständen: u(t) U R m x(t) X R n

36 Einleitung Dabei er erfüllen U und X die folgenden Annahmen: (A1) U R m ist kompakt, X R n ist zusammenhängend und (0, 0) X U (A2) Das Vektorfeld f : R n R m R n ist stetig erfüllt f (0, 0) = 0 und ist lokal Lipschitz stetig in x. (A3) x 0 X 1, X 1 X und stückweise konstante Fkt. u( ) : [0, T P ] U hat ẋ(t) eine eind. stetige Lösg.

37 Einleitung Dabei er erfüllen U und X die folgenden Annahmen: (A1) U R m ist kompakt, X R n ist zusammenhängend und (0, 0) X U (A2) Das Vektorfeld f : R n R m R n ist stetig erfüllt f (0, 0) = 0 und ist lokal Lipschitz stetig in x. (A3) x 0 X 1, X 1 X und stückweise konstante Fkt. u( ) : [0, T P ] U hat ẋ(t) eine eind. stetige Lösg.

38 Einleitung Dabei er erfüllen U und X die folgenden Annahmen: (A1) U R m ist kompakt, X R n ist zusammenhängend und (0, 0) X U (A2) Das Vektorfeld f : R n R m R n ist stetig erfüllt f (0, 0) = 0 und ist lokal Lipschitz stetig in x. (A3) x 0 X 1, X 1 X und stückweise konstante Fkt. u( ) : [0, T P ] U hat ẋ(t) eine eind. stetige Lösg.

39 Einleitung mit min J(x(t), u( ); T p) u( ) J(x(t), u( ); T p ) := t+tp t f 0 (x(τ), u(τ))dτ) + g(x(t + T p )) unter den Nebenbedingungen: ẋ(τ) = f (x(τ), u(τ)), x(t) = x t u(τ) U, τ [t, t + T p ] x(τ) X τ [t, t + T p ] x(t + T p ) E Hierbei ist E die Endregion

40 Einleitung mit min J(x(t), u( ); T p) u( ) J(x(t), u( ); T p ) := t+tp t f 0 (x(τ), u(τ))dτ) + g(x(t + T p )) unter den Nebenbedingungen: ẋ(τ) = f (x(τ), u(τ)), x(t) = x t u(τ) U, τ [t, t + T p ] x(τ) X τ [t, t + T p ] x(t + T p ) E Hierbei ist E die Endregion

41 2. Lösung durch Verwendung von LMPC

42 Linearisierung durch Variablen-Transformation

43 Beispiel Gegeben: Generelles Vorgehen: ẋ(t) = dx dt = f (x, u) (1) dx = f (x, u) = c 1 f 1 (x) + c 2 f 2 (x, u) (2) dt Dann denkt man sich eine Transformation: z = g(x) (3)

44 Variablen-Transformation 2 Varianten zur Wahl von g( ): oder dz dt dz dt = az + bv (4) = a + bv (5)

45 Variablen-Transformation Durch die Ableitung von z = g(x) erhält man: dz dt = dz dx dx dt wenn man (2) in (6) einsetzt, ergibt sich: dz dt = c 1 f 1 (x) dz dx + c 2f 2 (x, u) dz dx Nun wählt man z = g(x) so, dass gilt: dz dx = z f 1 (x) = 1 f 1 (x) und zusätzlich f 2 (x, u) dz dx = v (9) dadurch (7) ˆ=(4) (7) ˆ=(5), wobei a = c 1 und b = c 2. (6) (7) (8)

46 Variablen-Transformation Durch die Ableitung von z = g(x) erhält man: dz dt = dz dx dx dt wenn man (2) in (6) einsetzt, ergibt sich: dz dt = c 1 f 1 (x) dz dx + c 2f 2 (x, u) dz dx Nun wählt man z = g(x) so, dass gilt: dz dx = z f 1 (x) = 1 f 1 (x) und zusätzlich f 2 (x, u) dz dx = v (9) dadurch (7) ˆ=(4) (7) ˆ=(5), wobei a = c 1 und b = c 2. (6) (7) (8)

47 Variablen-Transformation Durch Umformung von (8) erhält man: dz z = dx f 1 (x) dz = dx f 1 (x) oder ln z = dx f 1 (x) = z = exp[ dx f 1 (x) ] = dx f 1 (x) Durch einsetzen von Gleichung (8) in (9) und Umformung erhält man: f 2 (x, u) = vf 1(x) = vf 1 (x) (10) z

48 Variablen-Transformation Durch Umformung von (8) erhält man: dz z = dx f 1 (x) dz = dx f 1 (x) oder ln z = dx f 1 (x) = z = exp[ dx f 1 (x) ] = dx f 1 (x) Durch einsetzen von Gleichung (8) in (9) und Umformung erhält man: f 2 (x, u) = vf 1(x) = vf 1 (x) (10) z

49 Variablen-Transformation Die Gleichung (10) löst man dann nach u auf, um u = q(x, v) zu erhalten. Das Ergebnis ist ein lineares MPC.

50 LMPC mit multiplen linearen Modellen

51 LMPC mit multiplen, linearen Modellen Arbeitsbereich in n Teilbereiche untergliedert für jeden ein lineares Modell erstellt alle Modelle werden parallel zur Vorhersage der Regelgrößen y herangezogen die Vorhersagen der einzelnen Modelle gewichtet aufsummiert gewichteter Mittelwert ŷ = n i=1 α iŷ i

52 LMPC mit multiplen, linearen Modellen Arbeitsbereich in n Teilbereiche untergliedert für jeden ein lineares Modell erstellt alle Modelle werden parallel zur Vorhersage der Regelgrößen y herangezogen die Vorhersagen der einzelnen Modelle gewichtet aufsummiert gewichteter Mittelwert ŷ = n i=1 α iŷ i

53 LMPC mit multiplen, linearen Modellen Arbeitsbereich in n Teilbereiche untergliedert für jeden ein lineares Modell erstellt alle Modelle werden parallel zur Vorhersage der Regelgrößen y herangezogen die Vorhersagen der einzelnen Modelle gewichtet aufsummiert gewichteter Mittelwert ŷ = n i=1 α iŷ i

54 LMPC mit multiplen, linearen Modellen Arbeitsbereich in n Teilbereiche untergliedert für jeden ein lineares Modell erstellt alle Modelle werden parallel zur Vorhersage der Regelgrößen y herangezogen die Vorhersagen der einzelnen Modelle gewichtet aufsummiert gewichteter Mittelwert ŷ = n i=1 α iŷ i

55 LMPC mit multiplen, linearen Modellen Arbeitsbereich in n Teilbereiche untergliedert für jeden ein lineares Modell erstellt alle Modelle werden parallel zur Vorhersage der Regelgrößen y herangezogen die Vorhersagen der einzelnen Modelle gewichtet aufsummiert gewichteter Mittelwert ŷ = n i=1 α iŷ i

56 LMPC mit multiplen, linearen Modellen Berechnung der Gewichtsfaktoren α i α i [0, 1] αi = 1 Berechnung der α i : wobei p j,k = N m=1 α j,k = p j,k N m=1 p m,k exp( 1 2 ɛt j,k K ɛ j,k)p j,k 1 exp( 1 2 ɛt m,k K ɛ m,k)p m,k 1 und K eine Konvergenzmatrix und ɛ j,k = (y ŷ i )

57 LMPC mit multiplen, linearen Modellen Berechnung der Gewichtsfaktoren α i α i [0, 1] αi = 1 Berechnung der α i : wobei p j,k = N m=1 α j,k = p j,k N m=1 p m,k exp( 1 2 ɛt j,k K ɛ j,k)p j,k 1 exp( 1 2 ɛt m,k K ɛ m,k)p m,k 1 und K eine Konvergenzmatrix und ɛ j,k = (y ŷ i )

58 LMPC mit multiplen, linearen Modellen größte Herausforderung: Bestimmung der n Teilmodelle einfachste Zerlegungsmethode: Unterteilung des gesamten Arbeitsbereichs in ein gleichmäßiges mehrdimensionales Gitter

59 LMPC mit multiplen, linearen Modellen größte Herausforderung: Bestimmung der n Teilmodelle einfachste Zerlegungsmethode: Unterteilung des gesamten Arbeitsbereichs in ein gleichmäßiges mehrdimensionales Gitter

60 LMPC mit multiplen, linearen Modellen größte Herausforderung: Bestimmung der n Teilmodelle einfachste Zerlegungsmethode: Unterteilung des gesamten Arbeitsbereichs in ein gleichmäßiges mehrdimensionales Gitter

61 LMPC mit multiplen, linearen Modellen größte Herausforderung: Bestimmung der n Teilmodelle einfachste Zerlegungsmethode: Unterteilung des gesamten Arbeitsbereichs in ein gleichmäßiges mehrdimensionales Gitter

62 LMPC mit multiplen, linearen Modellen Nachteil: riesigen Zahl von Modellen zu identifizieren Alternative: z.b. LOLIMOT-Verfahren (Local Linear Model Tree) Sukzessive Teilung des Eingangsraums

63 LMPC mit multiplen, linearen Modellen Nachteil: riesigen Zahl von Modellen zu identifizieren Alternative: z.b. LOLIMOT-Verfahren (Local Linear Model Tree) Sukzessive Teilung des Eingangsraums

64 LMPC mit multiplen, linearen Modellen Nachteil: riesigen Zahl von Modellen zu identifizieren Alternative: z.b. LOLIMOT-Verfahren (Local Linear Model Tree) Sukzessive Teilung des Eingangsraums

65 LMPC mit multiplen, linearen Modellen Nachteil: riesigen Zahl von Modellen zu identifizieren Alternative: z.b. LOLIMOT-Verfahren (Local Linear Model Tree) Sukzessive Teilung des Eingangsraums

66 LMPC mit multiplen, linearen Modellen

67 LMPC mit multiplen, linearen Modellen

68 3. Indirekte Lösung von NMPC

69 Indirekte Lösung von NMPC Anwendung des MPC - Algorithmus auf nichtlineares System Problem: Zielfunktional und Nebenbedingungen nichtlinear

70 Indirekte Lösung von NMPC Anwendung des MPC - Algorithmus auf nichtlineares System Problem: Zielfunktional und Nebenbedingungen nichtlinear

71 3.1 Verwendung des Pontryaginschen Minimumprinzip

72 Lösung von NMPC mittels PMP

73 Lösung von NMPC mittels PMP

74 Lösung von NMPC mittels PMP

75 Lösung von NMPC mittels PMP

76 Lösung von NMPC mittels PMP

77 Optimaler Steuerprozess - Bolza-Form Definition Das Problem Minimiere J(x, u) = g(x(t 0 ), x(t f )) + unter den Nebenbedingungen heißt optimaler Steuerprozess tf t 0 ẋ(t) = f (x(t), u(t), t), ψ(x(t 0 ), x(t f )) = 0, u(t) U, t [t 0, t f ], f 0 (x(t), u(t), t)dt

78 Randbedingungen Definition: Sei r N, 0 r 2n. Die Bedingung ψ(x(t 0 ), x(t f )) = 0, für Anfangs- und Endzustand mit einer (bzgl. x(t 0 ) und x(t f )) stetig differenzierbaren Funktion ψ : R n R n R r wird eine allgemeine Randbedingung genannt.

79 Optimale Lösung Definition: Ein zulässiges Funktionenpaar (x, u ) zur Endzeit t f heißt optimale Lösung des optimalen Steuerprozesses, falls J(x, u ) J(x, u) für alle zulässigen Paare (x, u) zur Endzeit t f gilt.

80 Hamiltion-Funktion und adjungierte Variable Definition: Sei λ 0 R und λ R n. Dann heißt H(x, λ, u, t) := λ 0 f 0 (x, u, t) + λ T f (x, u, t) die Hamilton-Funktion zum Steuerprozess. λ wird adjungierte Variable zu x genannt

81 Pontryaginsches Minimumprinzip Für eine optimale Lösung (x, u ) existieren eine reelle Zahl λ 0 0, eine stetig und stückweise stetig differenzierbare Funktion λ : [t 0, t f ] R n, sowie ein Vektor ρ R r, so dass gelten: 1. (λ 0, λ T (t), ρ T ) 0, t [t 0, t f ]

82 Pontryaginsches Minimumprinzip Für eine optimale Lösung (x, u ) existieren eine reelle Zahl λ 0 0, eine stetig und stückweise stetig differenzierbare Funktion λ : [t 0, t f ] R n, sowie ein Vektor ρ R r, so dass gelten: 1. (λ 0, λ T (t), ρ T ) 0, t [t 0, t f ]

83 Pontryaginsches Minimumprinzip 2. An allen Stetigkeitsstellen t von u in [t 0, t f ] gelten: Minimumbedingung: H(x (t), λ(t), u (t), t) = min u U H(x (t), λ(t), u, t), Adjungierte Differentialgleichungen: λ T = x H(x (t), λ(t), u (t), t),

84 Pontryaginsches Minimumprinzip 2. An allen Stetigkeitsstellen t von u in [t 0, t f ] gelten: Minimumbedingung: H(x (t), λ(t), u (t), t) = min u U H(x (t), λ(t), u, t), Adjungierte Differentialgleichungen: λ T = x H(x (t), λ(t), u (t), t),

85 Pontryaginsches Minimumprinzip 2. An allen Stetigkeitsstellen t von u in [t 0, t f ] gelten: Minimumbedingung: H(x (t), λ(t), u (t), t) = min u U H(x (t), λ(t), u, t), Adjungierte Differentialgleichungen: λ T = x H(x (t), λ(t), u (t), t),

86 Pontryaginsches Minimumprinzip 3. Transversalitätsbedingung: λ(t 0 ) = x(t0 )(λ 0 g(x (t 0 ), x (t f )) + ρ T ψ(x (t 0 ), x (t f ))) T, λ(t f ) = x(tf )(λ 0 g(x (t 0 ), x (t f )) + ρ T ψ(x (t 0 ), x (t f ))) T,

87 Varitationsrechnung Vereinfachung: Zielfunktional besteht nur aus bestimmtem Integral Integrand nur von x(t) und zusätzlich von ẋ(t) abhängig keine Nebenbedingungen

88 Varitationsrechnung Vereinfachung: Zielfunktional besteht nur aus bestimmtem Integral Integrand nur von x(t) und zusätzlich von ẋ(t) abhängig keine Nebenbedingungen

89 Varitationsrechnung Vereinfachung: Zielfunktional besteht nur aus bestimmtem Integral Integrand nur von x(t) und zusätzlich von ẋ(t) abhängig keine Nebenbedingungen

90 Variationsrechnung Variationsproblem: J = tf t 0 f (t, x, ẋ(t))dt Gesucht ist diejenige Funktion x = x(t), welche die Randbedingungen x(t 0 ) = x 0 und x(t f ) = x f erfüllt und J minimiert.

91 Variationsrechnung

92 Variationsrechnung Vorgehensweise von Euler: Annahme: Lösung x = x (t) sei gefunden Konstruktion einer einparametrigen Schar von Vergleichskurven x(t) = x (t) + ɛ x(t), (11) ɛ 0 < ɛ < ɛ 0 (ɛ 0 > 0), x(t) beliebige Funktion mit x(t 0 ) = 0, x(t f ) = 0

93 Variationsrechnung Vorgehensweise von Euler: Annahme: Lösung x = x (t) sei gefunden Konstruktion einer einparametrigen Schar von Vergleichskurven x(t) = x (t) + ɛ x(t), (11) ɛ 0 < ɛ < ɛ 0 (ɛ 0 > 0), x(t) beliebige Funktion mit x(t 0 ) = 0, x(t f ) = 0

94 Variationsrechnung

95 Variationsrechnung eingesetzt ins Zielfunktional: J = tf t 0 f (t, x (t) + ɛ x(t), ẋ (t) + ɛ x(t))dt = F (ɛ) optimale Lösung x (t) ist für ɛ = 0 in der Vergleichskurvenschar enthalten F (ɛ) muss für ɛ = 0 Minimum haben [ ] df = 0 dɛ ɛ=0

96 Variationsrechnung eingesetzt ins Zielfunktional: J = tf t 0 f (t, x (t) + ɛ x(t), ẋ (t) + ɛ x(t))dt = F (ɛ) optimale Lösung x (t) ist für ɛ = 0 in der Vergleichskurvenschar enthalten F (ɛ) muss für ɛ = 0 Minimum haben [ ] df = 0 dɛ ɛ=0

97 Variationsrechnung Nach Differenzieren nach ɛ, Nullsetzen von ɛ, partieller Integration: J = tf t 0 [ f x d ( )] f x(t)dt = 0 dt ẋ soll für eine bis auf die Randwerte beliebige Funktion x(t) gelten es muss gelten: t [t 0, t f ]: f x d dt ( f ẋ ) = 0. (Euler - Lagrangesche Differentialgleichung)

98 Variationsrechnung Nach Differenzieren nach ɛ, Nullsetzen von ɛ, partieller Integration: J = tf t 0 [ f x d ( )] f x(t)dt = 0 dt ẋ soll für eine bis auf die Randwerte beliebige Funktion x(t) gelten es muss gelten: t [t 0, t f ]: f x d dt ( f ẋ ) = 0. (Euler - Lagrangesche Differentialgleichung)

99 Variationsrechnung Als allgemeine Lösung ergibt sich eine zweiparametrige Kurvenschar: x = x(t, c 1, c 2 ) c 1 und c 2 sind aus den Randbedingungen zu ermitteln: x(t 0, c 1, c 2 ) = x 0, x(t f, c 1, c 2 ) = x f

100 Variationsrechnung durch Eulersche Idee, eine einparametrige Vergleichskurvenschar einzuführen, Rückführung des Variationsproblem auf ein gewöhnliches Extremalproblem PMP Weiterentwicklung der Variationsrechnung

101 Variationsrechnung durch Eulersche Idee, eine einparametrige Vergleichskurvenschar einzuführen, Rückführung des Variationsproblem auf ein gewöhnliches Extremalproblem PMP Weiterentwicklung der Variationsrechnung

102 Pontryaginsches Minimumprinzip Ergebnis des PMP: u kann in Abhängigkeit von x, λ und t aus der Minimumbedingung bestimmt und dann für jedes t in das kanonische Differentialgleichungssystem eingesetzt werden 2-Punkt-Randwertproblem für 2n gewöhnliche Differentialgleichungen. Lösung des Randwertproblems mit numerischen Verfahren

103 Pontryaginsches Minimumprinzip Ergebnis des PMP: u kann in Abhängigkeit von x, λ und t aus der Minimumbedingung bestimmt und dann für jedes t in das kanonische Differentialgleichungssystem eingesetzt werden 2-Punkt-Randwertproblem für 2n gewöhnliche Differentialgleichungen. Lösung des Randwertproblems mit numerischen Verfahren

104 Pontryaginsches Minimumprinzip Ergebnis des PMP: u kann in Abhängigkeit von x, λ und t aus der Minimumbedingung bestimmt und dann für jedes t in das kanonische Differentialgleichungssystem eingesetzt werden 2-Punkt-Randwertproblem für 2n gewöhnliche Differentialgleichungen. Lösung des Randwertproblems mit numerischen Verfahren

105 Pontryaginsches Minimumprinzip Ergebnis des PMP: u kann in Abhängigkeit von x, λ und t aus der Minimumbedingung bestimmt und dann für jedes t in das kanonische Differentialgleichungssystem eingesetzt werden 2-Punkt-Randwertproblem für 2n gewöhnliche Differentialgleichungen. Lösung des Randwertproblems mit numerischen Verfahren

106 3.2 Verfahren zur Lösung des Randwertproblems

107 Einfach - Schießverfahren

108 Einfach - Schießverfahren Randwertproblem: ψ(x(t 0 ), x(t f )) = 0. ẋ = f (x, t), (12)

109 Einfach-Schießverfahren Bestimmung eines Anfangswertes s R n für das Anfangswertproblem ẋ = f (x, t), (13) x(t 0 ) = s, so dass die Lösung x(t) = x(t; s) die Randbedingungen (12) erfüllt.

110 Einfach-Schießverfahren Das heißt: ψ(x(t 0 ; s), x(t f ; s)) ψ(s, x(t f ; s)) = 0. Es ist eine Nullstelle der Funktion F(s) := ψ(s, x(t f ; s)) zu bestimmen.

111 Einfach-Schießverfahren Das heißt: ψ(x(t 0 ; s), x(t f ; s)) ψ(s, x(t f ; s)) = 0. Es ist eine Nullstelle der Funktion F(s) := ψ(s, x(t f ; s)) zu bestimmen.

112 Nullstellenbestimmung Newtonverfahren Newtonartige Verfahren

113 Nullstellenbestimmung Newtonverfahren Newtonartige Verfahren

114 Einfach-Schießverfahren Bestimmung von x(t f ; s) durch Lösen des Anfangswertproblems (13) in jedem Iterationsschritt Differenz der durch die Anfangsschätzung bestimmten Lösung in t f, d.h. x(t f ; s), und der bekannten Endbedingungen x(t f ) wird zu Null gerechnet

115 Einfach-Schießverfahren Bestimmung von x(t f ; s) durch Lösen des Anfangswertproblems (13) in jedem Iterationsschritt Differenz der durch die Anfangsschätzung bestimmten Lösung in t f, d.h. x(t f ; s), und der bekannten Endbedingungen x(t f ) wird zu Null gerechnet

116 Einfach - Schießverfahren

117 Lösung des Anfangswertproblems Einschrittverfahren (Polygonzugverfahren von Euler, Runge-Kutta Verfahren) Mehrschrittverfahren (Adams - Bashforth, Adams - Moulton) Extrapolationsverfahren Schrittweitensteuerung

118 Lösung des Anfangswertproblems Einschrittverfahren (Polygonzugverfahren von Euler, Runge-Kutta Verfahren) Mehrschrittverfahren (Adams - Bashforth, Adams - Moulton) Extrapolationsverfahren Schrittweitensteuerung

119 Lösung des Anfangswertproblems Einschrittverfahren (Polygonzugverfahren von Euler, Runge-Kutta Verfahren) Mehrschrittverfahren (Adams - Bashforth, Adams - Moulton) Extrapolationsverfahren Schrittweitensteuerung

120 Lösung des Anfangswertproblems Einschrittverfahren (Polygonzugverfahren von Euler, Runge-Kutta Verfahren) Mehrschrittverfahren (Adams - Bashforth, Adams - Moulton) Extrapolationsverfahren Schrittweitensteuerung

121 Einfach - Schießverfahren Problem: erhebliche Ungenauigkeiten, sofern x(t) = x(t; s) sehr empfindlich von s abhängt

122 Mehrzielmethode

123 Mehrfach - Schießverfahren Unterteilung von [t 0, t f ] Anwendung des Einfachschießverfahrens auf Teilintervalle für werden die Werte t 0 = t 1 < t 2... < t M = t f s k = x(t k ), k = 1,..., M 1 der exakten Lösung x(t) des Randwertproblems (12) gleichzeitig iterativ berechnet

124 Mehrfach - Schießverfahren Unterteilung von [t 0, t f ] Anwendung des Einfachschießverfahrens auf Teilintervalle für werden die Werte t 0 = t 1 < t 2... < t M = t f s k = x(t k ), k = 1,..., M 1 der exakten Lösung x(t) des Randwertproblems (12) gleichzeitig iterativ berechnet

125 Mehrfach - Schießverfahren Unterteilung von [t 0, t f ] Anwendung des Einfachschießverfahrens auf Teilintervalle für werden die Werte t 0 = t 1 < t 2... < t M = t f s k = x(t k ), k = 1,..., M 1 der exakten Lösung x(t) des Randwertproblems (12) gleichzeitig iterativ berechnet

126 Mehrfach - Schießverfahren x(t; t k, s k ) sei Lösung des Anfangswertproblems ẋ = f (x, t), (14) x(t k ) = s k (15)

127 Mehrfach-Schießverfahren Vektoren s k, k = 1,..., M 1 sind so zu bestimmen, dass die aus den x(t; t k, s) stückweise zusammengesetzte Funktion x(t) := x(t; t k, s k ) für t [t k, t k+1 [, k = 1,..., M 1, stetig ist und die Randbedingungen ψ(x(t 0 ), x(t f )) = 0 erfüllt.

128 Mehrfach - Schießverfahren

129 Mehrfach - Schießverfahren n(m 1) Bedingungen: x(t k+1 ; t k, s k ) = s k+1, k = 1,..., M 2, (Stetigkeit) ψ(s 1, x(t M ; t M 1, s M 1)) = 0, (Randbedingungen) für die n(m 1) unbekannten Komponenten s (j) k, j = 1,..., n, k = 1,..., M 1 der s k

130 Mehrfach - Schießverfahren Gleichungssystem: F 1 (s 1, s 2 ) F 2 (s 2, s 3 ) F (s) :=. := F M 2 (s M 2, s M 1 ) F M 1 (s 1, s M 1 ) = 0 x(t 2 ; t 1, s 1 ) s 2 x(t 3 ; t 2, s 2 ) s 3. x(t M 1 ; t M 2, s M 2 ) s M 1 ψ(s 1, x(t M ; t M 1, s M 1 ))

131 Verfahren zur Nullstellenbestimmung Newton Quasi - Newton Reduzierung des Rechenaufwands durch Verwendung von Broyden - Approximationen zur Bestimmung von F(s)

132 Verfahren zur Nullstellenbestimmung Newton Quasi - Newton Reduzierung des Rechenaufwands durch Verwendung von Broyden - Approximationen zur Bestimmung von F(s)

133 Verfahren zur Nullstellenbestimmung Newton Quasi - Newton Reduzierung des Rechenaufwands durch Verwendung von Broyden - Approximationen zur Bestimmung von F(s)

134 3.3 Anwendung des Pontryaginschen Minimumprinzip

135 Anwendung des Pontryaginschen Minimumprinzips Gegeben sei das folgende Problem: unter min N 1 j=0 tj+1 t j u(t)dt ẋ(t) = e x(t) x(t)u(t) = f (x(t), u(t)) x(t 0 ) = x 0 x(t f ) = x f 0 u(t) 4 t 0... t f

136 Anwendung des Pontryaginschen Minimumprinzips Gegeben sei das folgende Problem: unter min N 1 j=0 tj+1 t j u(t)dt ẋ(t) = e x(t) x(t)u(t) = f (x(t), u(t)) x(t 0 ) = x 0 x(t f ) = x f 0 u(t) 4 t 0... t f

137 Anwendung des Pontryaginschen Minimumprinzips Gegeben sei das folgende Problem: unter min N 1 j=0 tj+1 t j u(t)dt ẋ(t) = e x(t) x(t)u(t) = f (x(t), u(t)) x(t 0 ) = x 0 x(t f ) = x f 0 u(t) 4 t 0... t f

138 Anwendung des Pontryaginschen Minimumprinzips Gegeben sei das folgende Problem: unter min N 1 j=0 tj+1 t j u(t)dt ẋ(t) = e x(t) x(t)u(t) = f (x(t), u(t)) x(t 0 ) = x 0 x(t f ) = x f 0 u(t) 4 t 0... t f

139 Anwendung des Pontryaginschen Minimumprinzips Gegeben sei das folgende Problem: unter min N 1 j=0 tj+1 t j u(t)dt ẋ(t) = e x(t) x(t)u(t) = f (x(t), u(t)) x(t 0 ) = x 0 x(t f ) = x f 0 u(t) 4 t 0... t f

140 Anwendung des Pontryaginschen Minimumprinzips Gegeben sei das folgende Problem: unter min N 1 j=0 tj+1 t j u(t)dt ẋ(t) = e x(t) x(t)u(t) = f (x(t), u(t)) x(t 0 ) = x 0 x(t f ) = x f 0 u(t) 4 t 0... t f

141 Anwendung des Pontryaginschen Minimumprinzips Gegeben sei das folgende Problem: unter min N 1 j=0 tj+1 t j u(t)dt ẋ(t) = e x(t) x(t)u(t) = f (x(t), u(t)) x(t 0 ) = x 0 x(t f ) = x f 0 u(t) 4 t 0... t f

142 Bestimmung der Hamiltonfunktion Definition Hamiltonfunktion: H(x, λ, u, t) := λ 0 f 0 (x, u, t) + λ T f (x, u, t) Es gilt: H(x, λ, u, t) = λ(t)[e x(t) x(t)u(t)] + λ 0 u(t)

143 Bestimmung der Hamiltonfunktion Definition Hamiltonfunktion: H(x, λ, u, t) := λ 0 f 0 (x, u, t) + λ T f (x, u, t) Es gilt: H(x, λ, u, t) = λ(t)[e x(t) x(t)u(t)] + λ 0 u(t)

144 Minimumbedingung Definition Minimumbedingung: H(x (t), λ(t), u (t), t) = min u U H(x (t), λ(t), u, t) min u U λ(t)ex (t) λ(t)x (t)u(t) + λ 0 u(t) = min u U λ(t)ex (t) + u(t)[λ 0 λ(t)x (t)]

145 Minimumbedingung Definition Minimumbedingung: H(x (t), λ(t), u (t), t) = min u U H(x (t), λ(t), u, t) min u U λ(t)ex (t) λ(t)x (t)u(t) + λ 0 u(t) = min u U λ(t)ex (t) + u(t)[λ 0 λ(t)x (t)]

146 Minimumbedingung min u U λ(t)ex (t) + u(t)[λ 0 λ(t)x (t)] 1. Fall: λ 0 λ(t)x (t) > 0 Minimum für u(t) = 0 2. Fall: λ 0 λ(t)x (t) < 0 Minimum für u(t) = 4 3. Fall: λ 0 λ(t)x (t) = 0 singuläre Steuerung nur noch der 3.Fall ist zu untersuchen

147 Minimumbedingung min u U λ(t)ex (t) + u(t)[λ 0 λ(t)x (t)] 1. Fall: λ 0 λ(t)x (t) > 0 Minimum für u(t) = 0 2. Fall: λ 0 λ(t)x (t) < 0 Minimum für u(t) = 4 3. Fall: λ 0 λ(t)x (t) = 0 singuläre Steuerung nur noch der 3.Fall ist zu untersuchen

148 Minimumbedingung min u U λ(t)ex (t) + u(t)[λ 0 λ(t)x (t)] 1. Fall: λ 0 λ(t)x (t) > 0 Minimum für u(t) = 0 2. Fall: λ 0 λ(t)x (t) < 0 Minimum für u(t) = 4 3. Fall: λ 0 λ(t)x (t) = 0 singuläre Steuerung nur noch der 3.Fall ist zu untersuchen

149 Minimumbedingung min u U λ(t)ex (t) + u(t)[λ 0 λ(t)x (t)] 1. Fall: λ 0 λ(t)x (t) > 0 Minimum für u(t) = 0 2. Fall: λ 0 λ(t)x (t) < 0 Minimum für u(t) = 4 3. Fall: λ 0 λ(t)x (t) = 0 singuläre Steuerung nur noch der 3.Fall ist zu untersuchen

150 Adjungierte Differentialgleichung Definition Adjungierte Differentialgleichung: λ T = x H(x (t), λ(t), u (t), t) λ(t) = x H(x, λ, u ) = λ(t)e x (t) + λ(t)u (t)

151 Adjungierte Differentialgleichung Definition Adjungierte Differentialgleichung: λ T = x H(x (t), λ(t), u (t), t) λ(t) = x H(x, λ, u ) = λ(t)e x (t) + λ(t)u (t)

152 Singuläre Steuerung σ(t) := λ 0 λ(t)x (t) = 0 auf singulärem Intervall d dt σ(t) 0 d dt σ(t) = λ(t)x (t) λ(t)ẋ (t) = [λ(t)e x (t) λ(t)u (t)]x (t) λ(t)[e x (t) x (t)u (t)] = λ(t)e x (t) [x (t) 1] = 0

153 Singuläre Steuerung σ(t) := λ 0 λ(t)x (t) = 0 auf singulärem Intervall d dt σ(t) 0 d dt σ(t) = λ(t)x (t) λ(t)ẋ (t) = [λ(t)e x (t) λ(t)u (t)]x (t) λ(t)[e x (t) x (t)u (t)] = λ(t)e x (t) [x (t) 1] = 0

154 Singuläre Steuerung σ(t) := λ 0 λ(t)x (t) = 0 auf singulärem Intervall d dt σ(t) 0 d dt σ(t) = λ(t)x (t) λ(t)ẋ (t) = [λ(t)e x (t) λ(t)u (t)]x (t) λ(t)[e x (t) x (t)u (t)] = λ(t)e x (t) [x (t) 1] = 0

155 Singuläre Steuerung Für λ 0 = 1 : auf singulärem Intervall gilt: λ 0 λ(t)x (t) = 0 λ(t)x (t) = 1 λ(t)e x (t) [x (t) 1] = 0 x (t) 1 ẋ (t) 0 0 = ẋ (t) = e x (t) x (t)u (t) = e u (t) u (t) = e

156 Singuläre Steuerung Für λ 0 = 1 : auf singulärem Intervall gilt: λ 0 λ(t)x (t) = 0 λ(t)x (t) = 1 λ(t)e x (t) [x (t) 1] = 0 x (t) 1 ẋ (t) 0 0 = ẋ (t) = e x (t) x (t)u (t) = e u (t) u (t) = e

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Kevin Caldwell. 18.April 2012

Kevin Caldwell. 18.April 2012 im Rahmen des Proseminars Numerische Lineare Algebra von Prof.Dr.Sven Beuchler 18.April 2012 Gliederung 1 2 3 Mathematische Beschreibung von naturwissenschaftlich-technischen Problemstellungen führt häufig

Mehr

Entwurf robuster Regelungen

Entwurf robuster Regelungen Entwurf robuster Regelungen Kai Müller Hochschule Bremerhaven Institut für Automatisierungs- und Elektrotechnik z P v K Juni 25 76 5 OPTIMALE ZUSTANDSREGELUNG 5 Optimale Zustandsregelung Ein optimaler

Mehr

Definition 3.1: Ein Differentialgleichungssystem 1. Ordnung

Definition 3.1: Ein Differentialgleichungssystem 1. Ordnung Kapitel 3 Dynamische Systeme Definition 31: Ein Differentialgleichungssystem 1 Ordnung = f(t, y) ; y R N ; f : R R N R N heißt namisches System auf dem Phasenraum R N Der Parameter t wird die Zeit genannt

Mehr

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes

Mehr

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz Optimale Steuerung Kevin Sieg Fachbereich für Mathematik und Statistik Universität Konstanz 14. Juli 2010 1 / 29 Aufgabenstellung 1 Aufgabenstellung Aufgabenstellung 2 Die zusammengesetzte Trapezregel

Mehr

Charakteristikenmethode im Beispiel

Charakteristikenmethode im Beispiel Charakteristikenmethode im Wir betrachten die PDE in drei Variablen xu x + yu y + (x + y )u z = 0. Das charakteristische System lautet dann ẋ = x ẏ = y ż = x + y und besitzt die allgemeine Lösung x(t)

Mehr

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Wintersemester 3/4 (.3.4). (a) Für z = + i und z = 3 4i berechne man z z und z z. Die Ergebnisse sind in kartesischer Form anzugeben.

Mehr

Skalare Differentialgleichungen

Skalare Differentialgleichungen Kapitel 2 Skalare Differentialgleichungen 2.1 Skalare lineare Differentialgleichungen 2.2 Bernoulli und Riccati Differentialgleichungen 2.3 Differentialgleichungen mit getrennten Variablen 2.4 Exakte Differentialgleichungen

Mehr

Übungen zur Numerischen Mathematik 2 Sommersemester 2014. Übungsblatt 13

Übungen zur Numerischen Mathematik 2 Sommersemester 2014. Übungsblatt 13 Universität Heidelberg Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Prof. Dr. Dres. h.c. Hans Georg Bock Dr. Christian Kirches Dipl.-Phys. Simon Lenz Übungen zur Numerischen Mathematik 2 Sommersemester

Mehr

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort: Tangentengleichung Wie Sie wissen, gibt die erste Ableitung einer Funktion deren Steigung an. Betrachtet man eine fest vorgegebene Stelle, gibt f ( ) also die Steigung der Kurve und somit auch die Steigung

Mehr

Extrema von Funktionen in zwei Variablen

Extrema von Funktionen in zwei Variablen Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen in zwei Variablen Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,

Mehr

Zusammenfassung der 8. Vorlesung

Zusammenfassung der 8. Vorlesung Zusammenfassung der 8. Vorlesung Beschreibung und und Analyse dynamischer Systeme im im Zustandsraum Steuerbarkeit eines dynamischen Systems Unterscheidung: Zustandssteuerbarkeit, Zustandserreichbarkeit

Mehr

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei

Mehr

Teil II Optimierung. Peter Buchholz 2016. Modellgestützte Analyse und Optimierung Kap. 9 Einführung Optimierung

Teil II Optimierung. Peter Buchholz 2016. Modellgestützte Analyse und Optimierung Kap. 9 Einführung Optimierung Teil II Optimierung Gliederung 9 Einführung, Klassifizierung und Grundlagen 10 Lineare Optimierung 11 Ganzzahlige und kombinatorische Optimierung 12 Dynamische Optimierung Literatur: zu 10-12: Neumann,

Mehr

Kapitel 15: Differentialgleichungen

Kapitel 15: Differentialgleichungen FernUNI Hagen WS 00/03 Kapitel 15: Differentialgleichungen Differentialgleichungen = Gleichungen die Beziehungen zwischen einer Funktion und mindestens einer ihrer Ableitungen herstellen. Kommen bei vielen

Mehr

Optimal Control in Air Traffic Management

Optimal Control in Air Traffic Management Optimal Control in Air Traffic Management DGLR Workshop Bestimmung optimaler Trajektorien im Air Traffic Management 23.04.2013 Deutsche Flugsicherung GmbH, Langen 23.04.2013 1 Inhalt. Hintergrund und Motivation.

Mehr

PRAKTIKUM REGELUNGSTECHNIK 2

PRAKTIKUM REGELUNGSTECHNIK 2 FACHHOCHSCHULE LANDSHUT Fachbereich Elektrotechnik Prof. Dr. G. Dorn PRAKTIKUM REGELUNGSTECHNIK 2 1 Versuch 2: Übertragungsfunktion und Polvorgabe 1.1 Einleitung Die Laplace Transformation ist ein äußerst

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2013/14 Hochschule Augsburg : Gliederung 1 Aussagenlogik 2 Lineare Algebra 3 Lineare Programme 4 Folgen

Mehr

Stabilität mittels Ljapunov Funktion

Stabilität mittels Ljapunov Funktion Stabilität mittels Ljapunov Funktion Definition Eine C 1 Funktion V : D R, D R, heißt eine Ljapunov Funktion auf K r (0) D für f(y), falls gilt: 1) V(0) = 0, V(y) > 0 für y 0 2) V,f(y) 0 ( y, y r) Gilt

Mehr

Mathematik 1 für Wirtschaftsinformatik

Mathematik 1 für Wirtschaftsinformatik Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration

Mehr

2.4 Adaptive Verfahren mit Schrittweitensteuerung

2.4 Adaptive Verfahren mit Schrittweitensteuerung 0 0 0 Euler und RK4 fuer f(t,y) = t 0. Euler RK4 /N 0 0 f(t,y) =. t 0., graduiertes Gitter RK4 /N 4 Fehler bei T = 0 3 0 4 0 5 Fehler bei T = 0 5 0 0 0 6 0 7 0 0 0 0 2 0 3 0 4 0 5 Anzahl Schritte N 0 5

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel

Mehr

Bestimmen Sie die Lösung des Anfangswertproblems. y (x) 4y (x) 5y(x) = 6e x. y(0) = y (0) = 0.

Bestimmen Sie die Lösung des Anfangswertproblems. y (x) 4y (x) 5y(x) = 6e x. y(0) = y (0) = 0. Aufgabe Bestimmen Sie die Lösung des Anfangswertproblems y (x) 4y (x) 5y(x) = 6e x y(0) = y (0) = 0. Zunächst bestimmen wir die Lösung der homogenen DGL. Das charakteristische Polynom der DGL ist λ 2 4λ

Mehr

Analysis I. 4. Beispielklausur mit Lösungen

Analysis I. 4. Beispielklausur mit Lösungen Fachbereich Mathematik/Informatik Prof. Dr. H. Brenner Analysis I 4. Beispielklausur mit en Aufgabe 1. Definiere die folgenden (kursiv gedruckten) Begriffe. (1) Eine bijektive Abbildung f: M N. () Ein

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Mathematik I Internationales Wirtschaftsingenieurwesen

Mathematik I Internationales Wirtschaftsingenieurwesen Mathematik I Internationales Wirtschaftsingenieurwesen Integralrechnung 03.12.08 Das unbestimmte Integral/Stammfunktion Das bestimmte Integral/Flächenberechnung Integral als Umkehrung der Ableitung Idee:

Mehr

17. Penalty- und Barriere-Methoden

17. Penalty- und Barriere-Methoden H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende

Mehr

Vorkurs Mathematik Übungen zu Differentialgleichungen

Vorkurs Mathematik Übungen zu Differentialgleichungen Vorkurs Mathematik Übungen zu Differentialgleichungen Als bekannt setzen wir die folgenden Umformungen voraus: e ln(f(x)) = f(x) e f(x)+c = e f(x) e c e ln(f(x)) +c = f(x) e c = f(x) c f ( g(x) ) g (x)

Mehr

Exkurs: Dynamische Optimierung

Exkurs: Dynamische Optimierung Exkurs: Dynamische Optimierung Kapitel 4 Literatur Optimierung Mathematical Methods and Models for Economists, Angel de la Fuente, Cambridge University Press Bibliothekssignatur: QH 000FUE Seite 549 580

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den

Mehr

Institut für Leistungselektronik und Elektrische Antriebe. Übungen Regelungstechnik 2

Institut für Leistungselektronik und Elektrische Antriebe. Übungen Regelungstechnik 2 Institut für Leistungselektronik und Elektrische Antriebe Prof. Dr.-Ing. J. Roth-Stielow Übungen Regelungstechnik 2 Inhalt der Übungen: 1. Grundlagen (Wiederholung RT1) 2. Störgrößenaufschaltung 3. Störgrößennachbildung

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 4

Technische Universität München Zentrum Mathematik. Übungsblatt 4 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 4 Hausaufgaben Aufgabe 4. Gegeben sei die Funktion f : D R mit f(x) :=

Mehr

Entladen und Aufladen eines Kondensators über einen ohmschen Widerstand

Entladen und Aufladen eines Kondensators über einen ohmschen Widerstand Entladen und Aufladen eines Kondensators über einen ohmschen Widerstand Vorüberlegung In einem seriellen Stromkreis addieren sich die Teilspannungen zur Gesamtspannung Bei einer Gesamtspannung U ges, der

Mehr

Modulabschlussklausur Analysis II

Modulabschlussklausur Analysis II Modulabschlussklausur Analysis II. Juli 015 Bearbeitungszeit: 150 min Aufgabe 1 [5/10 Punkte] Es sei a R und f a : R 3 R mit f a (x, y, z) = x cos(y) + z 3 sin(y) + a 3 + (z + ay a y) cos(x) a) Bestimmen

Mehr

Numerische Ableitung

Numerische Ableitung Numerische Ableitung Die Ableitung kann angenähert werden durch den Differentenquotient: f (x) f(x + h) f(x) h oder f(x + h) f(x h) 2h für h > 0, aber h 0. Beim numerischen Rechnen ist folgendes zu beachten:

Mehr

2 3 x3 17. x k dx = x k x k+1 k +1. Mit jeder weiteren partiellen Integration reduziert sich der Grad des Faktors x n, induktiv erhalten wir also

2 3 x3 17. x k dx = x k x k+1 k +1. Mit jeder weiteren partiellen Integration reduziert sich der Grad des Faktors x n, induktiv erhalten wir also Universität Konstanz Fachbereich Mathematik und Statistik Repetitorium Analysis 0 Dr DK Huynh Blatt 8 Aufgabe 6 Bestimmen Sie (a) (x + x 7x+)dx (c) (f) x n exp(x)dx (n N fest) sin (x)dx (g) (b) (d) ln(x)dx

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Dierentialgleichungen 2. Ordnung

Dierentialgleichungen 2. Ordnung Dierentialgleichungen 2. Ordnung haben die allgemeine Form x = F (x, x, t. Wir beschränken uns hier auf zwei Spezialfälle, in denen sich eine Lösung analytisch bestimmen lässt: 1. reduzible Dierentialgleichungen:

Mehr

Nichtlineare Optimierungsprobleme mit Komplexität

Nichtlineare Optimierungsprobleme mit Komplexität Definition eines Nichtlinearen Optimierungsproblemes (NLP) min f (x) bzw. min f (x) s.d. x S x S wobei die zulässige Menge S R n typischerweise definiert ist durch S {x R n : h(x) =, c(x) } für Gleichungs-

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Physiker II, SS Mittwoch 8.6 $Id: jordan.tex,v.6 /6/7 8:5:3 hk Exp hk $ 5 Eigenwerte und die Jordansche Normalform 5.4 Die Jordansche Normalform Wir hatten bereits erwähnt, dass eine n n

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

Computer Vision: Optische Flüsse

Computer Vision: Optische Flüsse Computer Vision: Optische Flüsse D. Schlesinger TUD/INF/KI/IS Bewegungsanalyse Optischer Fluss Lokale Verfahren (Lukas-Kanade) Globale Verfahren (Horn-Schunck) (+ kontinuierliche Ansätze: mathematische

Mehr

4. Dynamische Optimierung

4. Dynamische Optimierung 4. Dynamische Optimierung Allgemeine Form dynamischer Optimierungsprobleme 4. Dynamische Optimierung Die dynamische Optimierung (DO) betrachtet Entscheidungsprobleme als eine Folge voneinander abhängiger

Mehr

Differentialgleichungen

Differentialgleichungen Kapitel Differentialgleichungen Josef Leydold Mathematik für VW WS 05/6 Differentialgleichungen / Ein einfaches Modell (Domar) Im Domar Wachstumsmodell treffen wir die folgenden Annahmen: () Erhöhung der

Mehr

Rekonfigurierbare Regelung der Stuttgart SmartShell

Rekonfigurierbare Regelung der Stuttgart SmartShell Rekonfigurierbare Regelung der Stuttgart SmartShell Michael Heidingsfeld Institut für Systemdynamik, Universität Stuttgart 9. Elgersburg Workshop (2.-6. März 2014) Institut für Systemdynamik Stuttgart

Mehr

Gewöhnliche Dierentialgleichungen

Gewöhnliche Dierentialgleichungen Gewöhnliche Dierentialgleichungen sind Gleichungen, die eine Funktion mit ihren Ableitungen verknüpfen. Denition Eine explizite Dierentialgleichung (DGL) nter Ordnung für die reelle Funktion t x(t) hat

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra

Mehr

Lösung zu den Testaufgaben zur Mathematik für Chemiker II (Analysis)

Lösung zu den Testaufgaben zur Mathematik für Chemiker II (Analysis) Universität D U I S B U R G E S S E N Campus Essen, Mathematik PD Dr. L. Strüngmann Informationen zur Veranstaltung unter: http://www.uni-due.de/algebra-logic/struengmann.shtml SS 7 Lösung zu den Testaufgaben

Mehr

a n := ( 1) n 3n2 + 5 2n 2. a n := 5n4 + 2n 2 2n 3 + 3 10n + 1. a n := 1 3 + 1 2n 5n 2 n 2 + 7n + 8 b n := ( 1) n

a n := ( 1) n 3n2 + 5 2n 2. a n := 5n4 + 2n 2 2n 3 + 3 10n + 1. a n := 1 3 + 1 2n 5n 2 n 2 + 7n + 8 b n := ( 1) n Folgen und Reihen. Beweisen Sie die Beschränktheit der Folge (a n ) n N mit 2. Berechnen Sie den Grenzwert der Folge (a n ) n N mit a n := ( ) n 3n2 + 5 2n 2. a n := 5n4 + 2n 2 2n 3 + 3 n +. 4 3. Untersuchen

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Lösung des Hedging-Problems mittels Stochastischer Dynamischer Optimierung

Lösung des Hedging-Problems mittels Stochastischer Dynamischer Optimierung Lösung des Hedging-Problems mittels Stochastischer Dynamischer Optimierung Ausarbeitung zum Vortrag im Seminar Stochastische Dynamische Optimierung vom 18.01.2008 Datum : 18.01.2008 Verfasser: Martin Schymalla

Mehr

3 Nichtlineare Gleichungssysteme

3 Nichtlineare Gleichungssysteme 3 Nichtlineare Gleichungsssteme 3.1 Eine Gleichung in einer Unbekannten Problemstellung: Gegeben sei die stetige Funktion f(). Gesucht ist die Lösung der Gleichung f() = 0. f() f() a) f ( ) 0 b) f ( )

Mehr

Analysis. mit dem Computer-Algebra-System des TI-92. Anhang 2: Gedanken zum Lehrplan. Beat Eicke und Edmund Holzherr 11.

Analysis. mit dem Computer-Algebra-System des TI-92. Anhang 2: Gedanken zum Lehrplan. Beat Eicke und Edmund Holzherr 11. ETH EIDGENÖSSISCHE TECHNISCHE HOCHSCHULE ZÜRICH Analysis mit dem Computer-Algebra-System des TI-92 Anhang 2: Gedanken zum Lehrplan Beat Eicke und Edmund Holzherr 11. November 1997 Eidgenössische Technische

Mehr

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum

Mehr

Lösungsmethoden gewöhnlicher Differentialgleichungen (Dgl.)

Lösungsmethoden gewöhnlicher Differentialgleichungen (Dgl.) Lösungsmethoden gewöhnlicher Dierentialgleichungen Dgl) Allgemeine und partikuläre Lösung einer gewöhnlichen Dierentialgleichung Eine Dierentialgleichung ist eine Gleichung! Zum Unterschied von den gewöhnlichen

Mehr

Symmetrische Polynome,Diskriminante und Resultante, Fermatscher Satz für Polynome

Symmetrische Polynome,Diskriminante und Resultante, Fermatscher Satz für Polynome Proseminar Lineare Algebra SS10 Symmetrische Polynome,Diskriminante und Resultante, Fermatscher Satz für Polynome Natalja Shesterina Heinrich-Heine-Universität ASymmetrische Polynome Definition 1 Sei n

Mehr

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z R Es sei f : R n D R eine einmal stetig differenzierbare Funktion, für die in einer Umgebung eines Punkte a = a 1, a,, a n D gilt: fa 1, a,, a n = 0, f xn a 1, a,, a n 0 Dann gibt es eines Umgebung U des

Mehr

FB IV Mathematik Universität Trier. Präsentation von Nadja Wecker

FB IV Mathematik Universität Trier. Präsentation von Nadja Wecker FB IV Mathematik Universität Trier Präsentation von Nadja Wecker 1) Einführung Beispiele 2) Mathematische Darstellung 3) Numerischer Fluss für Diffusionsgleichung 4) Konvergenz 5) CFL-Bedingung 6) Zusammenfassung

Mehr

J. Dankert Mathematik

J. Dankert Mathematik Aufgabe 10.1 Man zeige, daß die erste Ableitung der Funktion y = a x 2 + b x + c für einen beliebigen Punkt x i durch die zentrale Differenzenformel exakt wiedergegeben wird. Aufgabe 10.2 Man stelle für

Mehr

Schnelle Optimierungs-Algorithmen für die Nichtlineare Prädiktive Regelung

Schnelle Optimierungs-Algorithmen für die Nichtlineare Prädiktive Regelung Schnelle Optimierungs-Algorithmen für die Nichtlineare Prädiktive Regelung M. Diehl, H. G. Bock, P. Kühl, J.P. Schlöder Interdisziplinäres Zentrum für wissenschaftliches Rechnen Universität Heidelberg

Mehr

Finite Differenzen und Elemente

Finite Differenzen und Elemente Dietrich Marsal Finite Differenzen und Elemente Numerische Lösung von Variationsproblemen und partiellen Differentialgleichungen Mit 64 Abbildungen Springer-Verlag Berlin Heidelberg NewYork London Paris

Mehr

3. Grundlagen der Linearen Programmierung

3. Grundlagen der Linearen Programmierung 3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations

Mehr

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung. Lineare Gleichungen mit einer Unbekannten Die Grundform der linearen Gleichung mit einer Unbekannten x lautet A x = a Dabei sind A, a reelle Zahlen. Die Gleichung lösen heißt, alle reellen Zahlen anzugeben,

Mehr

34 5. FINANZMATHEMATIK

34 5. FINANZMATHEMATIK 34 5. FINANZMATHEMATIK 5. Finanzmathematik 5.1. Ein einführendes Beispiel Betrachten wir eine ganz einfache Situation. Wir haben einen Markt, wo es nur erlaubt ist, heute und in einem Monat zu handeln.

Mehr

Kleine Formelsammlung zu Mathematik für Ingenieure IIA

Kleine Formelsammlung zu Mathematik für Ingenieure IIA Kleine Formelsammlung zu Mathematik für Ingenieure IIA Florian Franzmann 5. Oktober 004 Inhaltsverzeichnis Additionstheoreme Reihen und Folgen 3. Reihen...................................... 3. Potenzreihen..................................

Mehr

Einführung in die Robotik Regelung. Mohamed Oubbati Institut für Neuroinformatik. Tel.: (+49) 731 / 50 24153 mohamed.oubbati@uni-ulm.de 04. 12.

Einführung in die Robotik Regelung. Mohamed Oubbati Institut für Neuroinformatik. Tel.: (+49) 731 / 50 24153 mohamed.oubbati@uni-ulm.de 04. 12. Einführung in die Robotik Regelung Mohamed Oubbati Institut für Neuroinformatik Tel.: (+49) 731 / 50 24153 mohamed.oubbati@uni-ulm.de 04. 12. 2012 The human is perhaps the most intelligent control system

Mehr

4 Runge-Kutta-Verfahren

4 Runge-Kutta-Verfahren Numerik gewöhnlicher Differentialgleichungen 43 4 Runge-Kutta-Verfahren 4. Konstruktion Ausgangspunkt wie immer (Substitution: s = t + τh, 0 τ ) y(t + h) = y(t) + [y(t + h) y(t)] = y(t) + = y(t) + h 0

Mehr

Mathematik 2 für Wirtschaftsinformatik

Mathematik 2 für Wirtschaftsinformatik für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar

Mehr

Übungsklausur. Bitte wählen Sie fünf Aufgaben aus! Aufgabe 1. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr.

Übungsklausur. Bitte wählen Sie fünf Aufgaben aus! Aufgabe 1. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr. Gert Zöller Übungsklausur Hilfsmittel: Taschenrechner, Formblatt mit Formeln. Lösungswege sind stets anzugeben. Die alleinige Angabe eines

Mehr

DIFFERENTIALGLEICHUNGEN

DIFFERENTIALGLEICHUNGEN DIFFERENTIALGLEICHUNGEN GRUNDBEGRIFFE Differentialgleichung Eine Gleichung, in der Ableitungen einer unbekannten Funktion y = y(x) bis zur n-ten Ordnung auftreten, heisst gewöhnliche Differentialgleichung

Mehr

(Lineare) stochastische Optimierung

(Lineare) stochastische Optimierung (Lineare) stochastische Optimierung Bsp: Aus zwei Sorten Rohöl wird Benzin und Heizöl erzeugt. Die Produktivität sowie der Mindestbedarf (pro Woche) und die Kosten sind in folgender Tabelle angegeben:

Mehr

Mathematik für Anwender I

Mathematik für Anwender I Prof. Dr. H. Brenner Osnabrück WS 20/202 Mathematik für Anwender I Vorlesung 30 Gewöhnliche Differentialgleichungen mit getrennten Variablen Definition 30.. Eine Differentialgleichung der Form y = g(t)

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

Gleichungen - Aufgabenstellung und Lösungsstrategien

Gleichungen - Aufgabenstellung und Lösungsstrategien Gleichungen - Aufgabenstellung und Lösungsstrategien Franz Pauer Institut für Mathematik, Universität Innsbruck, Technikerstr. 25, A-6020 Innsbruck, Österreich. Franz.Pauer@uibk.ac.at 18. Juli 2006 1 Einleitung

Mehr

Kapitel 5 KONVERGENZ

Kapitel 5 KONVERGENZ Kapitel 5 KONVERGENZ Fassung vom 21. April 2002 Claude Portenier ANALYSIS 75 5.1 Metrische Räume 5.1 Metrische Räume DEFINITION 1 Sei X eine Menge. Eine Abbildung d : X X! R + heißt Metrik oder Distanz

Mehr

(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren

(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren Aufgabe Gegeben seien die Punkte A(,,, B(,,, C(,,. (a Geben Sie die Hesse-Normalform der Ebene E, welche die drei Punkte A, B und C enthält, an. (b Bestimmen Sie den Abstand des Punktes P (,, 5 zur Ebene

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 5. Juni 2016 Definition 5.21 Ist a R, a > 0 und a 1, so bezeichnet man die Umkehrfunktion der Exponentialfunktion x a x als

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Serie 13: Online Test

Serie 13: Online Test D-ERDW, D-HEST, D-USYS Mathematik I HS 3 Dr. Ana Cannas Serie 3: Online Test Einsendeschluss: 3. Januar 4 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung verwenden.

Mehr

Transformation und Darstellung funktionaler Daten

Transformation und Darstellung funktionaler Daten Transformation und Darstellung funktionaler Daten Seminar - Statistik funktionaler Daten Jakob Bossek Fakultät für Statistik 7. Mai 2012 Übersicht Einleitung Einordnung im Seminar Motivation am Beispiel

Mehr

Musterlösung. TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Klausur Mathematik für Physiker 3 (Analysis 2) I... II...

Musterlösung. TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Klausur Mathematik für Physiker 3 (Analysis 2) I... II... ................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 3 Unterschrift der Kandidatin/des Kandidaten 4 TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik

Mehr

1 Lineare Gleichungssysteme

1 Lineare Gleichungssysteme MLAN1 1 LINEARE GLEICHUNGSSYSTEME 1 Literatur: K Nipp/D Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4 Auflage, 1998, oder neuer 1 Lineare Gleichungssysteme Zu den grundlegenden

Mehr

Folgerungen aus dem Auflösungsatz

Folgerungen aus dem Auflösungsatz Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und

Mehr

Anwendung der Theorie von Gauß Shift Experimenten auf den Kolmogorov Smirnov Test und das einseitige Boundary Crossing Problem

Anwendung der Theorie von Gauß Shift Experimenten auf den Kolmogorov Smirnov Test und das einseitige Boundary Crossing Problem Anwendung der Theorie von Gauß Shift Experimenten auf den Kolmogorov Smirnov Test und das einseitige Boundary Crossing Problem Inauguraldissertation zur Erlangung des Doktorgrades der Mathematisch Naturwissenschaftlichen

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Analytische Methoden und die Black-Scholes Modelle

Analytische Methoden und die Black-Scholes Modelle Analytische Methoden und die Black-Scholes Modelle Diplomverteidigung Universität Rostock Institut für Mathematik 20.01.2011 Agenda 1 Das Ornstein-Uhlenbeck Volatilitätsmodell 2 in L 2 (R 2 ) 3 4 Problem

Mehr

Numerik und Simulation in der Geoökologie

Numerik und Simulation in der Geoökologie 1/49 Rekapitulation Das Euler-Verfahren für ODE-IVP Eigenschaften von Einschrittverfahren Numerik und Simulation in der Geoökologie Sylvia Moenickes VL 2 WS 2007/2008 2/49 Rekapitulation Das Euler-Verfahren

Mehr

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011 Mathematik für Informatiker II Christoph Eisinger Sommersemester 211 Beispiellösungen zur Probeklausur Aufgabe 1 Gegeben sind die Polynome f, g, h K[x]. Zu zeigen: Es gibt genau dann Polynome h 1 und h

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Beispiel 11.2. Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) =

Beispiel 11.2. Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) = Funktionentheorie, Woche Funktionen und Polstellen. Meromorphe Funktionen Definition.. Sei U C offen und sei f : U gilt, nennt man f meromorph auf U: Ĉ eine Funktion. Wenn folgendes. P := f hat keine Häufungspunkte;.

Mehr

Eingebettete Runge Kutta Verfahren DOPRI5(4) Verfahren: FSAL Verfahren

Eingebettete Runge Kutta Verfahren DOPRI5(4) Verfahren: FSAL Verfahren Eingebettete Runge Kutta Verfahren DOPRI5(4) Verfahren: FSAL Verfahren 0 1 5 3 10 4 5 8 9 1 5 3 9 40 40 44 45 56 15 19372 6561 25360 2187 9017 1 3168 355 33 1 35 348 0 500 1113 35 500 p = 5 348 0 1113

Mehr

Übungen zu Einführung in die Numerische Mathematik (V2E2) Sommersemester 2016

Übungen zu Einführung in die Numerische Mathematik (V2E2) Sommersemester 2016 Übungen zu Einführung in die Numerische Mathematik (VE) Sommersemester 6 Prof. Dr. Martin Rumpf Pascal Huber Sascha Tölkes Übungsblatt 8 Abgabe:.6.6 Aufgabe 5 (Elliptisches Randwertproblem auf einem Ring)

Mehr

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Prof. Dr. Volker Schulz Universität Trier / FB IV / Abt. Mathematik 8. November 2010 http://www.mathematik.uni-trier.de/ schulz/elan-ws1011.html

Mehr

(1) Problemstellung. (2) Kalman Filter

(1) Problemstellung. (2) Kalman Filter Inhaltsverzeichnis (1) Problemstellung...2 (2) Kalman Filter...2 Funktionsweise... 2 Gleichungen im mehrdimensionalen Fall...3 Schätzung des Systemzustands...3 Vermuteter Schätzfehler... 3 Aktualisierung

Mehr

2.12 Potenzreihen. 1. Definitionen. 2. Berechnung 2.12. POTENZREIHEN 207. Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen.

2.12 Potenzreihen. 1. Definitionen. 2. Berechnung 2.12. POTENZREIHEN 207. Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen. 2.2. POTENZREIHEN 207 2.2 Potenzreihen. Definitionen Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen. Eine Potenzreihe mit Entwicklungspunkt x 0 ist eine Reihe a n x x 0 n. Es gilt: es

Mehr