Nichtlineare modellprädiktive Regelung

Größe: px
Ab Seite anzeigen:

Download "Nichtlineare modellprädiktive Regelung"

Transkript

1 Nichtlineare modellprädiktive Regelung Sabine Böhm, Miriam Kießling Mathematisches Institut Universität Bayreuth 23. und 30. Mai 2006 / Seminar MPC, Bayreuth

2 Inhalt 1. Einleitung Einsatz von NMPC Unterschied zu LMPC Problemstellung 2. Lösung durch Linearisierung Lineare Variablentransformation Verwendung von multiplen linearen Modellen

3 Inhalt 1. Einleitung Einsatz von NMPC Unterschied zu LMPC Problemstellung 2. Lösung durch Linearisierung Lineare Variablentransformation Verwendung von multiplen linearen Modellen

4 Inhalt 1. Einleitung Einsatz von NMPC Unterschied zu LMPC Problemstellung 2. Lösung durch Linearisierung Lineare Variablentransformation Verwendung von multiplen linearen Modellen

5 Inhalt 1. Einleitung Einsatz von NMPC Unterschied zu LMPC Problemstellung 2. Lösung durch Linearisierung Lineare Variablentransformation Verwendung von multiplen linearen Modellen

6 Inhalt 1. Einleitung Einsatz von NMPC Unterschied zu LMPC Problemstellung 2. Lösung durch Linearisierung Lineare Variablentransformation Verwendung von multiplen linearen Modellen

7 Inhalt 1. Einleitung Einsatz von NMPC Unterschied zu LMPC Problemstellung 2. Lösung durch Linearisierung Lineare Variablentransformation Verwendung von multiplen linearen Modellen

8 Inhalt 1. Einleitung Einsatz von NMPC Unterschied zu LMPC Problemstellung 2. Lösung durch Linearisierung Lineare Variablentransformation Verwendung von multiplen linearen Modellen

9 3. Indirekte Lösung von NMPC Anwendung des Pontryaginsches Minimumprinzip (a) Hamilton-Funktion (b) Pontryaginsches Minimumprinzip (c) Lösung des Randwertproblems,single und multiple shooting (d) Variationsrechnung als Grundlage des PMP (e) Anwendungsbeispiel

10 3. Indirekte Lösung von NMPC Anwendung des Pontryaginsches Minimumprinzip (a) Hamilton-Funktion (b) Pontryaginsches Minimumprinzip (c) Lösung des Randwertproblems,single und multiple shooting (d) Variationsrechnung als Grundlage des PMP (e) Anwendungsbeispiel

11 3. Indirekte Lösung von NMPC Anwendung des Pontryaginsches Minimumprinzip (a) Hamilton-Funktion (b) Pontryaginsches Minimumprinzip (c) Lösung des Randwertproblems,single und multiple shooting (d) Variationsrechnung als Grundlage des PMP (e) Anwendungsbeispiel

12 3. Indirekte Lösung von NMPC Anwendung des Pontryaginsches Minimumprinzip (a) Hamilton-Funktion (b) Pontryaginsches Minimumprinzip (c) Lösung des Randwertproblems,single und multiple shooting (d) Variationsrechnung als Grundlage des PMP (e) Anwendungsbeispiel

13 3. Indirekte Lösung von NMPC Anwendung des Pontryaginsches Minimumprinzip (a) Hamilton-Funktion (b) Pontryaginsches Minimumprinzip (c) Lösung des Randwertproblems,single und multiple shooting (d) Variationsrechnung als Grundlage des PMP (e) Anwendungsbeispiel

14 3. Indirekte Lösung von NMPC Anwendung des Pontryaginsches Minimumprinzip (a) Hamilton-Funktion (b) Pontryaginsches Minimumprinzip (c) Lösung des Randwertproblems,single und multiple shooting (d) Variationsrechnung als Grundlage des PMP (e) Anwendungsbeispiel

15 3. Indirekte Lösung von NMPC Anwendung des Pontryaginsches Minimumprinzip (a) Hamilton-Funktion (b) Pontryaginsches Minimumprinzip (c) Lösung des Randwertproblems,single und multiple shooting (d) Variationsrechnung als Grundlage des PMP (e) Anwendungsbeispiel

16 3. Indirekte Lösung von NMPC Dynamische Programmierung nach Bellman 4. direct multiple shooting 5. Zustandsschätzung mittels Erweitertem Kalman-Filter 6. Anwendung auf Destillationskolonne

17 3. Indirekte Lösung von NMPC Dynamische Programmierung nach Bellman 4. direct multiple shooting 5. Zustandsschätzung mittels Erweitertem Kalman-Filter 6. Anwendung auf Destillationskolonne

18 3. Indirekte Lösung von NMPC Dynamische Programmierung nach Bellman 4. direct multiple shooting 5. Zustandsschätzung mittels Erweitertem Kalman-Filter 6. Anwendung auf Destillationskolonne

19 3. Indirekte Lösung von NMPC Dynamische Programmierung nach Bellman 4. direct multiple shooting 5. Zustandsschätzung mittels Erweitertem Kalman-Filter 6. Anwendung auf Destillationskolonne

20 3. Indirekte Lösung von NMPC Dynamische Programmierung nach Bellman 4. direct multiple shooting 5. Zustandsschätzung mittels Erweitertem Kalman-Filter 6. Anwendung auf Destillationskolonne

21 1. Einleitung

22 Einleitung Meistens verwendet man Linearisierung Warum dann nichtlineare prädiktive Regelung?

23 Einleitung Linearisierung ist nicht geeignet, bei starken Nichtlinearitäten im Betriebspunkt. bei zwar lokal nur schwach Nichtlinearitäten, aber weiten Arbeitsbereich. Hier Linearisierungen zu wenig genau (wegen z.b.: strengeren Umweltgesetzen und ökonomischen Gesichtspunkten)

24 Einleitung Linearisierung ist nicht geeignet, bei starken Nichtlinearitäten im Betriebspunkt. bei zwar lokal nur schwach Nichtlinearitäten, aber weiten Arbeitsbereich. Hier Linearisierungen zu wenig genau (wegen z.b.: strengeren Umweltgesetzen und ökonomischen Gesichtspunkten)

25 Beispiele Reinst-Destillationanlagen (Beispiel am Ende) Mehrprodukt-Polymerisationsanlagen Kraftwerkanlagen mit häufigen großen Lastenwechseln

26 Beispiele Reinst-Destillationanlagen (Beispiel am Ende) Mehrprodukt-Polymerisationsanlagen Kraftwerkanlagen mit häufigen großen Lastenwechseln

27 Beispiele Reinst-Destillationanlagen (Beispiel am Ende) Mehrprodukt-Polymerisationsanlagen Kraftwerkanlagen mit häufigen großen Lastenwechseln

28 Unterschied von NMPC zu linearer MPC Größerer Aufwand bei der Entwicklung des Prozessmodells Parameteridentifikation nichtlinearer dynamischer Systeme schwieriger größerer Aufwand zur Lösung von Optimierungsproblems (nichtkonvexes Problem) Stabilität, Optimalität und Robustheit viel komplizierter

29 Unterschied von NMPC zu linearer MPC Größerer Aufwand bei der Entwicklung des Prozessmodells Parameteridentifikation nichtlinearer dynamischer Systeme schwieriger größerer Aufwand zur Lösung von Optimierungsproblems (nichtkonvexes Problem) Stabilität, Optimalität und Robustheit viel komplizierter

30 Unterschied von NMPC zu linearer MPC Größerer Aufwand bei der Entwicklung des Prozessmodells Parameteridentifikation nichtlinearer dynamischer Systeme schwieriger größerer Aufwand zur Lösung von Optimierungsproblems (nichtkonvexes Problem) Stabilität, Optimalität und Robustheit viel komplizierter

31 Unterschied von NMPC zu linearer MPC Größerer Aufwand bei der Entwicklung des Prozessmodells Parameteridentifikation nichtlinearer dynamischer Systeme schwieriger größerer Aufwand zur Lösung von Optimierungsproblems (nichtkonvexes Problem) Stabilität, Optimalität und Robustheit viel komplizierter

32 Nichtkonvexes Problem Zur Lösung des Problems muss Konvexität gelten, da bei konvexen Programmen gilt: Jeder lokale Minimierer ist ein globaler Minimierer globale Lösung Problem: nichtlineare Systeme sind im Allg. nichtkonvex

33 Nichtkonvexes Problem

34 Einleitung Problem: ẋ(t) = f (x(t), u(t)) x(0) = x 0 y(t) = h(x(t), u(t)) mit den Eingängen und Zuständen: u(t) U R m x(t) X R n

35 Einleitung Problem: ẋ(t) = f (x(t), u(t)) x(0) = x 0 y(t) = h(x(t), u(t)) mit den Eingängen und Zuständen: u(t) U R m x(t) X R n

36 Einleitung Dabei er erfüllen U und X die folgenden Annahmen: (A1) U R m ist kompakt, X R n ist zusammenhängend und (0, 0) X U (A2) Das Vektorfeld f : R n R m R n ist stetig erfüllt f (0, 0) = 0 und ist lokal Lipschitz stetig in x. (A3) x 0 X 1, X 1 X und stückweise konstante Fkt. u( ) : [0, T P ] U hat ẋ(t) eine eind. stetige Lösg.

37 Einleitung Dabei er erfüllen U und X die folgenden Annahmen: (A1) U R m ist kompakt, X R n ist zusammenhängend und (0, 0) X U (A2) Das Vektorfeld f : R n R m R n ist stetig erfüllt f (0, 0) = 0 und ist lokal Lipschitz stetig in x. (A3) x 0 X 1, X 1 X und stückweise konstante Fkt. u( ) : [0, T P ] U hat ẋ(t) eine eind. stetige Lösg.

38 Einleitung Dabei er erfüllen U und X die folgenden Annahmen: (A1) U R m ist kompakt, X R n ist zusammenhängend und (0, 0) X U (A2) Das Vektorfeld f : R n R m R n ist stetig erfüllt f (0, 0) = 0 und ist lokal Lipschitz stetig in x. (A3) x 0 X 1, X 1 X und stückweise konstante Fkt. u( ) : [0, T P ] U hat ẋ(t) eine eind. stetige Lösg.

39 Einleitung mit min J(x(t), u( ); T p) u( ) J(x(t), u( ); T p ) := t+tp t f 0 (x(τ), u(τ))dτ) + g(x(t + T p )) unter den Nebenbedingungen: ẋ(τ) = f (x(τ), u(τ)), x(t) = x t u(τ) U, τ [t, t + T p ] x(τ) X τ [t, t + T p ] x(t + T p ) E Hierbei ist E die Endregion

40 Einleitung mit min J(x(t), u( ); T p) u( ) J(x(t), u( ); T p ) := t+tp t f 0 (x(τ), u(τ))dτ) + g(x(t + T p )) unter den Nebenbedingungen: ẋ(τ) = f (x(τ), u(τ)), x(t) = x t u(τ) U, τ [t, t + T p ] x(τ) X τ [t, t + T p ] x(t + T p ) E Hierbei ist E die Endregion

41 2. Lösung durch Verwendung von LMPC

42 Linearisierung durch Variablen-Transformation

43 Beispiel Gegeben: Generelles Vorgehen: ẋ(t) = dx dt = f (x, u) (1) dx = f (x, u) = c 1 f 1 (x) + c 2 f 2 (x, u) (2) dt Dann denkt man sich eine Transformation: z = g(x) (3)

44 Variablen-Transformation 2 Varianten zur Wahl von g( ): oder dz dt dz dt = az + bv (4) = a + bv (5)

45 Variablen-Transformation Durch die Ableitung von z = g(x) erhält man: dz dt = dz dx dx dt wenn man (2) in (6) einsetzt, ergibt sich: dz dt = c 1 f 1 (x) dz dx + c 2f 2 (x, u) dz dx Nun wählt man z = g(x) so, dass gilt: dz dx = z f 1 (x) = 1 f 1 (x) und zusätzlich f 2 (x, u) dz dx = v (9) dadurch (7) ˆ=(4) (7) ˆ=(5), wobei a = c 1 und b = c 2. (6) (7) (8)

46 Variablen-Transformation Durch die Ableitung von z = g(x) erhält man: dz dt = dz dx dx dt wenn man (2) in (6) einsetzt, ergibt sich: dz dt = c 1 f 1 (x) dz dx + c 2f 2 (x, u) dz dx Nun wählt man z = g(x) so, dass gilt: dz dx = z f 1 (x) = 1 f 1 (x) und zusätzlich f 2 (x, u) dz dx = v (9) dadurch (7) ˆ=(4) (7) ˆ=(5), wobei a = c 1 und b = c 2. (6) (7) (8)

47 Variablen-Transformation Durch Umformung von (8) erhält man: dz z = dx f 1 (x) dz = dx f 1 (x) oder ln z = dx f 1 (x) = z = exp[ dx f 1 (x) ] = dx f 1 (x) Durch einsetzen von Gleichung (8) in (9) und Umformung erhält man: f 2 (x, u) = vf 1(x) = vf 1 (x) (10) z

48 Variablen-Transformation Durch Umformung von (8) erhält man: dz z = dx f 1 (x) dz = dx f 1 (x) oder ln z = dx f 1 (x) = z = exp[ dx f 1 (x) ] = dx f 1 (x) Durch einsetzen von Gleichung (8) in (9) und Umformung erhält man: f 2 (x, u) = vf 1(x) = vf 1 (x) (10) z

49 Variablen-Transformation Die Gleichung (10) löst man dann nach u auf, um u = q(x, v) zu erhalten. Das Ergebnis ist ein lineares MPC.

50 LMPC mit multiplen linearen Modellen

51 LMPC mit multiplen, linearen Modellen Arbeitsbereich in n Teilbereiche untergliedert für jeden ein lineares Modell erstellt alle Modelle werden parallel zur Vorhersage der Regelgrößen y herangezogen die Vorhersagen der einzelnen Modelle gewichtet aufsummiert gewichteter Mittelwert ŷ = n i=1 α iŷ i

52 LMPC mit multiplen, linearen Modellen Arbeitsbereich in n Teilbereiche untergliedert für jeden ein lineares Modell erstellt alle Modelle werden parallel zur Vorhersage der Regelgrößen y herangezogen die Vorhersagen der einzelnen Modelle gewichtet aufsummiert gewichteter Mittelwert ŷ = n i=1 α iŷ i

53 LMPC mit multiplen, linearen Modellen Arbeitsbereich in n Teilbereiche untergliedert für jeden ein lineares Modell erstellt alle Modelle werden parallel zur Vorhersage der Regelgrößen y herangezogen die Vorhersagen der einzelnen Modelle gewichtet aufsummiert gewichteter Mittelwert ŷ = n i=1 α iŷ i

54 LMPC mit multiplen, linearen Modellen Arbeitsbereich in n Teilbereiche untergliedert für jeden ein lineares Modell erstellt alle Modelle werden parallel zur Vorhersage der Regelgrößen y herangezogen die Vorhersagen der einzelnen Modelle gewichtet aufsummiert gewichteter Mittelwert ŷ = n i=1 α iŷ i

55 LMPC mit multiplen, linearen Modellen Arbeitsbereich in n Teilbereiche untergliedert für jeden ein lineares Modell erstellt alle Modelle werden parallel zur Vorhersage der Regelgrößen y herangezogen die Vorhersagen der einzelnen Modelle gewichtet aufsummiert gewichteter Mittelwert ŷ = n i=1 α iŷ i

56 LMPC mit multiplen, linearen Modellen Berechnung der Gewichtsfaktoren α i α i [0, 1] αi = 1 Berechnung der α i : wobei p j,k = N m=1 α j,k = p j,k N m=1 p m,k exp( 1 2 ɛt j,k K ɛ j,k)p j,k 1 exp( 1 2 ɛt m,k K ɛ m,k)p m,k 1 und K eine Konvergenzmatrix und ɛ j,k = (y ŷ i )

57 LMPC mit multiplen, linearen Modellen Berechnung der Gewichtsfaktoren α i α i [0, 1] αi = 1 Berechnung der α i : wobei p j,k = N m=1 α j,k = p j,k N m=1 p m,k exp( 1 2 ɛt j,k K ɛ j,k)p j,k 1 exp( 1 2 ɛt m,k K ɛ m,k)p m,k 1 und K eine Konvergenzmatrix und ɛ j,k = (y ŷ i )

58 LMPC mit multiplen, linearen Modellen größte Herausforderung: Bestimmung der n Teilmodelle einfachste Zerlegungsmethode: Unterteilung des gesamten Arbeitsbereichs in ein gleichmäßiges mehrdimensionales Gitter

59 LMPC mit multiplen, linearen Modellen größte Herausforderung: Bestimmung der n Teilmodelle einfachste Zerlegungsmethode: Unterteilung des gesamten Arbeitsbereichs in ein gleichmäßiges mehrdimensionales Gitter

60 LMPC mit multiplen, linearen Modellen größte Herausforderung: Bestimmung der n Teilmodelle einfachste Zerlegungsmethode: Unterteilung des gesamten Arbeitsbereichs in ein gleichmäßiges mehrdimensionales Gitter

61 LMPC mit multiplen, linearen Modellen größte Herausforderung: Bestimmung der n Teilmodelle einfachste Zerlegungsmethode: Unterteilung des gesamten Arbeitsbereichs in ein gleichmäßiges mehrdimensionales Gitter

62 LMPC mit multiplen, linearen Modellen Nachteil: riesigen Zahl von Modellen zu identifizieren Alternative: z.b. LOLIMOT-Verfahren (Local Linear Model Tree) Sukzessive Teilung des Eingangsraums

63 LMPC mit multiplen, linearen Modellen Nachteil: riesigen Zahl von Modellen zu identifizieren Alternative: z.b. LOLIMOT-Verfahren (Local Linear Model Tree) Sukzessive Teilung des Eingangsraums

64 LMPC mit multiplen, linearen Modellen Nachteil: riesigen Zahl von Modellen zu identifizieren Alternative: z.b. LOLIMOT-Verfahren (Local Linear Model Tree) Sukzessive Teilung des Eingangsraums

65 LMPC mit multiplen, linearen Modellen Nachteil: riesigen Zahl von Modellen zu identifizieren Alternative: z.b. LOLIMOT-Verfahren (Local Linear Model Tree) Sukzessive Teilung des Eingangsraums

66 LMPC mit multiplen, linearen Modellen

67 LMPC mit multiplen, linearen Modellen

68 3. Indirekte Lösung von NMPC

69 Indirekte Lösung von NMPC Anwendung des MPC - Algorithmus auf nichtlineares System Problem: Zielfunktional und Nebenbedingungen nichtlinear

70 Indirekte Lösung von NMPC Anwendung des MPC - Algorithmus auf nichtlineares System Problem: Zielfunktional und Nebenbedingungen nichtlinear

71 3.1 Verwendung des Pontryaginschen Minimumprinzip

72 Lösung von NMPC mittels PMP

73 Lösung von NMPC mittels PMP

74 Lösung von NMPC mittels PMP

75 Lösung von NMPC mittels PMP

76 Lösung von NMPC mittels PMP

77 Optimaler Steuerprozess - Bolza-Form Definition Das Problem Minimiere J(x, u) = g(x(t 0 ), x(t f )) + unter den Nebenbedingungen heißt optimaler Steuerprozess tf t 0 ẋ(t) = f (x(t), u(t), t), ψ(x(t 0 ), x(t f )) = 0, u(t) U, t [t 0, t f ], f 0 (x(t), u(t), t)dt

78 Randbedingungen Definition: Sei r N, 0 r 2n. Die Bedingung ψ(x(t 0 ), x(t f )) = 0, für Anfangs- und Endzustand mit einer (bzgl. x(t 0 ) und x(t f )) stetig differenzierbaren Funktion ψ : R n R n R r wird eine allgemeine Randbedingung genannt.

79 Optimale Lösung Definition: Ein zulässiges Funktionenpaar (x, u ) zur Endzeit t f heißt optimale Lösung des optimalen Steuerprozesses, falls J(x, u ) J(x, u) für alle zulässigen Paare (x, u) zur Endzeit t f gilt.

80 Hamiltion-Funktion und adjungierte Variable Definition: Sei λ 0 R und λ R n. Dann heißt H(x, λ, u, t) := λ 0 f 0 (x, u, t) + λ T f (x, u, t) die Hamilton-Funktion zum Steuerprozess. λ wird adjungierte Variable zu x genannt

81 Pontryaginsches Minimumprinzip Für eine optimale Lösung (x, u ) existieren eine reelle Zahl λ 0 0, eine stetig und stückweise stetig differenzierbare Funktion λ : [t 0, t f ] R n, sowie ein Vektor ρ R r, so dass gelten: 1. (λ 0, λ T (t), ρ T ) 0, t [t 0, t f ]

82 Pontryaginsches Minimumprinzip Für eine optimale Lösung (x, u ) existieren eine reelle Zahl λ 0 0, eine stetig und stückweise stetig differenzierbare Funktion λ : [t 0, t f ] R n, sowie ein Vektor ρ R r, so dass gelten: 1. (λ 0, λ T (t), ρ T ) 0, t [t 0, t f ]

83 Pontryaginsches Minimumprinzip 2. An allen Stetigkeitsstellen t von u in [t 0, t f ] gelten: Minimumbedingung: H(x (t), λ(t), u (t), t) = min u U H(x (t), λ(t), u, t), Adjungierte Differentialgleichungen: λ T = x H(x (t), λ(t), u (t), t),

84 Pontryaginsches Minimumprinzip 2. An allen Stetigkeitsstellen t von u in [t 0, t f ] gelten: Minimumbedingung: H(x (t), λ(t), u (t), t) = min u U H(x (t), λ(t), u, t), Adjungierte Differentialgleichungen: λ T = x H(x (t), λ(t), u (t), t),

85 Pontryaginsches Minimumprinzip 2. An allen Stetigkeitsstellen t von u in [t 0, t f ] gelten: Minimumbedingung: H(x (t), λ(t), u (t), t) = min u U H(x (t), λ(t), u, t), Adjungierte Differentialgleichungen: λ T = x H(x (t), λ(t), u (t), t),

86 Pontryaginsches Minimumprinzip 3. Transversalitätsbedingung: λ(t 0 ) = x(t0 )(λ 0 g(x (t 0 ), x (t f )) + ρ T ψ(x (t 0 ), x (t f ))) T, λ(t f ) = x(tf )(λ 0 g(x (t 0 ), x (t f )) + ρ T ψ(x (t 0 ), x (t f ))) T,

87 Varitationsrechnung Vereinfachung: Zielfunktional besteht nur aus bestimmtem Integral Integrand nur von x(t) und zusätzlich von ẋ(t) abhängig keine Nebenbedingungen

88 Varitationsrechnung Vereinfachung: Zielfunktional besteht nur aus bestimmtem Integral Integrand nur von x(t) und zusätzlich von ẋ(t) abhängig keine Nebenbedingungen

89 Varitationsrechnung Vereinfachung: Zielfunktional besteht nur aus bestimmtem Integral Integrand nur von x(t) und zusätzlich von ẋ(t) abhängig keine Nebenbedingungen

90 Variationsrechnung Variationsproblem: J = tf t 0 f (t, x, ẋ(t))dt Gesucht ist diejenige Funktion x = x(t), welche die Randbedingungen x(t 0 ) = x 0 und x(t f ) = x f erfüllt und J minimiert.

91 Variationsrechnung

92 Variationsrechnung Vorgehensweise von Euler: Annahme: Lösung x = x (t) sei gefunden Konstruktion einer einparametrigen Schar von Vergleichskurven x(t) = x (t) + ɛ x(t), (11) ɛ 0 < ɛ < ɛ 0 (ɛ 0 > 0), x(t) beliebige Funktion mit x(t 0 ) = 0, x(t f ) = 0

93 Variationsrechnung Vorgehensweise von Euler: Annahme: Lösung x = x (t) sei gefunden Konstruktion einer einparametrigen Schar von Vergleichskurven x(t) = x (t) + ɛ x(t), (11) ɛ 0 < ɛ < ɛ 0 (ɛ 0 > 0), x(t) beliebige Funktion mit x(t 0 ) = 0, x(t f ) = 0

94 Variationsrechnung

95 Variationsrechnung eingesetzt ins Zielfunktional: J = tf t 0 f (t, x (t) + ɛ x(t), ẋ (t) + ɛ x(t))dt = F (ɛ) optimale Lösung x (t) ist für ɛ = 0 in der Vergleichskurvenschar enthalten F (ɛ) muss für ɛ = 0 Minimum haben [ ] df = 0 dɛ ɛ=0

96 Variationsrechnung eingesetzt ins Zielfunktional: J = tf t 0 f (t, x (t) + ɛ x(t), ẋ (t) + ɛ x(t))dt = F (ɛ) optimale Lösung x (t) ist für ɛ = 0 in der Vergleichskurvenschar enthalten F (ɛ) muss für ɛ = 0 Minimum haben [ ] df = 0 dɛ ɛ=0

97 Variationsrechnung Nach Differenzieren nach ɛ, Nullsetzen von ɛ, partieller Integration: J = tf t 0 [ f x d ( )] f x(t)dt = 0 dt ẋ soll für eine bis auf die Randwerte beliebige Funktion x(t) gelten es muss gelten: t [t 0, t f ]: f x d dt ( f ẋ ) = 0. (Euler - Lagrangesche Differentialgleichung)

98 Variationsrechnung Nach Differenzieren nach ɛ, Nullsetzen von ɛ, partieller Integration: J = tf t 0 [ f x d ( )] f x(t)dt = 0 dt ẋ soll für eine bis auf die Randwerte beliebige Funktion x(t) gelten es muss gelten: t [t 0, t f ]: f x d dt ( f ẋ ) = 0. (Euler - Lagrangesche Differentialgleichung)

99 Variationsrechnung Als allgemeine Lösung ergibt sich eine zweiparametrige Kurvenschar: x = x(t, c 1, c 2 ) c 1 und c 2 sind aus den Randbedingungen zu ermitteln: x(t 0, c 1, c 2 ) = x 0, x(t f, c 1, c 2 ) = x f

100 Variationsrechnung durch Eulersche Idee, eine einparametrige Vergleichskurvenschar einzuführen, Rückführung des Variationsproblem auf ein gewöhnliches Extremalproblem PMP Weiterentwicklung der Variationsrechnung

101 Variationsrechnung durch Eulersche Idee, eine einparametrige Vergleichskurvenschar einzuführen, Rückführung des Variationsproblem auf ein gewöhnliches Extremalproblem PMP Weiterentwicklung der Variationsrechnung

102 Pontryaginsches Minimumprinzip Ergebnis des PMP: u kann in Abhängigkeit von x, λ und t aus der Minimumbedingung bestimmt und dann für jedes t in das kanonische Differentialgleichungssystem eingesetzt werden 2-Punkt-Randwertproblem für 2n gewöhnliche Differentialgleichungen. Lösung des Randwertproblems mit numerischen Verfahren

103 Pontryaginsches Minimumprinzip Ergebnis des PMP: u kann in Abhängigkeit von x, λ und t aus der Minimumbedingung bestimmt und dann für jedes t in das kanonische Differentialgleichungssystem eingesetzt werden 2-Punkt-Randwertproblem für 2n gewöhnliche Differentialgleichungen. Lösung des Randwertproblems mit numerischen Verfahren

104 Pontryaginsches Minimumprinzip Ergebnis des PMP: u kann in Abhängigkeit von x, λ und t aus der Minimumbedingung bestimmt und dann für jedes t in das kanonische Differentialgleichungssystem eingesetzt werden 2-Punkt-Randwertproblem für 2n gewöhnliche Differentialgleichungen. Lösung des Randwertproblems mit numerischen Verfahren

105 Pontryaginsches Minimumprinzip Ergebnis des PMP: u kann in Abhängigkeit von x, λ und t aus der Minimumbedingung bestimmt und dann für jedes t in das kanonische Differentialgleichungssystem eingesetzt werden 2-Punkt-Randwertproblem für 2n gewöhnliche Differentialgleichungen. Lösung des Randwertproblems mit numerischen Verfahren

106 3.2 Verfahren zur Lösung des Randwertproblems

107 Einfach - Schießverfahren

108 Einfach - Schießverfahren Randwertproblem: ψ(x(t 0 ), x(t f )) = 0. ẋ = f (x, t), (12)

109 Einfach-Schießverfahren Bestimmung eines Anfangswertes s R n für das Anfangswertproblem ẋ = f (x, t), (13) x(t 0 ) = s, so dass die Lösung x(t) = x(t; s) die Randbedingungen (12) erfüllt.

110 Einfach-Schießverfahren Das heißt: ψ(x(t 0 ; s), x(t f ; s)) ψ(s, x(t f ; s)) = 0. Es ist eine Nullstelle der Funktion F(s) := ψ(s, x(t f ; s)) zu bestimmen.

111 Einfach-Schießverfahren Das heißt: ψ(x(t 0 ; s), x(t f ; s)) ψ(s, x(t f ; s)) = 0. Es ist eine Nullstelle der Funktion F(s) := ψ(s, x(t f ; s)) zu bestimmen.

112 Nullstellenbestimmung Newtonverfahren Newtonartige Verfahren

113 Nullstellenbestimmung Newtonverfahren Newtonartige Verfahren

114 Einfach-Schießverfahren Bestimmung von x(t f ; s) durch Lösen des Anfangswertproblems (13) in jedem Iterationsschritt Differenz der durch die Anfangsschätzung bestimmten Lösung in t f, d.h. x(t f ; s), und der bekannten Endbedingungen x(t f ) wird zu Null gerechnet

115 Einfach-Schießverfahren Bestimmung von x(t f ; s) durch Lösen des Anfangswertproblems (13) in jedem Iterationsschritt Differenz der durch die Anfangsschätzung bestimmten Lösung in t f, d.h. x(t f ; s), und der bekannten Endbedingungen x(t f ) wird zu Null gerechnet

116 Einfach - Schießverfahren

117 Lösung des Anfangswertproblems Einschrittverfahren (Polygonzugverfahren von Euler, Runge-Kutta Verfahren) Mehrschrittverfahren (Adams - Bashforth, Adams - Moulton) Extrapolationsverfahren Schrittweitensteuerung

118 Lösung des Anfangswertproblems Einschrittverfahren (Polygonzugverfahren von Euler, Runge-Kutta Verfahren) Mehrschrittverfahren (Adams - Bashforth, Adams - Moulton) Extrapolationsverfahren Schrittweitensteuerung

119 Lösung des Anfangswertproblems Einschrittverfahren (Polygonzugverfahren von Euler, Runge-Kutta Verfahren) Mehrschrittverfahren (Adams - Bashforth, Adams - Moulton) Extrapolationsverfahren Schrittweitensteuerung

120 Lösung des Anfangswertproblems Einschrittverfahren (Polygonzugverfahren von Euler, Runge-Kutta Verfahren) Mehrschrittverfahren (Adams - Bashforth, Adams - Moulton) Extrapolationsverfahren Schrittweitensteuerung

121 Einfach - Schießverfahren Problem: erhebliche Ungenauigkeiten, sofern x(t) = x(t; s) sehr empfindlich von s abhängt

122 Mehrzielmethode

123 Mehrfach - Schießverfahren Unterteilung von [t 0, t f ] Anwendung des Einfachschießverfahrens auf Teilintervalle für werden die Werte t 0 = t 1 < t 2... < t M = t f s k = x(t k ), k = 1,..., M 1 der exakten Lösung x(t) des Randwertproblems (12) gleichzeitig iterativ berechnet

124 Mehrfach - Schießverfahren Unterteilung von [t 0, t f ] Anwendung des Einfachschießverfahrens auf Teilintervalle für werden die Werte t 0 = t 1 < t 2... < t M = t f s k = x(t k ), k = 1,..., M 1 der exakten Lösung x(t) des Randwertproblems (12) gleichzeitig iterativ berechnet

125 Mehrfach - Schießverfahren Unterteilung von [t 0, t f ] Anwendung des Einfachschießverfahrens auf Teilintervalle für werden die Werte t 0 = t 1 < t 2... < t M = t f s k = x(t k ), k = 1,..., M 1 der exakten Lösung x(t) des Randwertproblems (12) gleichzeitig iterativ berechnet

126 Mehrfach - Schießverfahren x(t; t k, s k ) sei Lösung des Anfangswertproblems ẋ = f (x, t), (14) x(t k ) = s k (15)

127 Mehrfach-Schießverfahren Vektoren s k, k = 1,..., M 1 sind so zu bestimmen, dass die aus den x(t; t k, s) stückweise zusammengesetzte Funktion x(t) := x(t; t k, s k ) für t [t k, t k+1 [, k = 1,..., M 1, stetig ist und die Randbedingungen ψ(x(t 0 ), x(t f )) = 0 erfüllt.

128 Mehrfach - Schießverfahren

129 Mehrfach - Schießverfahren n(m 1) Bedingungen: x(t k+1 ; t k, s k ) = s k+1, k = 1,..., M 2, (Stetigkeit) ψ(s 1, x(t M ; t M 1, s M 1)) = 0, (Randbedingungen) für die n(m 1) unbekannten Komponenten s (j) k, j = 1,..., n, k = 1,..., M 1 der s k

130 Mehrfach - Schießverfahren Gleichungssystem: F 1 (s 1, s 2 ) F 2 (s 2, s 3 ) F (s) :=. := F M 2 (s M 2, s M 1 ) F M 1 (s 1, s M 1 ) = 0 x(t 2 ; t 1, s 1 ) s 2 x(t 3 ; t 2, s 2 ) s 3. x(t M 1 ; t M 2, s M 2 ) s M 1 ψ(s 1, x(t M ; t M 1, s M 1 ))

131 Verfahren zur Nullstellenbestimmung Newton Quasi - Newton Reduzierung des Rechenaufwands durch Verwendung von Broyden - Approximationen zur Bestimmung von F(s)

132 Verfahren zur Nullstellenbestimmung Newton Quasi - Newton Reduzierung des Rechenaufwands durch Verwendung von Broyden - Approximationen zur Bestimmung von F(s)

133 Verfahren zur Nullstellenbestimmung Newton Quasi - Newton Reduzierung des Rechenaufwands durch Verwendung von Broyden - Approximationen zur Bestimmung von F(s)

134 3.3 Anwendung des Pontryaginschen Minimumprinzip

135 Anwendung des Pontryaginschen Minimumprinzips Gegeben sei das folgende Problem: unter min N 1 j=0 tj+1 t j u(t)dt ẋ(t) = e x(t) x(t)u(t) = f (x(t), u(t)) x(t 0 ) = x 0 x(t f ) = x f 0 u(t) 4 t 0... t f

136 Anwendung des Pontryaginschen Minimumprinzips Gegeben sei das folgende Problem: unter min N 1 j=0 tj+1 t j u(t)dt ẋ(t) = e x(t) x(t)u(t) = f (x(t), u(t)) x(t 0 ) = x 0 x(t f ) = x f 0 u(t) 4 t 0... t f

137 Anwendung des Pontryaginschen Minimumprinzips Gegeben sei das folgende Problem: unter min N 1 j=0 tj+1 t j u(t)dt ẋ(t) = e x(t) x(t)u(t) = f (x(t), u(t)) x(t 0 ) = x 0 x(t f ) = x f 0 u(t) 4 t 0... t f

138 Anwendung des Pontryaginschen Minimumprinzips Gegeben sei das folgende Problem: unter min N 1 j=0 tj+1 t j u(t)dt ẋ(t) = e x(t) x(t)u(t) = f (x(t), u(t)) x(t 0 ) = x 0 x(t f ) = x f 0 u(t) 4 t 0... t f

139 Anwendung des Pontryaginschen Minimumprinzips Gegeben sei das folgende Problem: unter min N 1 j=0 tj+1 t j u(t)dt ẋ(t) = e x(t) x(t)u(t) = f (x(t), u(t)) x(t 0 ) = x 0 x(t f ) = x f 0 u(t) 4 t 0... t f

140 Anwendung des Pontryaginschen Minimumprinzips Gegeben sei das folgende Problem: unter min N 1 j=0 tj+1 t j u(t)dt ẋ(t) = e x(t) x(t)u(t) = f (x(t), u(t)) x(t 0 ) = x 0 x(t f ) = x f 0 u(t) 4 t 0... t f

141 Anwendung des Pontryaginschen Minimumprinzips Gegeben sei das folgende Problem: unter min N 1 j=0 tj+1 t j u(t)dt ẋ(t) = e x(t) x(t)u(t) = f (x(t), u(t)) x(t 0 ) = x 0 x(t f ) = x f 0 u(t) 4 t 0... t f

142 Bestimmung der Hamiltonfunktion Definition Hamiltonfunktion: H(x, λ, u, t) := λ 0 f 0 (x, u, t) + λ T f (x, u, t) Es gilt: H(x, λ, u, t) = λ(t)[e x(t) x(t)u(t)] + λ 0 u(t)

143 Bestimmung der Hamiltonfunktion Definition Hamiltonfunktion: H(x, λ, u, t) := λ 0 f 0 (x, u, t) + λ T f (x, u, t) Es gilt: H(x, λ, u, t) = λ(t)[e x(t) x(t)u(t)] + λ 0 u(t)

144 Minimumbedingung Definition Minimumbedingung: H(x (t), λ(t), u (t), t) = min u U H(x (t), λ(t), u, t) min u U λ(t)ex (t) λ(t)x (t)u(t) + λ 0 u(t) = min u U λ(t)ex (t) + u(t)[λ 0 λ(t)x (t)]

145 Minimumbedingung Definition Minimumbedingung: H(x (t), λ(t), u (t), t) = min u U H(x (t), λ(t), u, t) min u U λ(t)ex (t) λ(t)x (t)u(t) + λ 0 u(t) = min u U λ(t)ex (t) + u(t)[λ 0 λ(t)x (t)]

146 Minimumbedingung min u U λ(t)ex (t) + u(t)[λ 0 λ(t)x (t)] 1. Fall: λ 0 λ(t)x (t) > 0 Minimum für u(t) = 0 2. Fall: λ 0 λ(t)x (t) < 0 Minimum für u(t) = 4 3. Fall: λ 0 λ(t)x (t) = 0 singuläre Steuerung nur noch der 3.Fall ist zu untersuchen

147 Minimumbedingung min u U λ(t)ex (t) + u(t)[λ 0 λ(t)x (t)] 1. Fall: λ 0 λ(t)x (t) > 0 Minimum für u(t) = 0 2. Fall: λ 0 λ(t)x (t) < 0 Minimum für u(t) = 4 3. Fall: λ 0 λ(t)x (t) = 0 singuläre Steuerung nur noch der 3.Fall ist zu untersuchen

148 Minimumbedingung min u U λ(t)ex (t) + u(t)[λ 0 λ(t)x (t)] 1. Fall: λ 0 λ(t)x (t) > 0 Minimum für u(t) = 0 2. Fall: λ 0 λ(t)x (t) < 0 Minimum für u(t) = 4 3. Fall: λ 0 λ(t)x (t) = 0 singuläre Steuerung nur noch der 3.Fall ist zu untersuchen

149 Minimumbedingung min u U λ(t)ex (t) + u(t)[λ 0 λ(t)x (t)] 1. Fall: λ 0 λ(t)x (t) > 0 Minimum für u(t) = 0 2. Fall: λ 0 λ(t)x (t) < 0 Minimum für u(t) = 4 3. Fall: λ 0 λ(t)x (t) = 0 singuläre Steuerung nur noch der 3.Fall ist zu untersuchen

150 Adjungierte Differentialgleichung Definition Adjungierte Differentialgleichung: λ T = x H(x (t), λ(t), u (t), t) λ(t) = x H(x, λ, u ) = λ(t)e x (t) + λ(t)u (t)

151 Adjungierte Differentialgleichung Definition Adjungierte Differentialgleichung: λ T = x H(x (t), λ(t), u (t), t) λ(t) = x H(x, λ, u ) = λ(t)e x (t) + λ(t)u (t)

152 Singuläre Steuerung σ(t) := λ 0 λ(t)x (t) = 0 auf singulärem Intervall d dt σ(t) 0 d dt σ(t) = λ(t)x (t) λ(t)ẋ (t) = [λ(t)e x (t) λ(t)u (t)]x (t) λ(t)[e x (t) x (t)u (t)] = λ(t)e x (t) [x (t) 1] = 0

153 Singuläre Steuerung σ(t) := λ 0 λ(t)x (t) = 0 auf singulärem Intervall d dt σ(t) 0 d dt σ(t) = λ(t)x (t) λ(t)ẋ (t) = [λ(t)e x (t) λ(t)u (t)]x (t) λ(t)[e x (t) x (t)u (t)] = λ(t)e x (t) [x (t) 1] = 0

154 Singuläre Steuerung σ(t) := λ 0 λ(t)x (t) = 0 auf singulärem Intervall d dt σ(t) 0 d dt σ(t) = λ(t)x (t) λ(t)ẋ (t) = [λ(t)e x (t) λ(t)u (t)]x (t) λ(t)[e x (t) x (t)u (t)] = λ(t)e x (t) [x (t) 1] = 0

155 Singuläre Steuerung Für λ 0 = 1 : auf singulärem Intervall gilt: λ 0 λ(t)x (t) = 0 λ(t)x (t) = 1 λ(t)e x (t) [x (t) 1] = 0 x (t) 1 ẋ (t) 0 0 = ẋ (t) = e x (t) x (t)u (t) = e u (t) u (t) = e

156 Singuläre Steuerung Für λ 0 = 1 : auf singulärem Intervall gilt: λ 0 λ(t)x (t) = 0 λ(t)x (t) = 1 λ(t)e x (t) [x (t) 1] = 0 x (t) 1 ẋ (t) 0 0 = ẋ (t) = e x (t) x (t)u (t) = e u (t) u (t) = e

Entwurf robuster Regelungen

Entwurf robuster Regelungen Entwurf robuster Regelungen Kai Müller Hochschule Bremerhaven Institut für Automatisierungs- und Elektrotechnik z P v K Juni 25 76 5 OPTIMALE ZUSTANDSREGELUNG 5 Optimale Zustandsregelung Ein optimaler

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei

Mehr

Charakteristikenmethode im Beispiel

Charakteristikenmethode im Beispiel Charakteristikenmethode im Wir betrachten die PDE in drei Variablen xu x + yu y + (x + y )u z = 0. Das charakteristische System lautet dann ẋ = x ẏ = y ż = x + y und besitzt die allgemeine Lösung x(t)

Mehr

PRAKTIKUM REGELUNGSTECHNIK 2

PRAKTIKUM REGELUNGSTECHNIK 2 FACHHOCHSCHULE LANDSHUT Fachbereich Elektrotechnik Prof. Dr. G. Dorn PRAKTIKUM REGELUNGSTECHNIK 2 1 Versuch 2: Übertragungsfunktion und Polvorgabe 1.1 Einleitung Die Laplace Transformation ist ein äußerst

Mehr

Lösung des Hedging-Problems mittels Stochastischer Dynamischer Optimierung

Lösung des Hedging-Problems mittels Stochastischer Dynamischer Optimierung Lösung des Hedging-Problems mittels Stochastischer Dynamischer Optimierung Ausarbeitung zum Vortrag im Seminar Stochastische Dynamische Optimierung vom 18.01.2008 Datum : 18.01.2008 Verfasser: Martin Schymalla

Mehr

Stabilität mittels Ljapunov Funktion

Stabilität mittels Ljapunov Funktion Stabilität mittels Ljapunov Funktion Definition Eine C 1 Funktion V : D R, D R, heißt eine Ljapunov Funktion auf K r (0) D für f(y), falls gilt: 1) V(0) = 0, V(y) > 0 für y 0 2) V,f(y) 0 ( y, y r) Gilt

Mehr

17. Penalty- und Barriere-Methoden

17. Penalty- und Barriere-Methoden H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende

Mehr

Transformation und Darstellung funktionaler Daten

Transformation und Darstellung funktionaler Daten Transformation und Darstellung funktionaler Daten Seminar - Statistik funktionaler Daten Jakob Bossek Fakultät für Statistik 7. Mai 2012 Übersicht Einleitung Einordnung im Seminar Motivation am Beispiel

Mehr

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort: Tangentengleichung Wie Sie wissen, gibt die erste Ableitung einer Funktion deren Steigung an. Betrachtet man eine fest vorgegebene Stelle, gibt f ( ) also die Steigung der Kurve und somit auch die Steigung

Mehr

Computer Vision: Optische Flüsse

Computer Vision: Optische Flüsse Computer Vision: Optische Flüsse D. Schlesinger TUD/INF/KI/IS Bewegungsanalyse Optischer Fluss Lokale Verfahren (Lukas-Kanade) Globale Verfahren (Horn-Schunck) (+ kontinuierliche Ansätze: mathematische

Mehr

Extrema von Funktionen in zwei Variablen

Extrema von Funktionen in zwei Variablen Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen in zwei Variablen Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,

Mehr

4 Runge-Kutta-Verfahren

4 Runge-Kutta-Verfahren Numerik gewöhnlicher Differentialgleichungen 43 4 Runge-Kutta-Verfahren 4. Konstruktion Ausgangspunkt wie immer (Substitution: s = t + τh, 0 τ ) y(t + h) = y(t) + [y(t + h) y(t)] = y(t) + = y(t) + h 0

Mehr

Kapitel 15: Differentialgleichungen

Kapitel 15: Differentialgleichungen FernUNI Hagen WS 00/03 Kapitel 15: Differentialgleichungen Differentialgleichungen = Gleichungen die Beziehungen zwischen einer Funktion und mindestens einer ihrer Ableitungen herstellen. Kommen bei vielen

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

2 3 x3 17. x k dx = x k x k+1 k +1. Mit jeder weiteren partiellen Integration reduziert sich der Grad des Faktors x n, induktiv erhalten wir also

2 3 x3 17. x k dx = x k x k+1 k +1. Mit jeder weiteren partiellen Integration reduziert sich der Grad des Faktors x n, induktiv erhalten wir also Universität Konstanz Fachbereich Mathematik und Statistik Repetitorium Analysis 0 Dr DK Huynh Blatt 8 Aufgabe 6 Bestimmen Sie (a) (x + x 7x+)dx (c) (f) x n exp(x)dx (n N fest) sin (x)dx (g) (b) (d) ln(x)dx

Mehr

Optimierung mit Matlab

Optimierung mit Matlab Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof. Dr. L. Cromme Computerbasierte Mathematische Modellierung für Mathematiker, Wirtschaftsmathematiker, Informatiker im Wintersemester

Mehr

Einführung in die Robotik Regelung. Mohamed Oubbati Institut für Neuroinformatik. Tel.: (+49) 731 / 50 24153 mohamed.oubbati@uni-ulm.de 04. 12.

Einführung in die Robotik Regelung. Mohamed Oubbati Institut für Neuroinformatik. Tel.: (+49) 731 / 50 24153 mohamed.oubbati@uni-ulm.de 04. 12. Einführung in die Robotik Regelung Mohamed Oubbati Institut für Neuroinformatik Tel.: (+49) 731 / 50 24153 mohamed.oubbati@uni-ulm.de 04. 12. 2012 The human is perhaps the most intelligent control system

Mehr

Musterlösungen zu Prüfungsaufgaben über gewöhnliche Differentialgleichungen Prüfungsaufgabe a) Gegeben sei die lineare Differentialgleichung

Musterlösungen zu Prüfungsaufgaben über gewöhnliche Differentialgleichungen Prüfungsaufgabe a) Gegeben sei die lineare Differentialgleichung Musterlösungen zu n über gewöhnliche Differentialgleichungen a) Gegeben sei die lineare Differentialgleichung y + - y = e - ln, > 0 Man gebe die allgemeine Lösung der homogenen Gleichung an Wie lautet

Mehr

34 5. FINANZMATHEMATIK

34 5. FINANZMATHEMATIK 34 5. FINANZMATHEMATIK 5. Finanzmathematik 5.1. Ein einführendes Beispiel Betrachten wir eine ganz einfache Situation. Wir haben einen Markt, wo es nur erlaubt ist, heute und in einem Monat zu handeln.

Mehr

Optionsbewertung. Christof Heuer und Fabian Lenz. 2. Februar 2009

Optionsbewertung. Christof Heuer und Fabian Lenz. 2. Februar 2009 nach Black-Scholes mit sprüngen 2. Februar 2009 nach Black-Scholes mit sprüngen Inhaltsverzeichnis 1 Einleitung Optionsarten Modellannahmen 2 Aktienmodell Beispiele für e ohne Sprung 3 nach Black-Scholes

Mehr

Beispiel 11.2. Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) =

Beispiel 11.2. Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) = Funktionentheorie, Woche Funktionen und Polstellen. Meromorphe Funktionen Definition.. Sei U C offen und sei f : U gilt, nennt man f meromorph auf U: Ĉ eine Funktion. Wenn folgendes. P := f hat keine Häufungspunkte;.

Mehr

11.3 Komplexe Potenzreihen und weitere komplexe Funktionen

11.3 Komplexe Potenzreihen und weitere komplexe Funktionen .3 Komplexe Potenzreihen und weitere komplexe Funktionen Definition.) komplexe Folgen: z n = x n + j. y n mit zwei reellen Folgen x n und y n.) Konvergenz: Eine komplexe Folge z n = x n + j. y n heißt

Mehr

Grundzustandsberechnung von Gross-Pitaevskii Gleichungen

Grundzustandsberechnung von Gross-Pitaevskii Gleichungen Grundzustandsberechnung von Gross-Pitaevskii Gleichungen Christoph Bischko, Lukas Einkemmer, Dominik Steinhauser Fakultät für Mathematik, Informatik und Physik Universität Innsbruck 2. Juli, 2010 Christoph,

Mehr

Klausur Analysis II (SS 2005)

Klausur Analysis II (SS 2005) Klausur Analysis II (SS 5) Prof. Dr. J. Franke Abschlußklausur vom. Juli 5 Name, Vorname: Matrikelnummer: Gruppe, Tutor: Pseudonym: ir wünschen Ihnen viel Erfolg! Mit 5 Punkten oder mehr von 5 ist die

Mehr

Abtastsysteme im Zustandsraum

Abtastsysteme im Zustandsraum Abtastsysteme im Zustandsraum Prof. Dr. François E. Cellier Institut für Computational Science ETH Zürich May 11, 2006 Kontinuierliches System: ẋ(t) = Fx(t)+gu(t) y(t) = c T x(t)+du(t) : t x(t) =e F(t

Mehr

Die Black-Scholes-Gleichung

Die Black-Scholes-Gleichung Die Black-Scholes-Gleichung Franziska Merk 22.06.2012 Outline Optionen 1 Optionen 2 3 Optionen Eine Kaufoption ist ein Recht, eine Aktie zu einem heute (t=0) festgelegten Preis E an einem zukünftigen Zeitpunkt

Mehr

Übungsklausur. Bitte wählen Sie fünf Aufgaben aus! Aufgabe 1. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr.

Übungsklausur. Bitte wählen Sie fünf Aufgaben aus! Aufgabe 1. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr. Gert Zöller Übungsklausur Hilfsmittel: Taschenrechner, Formblatt mit Formeln. Lösungswege sind stets anzugeben. Die alleinige Angabe eines

Mehr

Praktikum Dynamische Prozessoptimierung. Versuch DynPO-1

Praktikum Dynamische Prozessoptimierung. Versuch DynPO-1 Praktikum Dynamische Prozessoptimierung Versuch DynPO-1 Numerische Lösung von Optimalsteuerungsaufgaben Autor: Dr. Ing. E. Arnold Verantwortlicher Hochschullehrer: Prof. Dr. Ing. habil. P. Li Versuchsverantwortlicher:

Mehr

Nicht-rekombinierbare Binomialbäume und ihre Anwendung in der Finanzmathematik Betreuer: Lars Grüne

Nicht-rekombinierbare Binomialbäume und ihre Anwendung in der Finanzmathematik Betreuer: Lars Grüne Nicht-rekombinierbare Binomialbäume und ihre Anwendung in der Finanzmathematik Betreuer: Lars Grüne Michaela Baumann Universität Bayreuth Dornbirn, 12. März 2015 Motivation Ein Kunde möchte bei einer Bank

Mehr

Kybernetik Intelligent Agents- Action Selection

Kybernetik Intelligent Agents- Action Selection Kybernetik Intelligent Agents- Action Selection Mohamed Oubbati Institut für Neuroinformatik Tel.: (+49) 731 / 50 24153 mohamed.oubbati@uni-ulm.de 26. 06. 2012 Intelligent Agents Intelligent Agents Environment

Mehr

SLAM. Simultaneous Localization and Mapping. KogSys-Sem-M2: Reading Club - SLAM - Andreas Habermann

SLAM. Simultaneous Localization and Mapping. KogSys-Sem-M2: Reading Club - SLAM - Andreas Habermann SLAM Simultaneous Localization and Mapping KogSys-Sem-M2: Reading Club - SLAM - Andreas Habermann Simultaneous Localization And Mapping SLAM Problematik SLAM Arten SLAM Methoden: (E)KF SLAM GraphSLAM Fast

Mehr

Allgemeine Regressionsanalyse. Kovariablen / Prädiktoren / unabhängige Variablen X j R d, evtl. deterministisch

Allgemeine Regressionsanalyse. Kovariablen / Prädiktoren / unabhängige Variablen X j R d, evtl. deterministisch Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 9.1 Allgemeine Regressionsanalyse Daten (X j, Y j ), j = 1,..., N unabhängig Kovariablen / Prädiktoren / unabhängige Variablen X j R d, evtl.

Mehr

Zulassungsprüfung für den Master-Studiengang in Elektrotechnik und Informationstechnik an der Leibniz Universität Hannover

Zulassungsprüfung für den Master-Studiengang in Elektrotechnik und Informationstechnik an der Leibniz Universität Hannover Zulassungsprüfung für den Master-Studiengang in Elektrotechnik und Informationstechnik an der Leibniz Universität Hannover Zulassungsjahr: 203 (Sommersemester) Allgemeine Informationen: Der deutschsprachige

Mehr

ax 2 + bx + c = 0, (4.1)

ax 2 + bx + c = 0, (4.1) Kapitel 4 Komplexe Zahlen Wenn wir uns auf die reellen Zahlen beschränken, ist die Operation des Wurzelziehens (also die Umkehrung der Potenzierung) nicht immer möglich. Zum Beispiel können wir nicht die

Mehr

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.

Mehr

Absolute Stetigkeit von Maßen

Absolute Stetigkeit von Maßen Absolute Stetigkeit von Maßen Definition. Seien µ und ν Maße auf (X, Ω). Dann heißt ν absolut stetig bezüglich µ (kurz ν µ ), wenn für alle A Ω mit µ(a) = 0 auch gilt dass ν(a) = 0. Lemma. Sei ν ein endliches

Mehr

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema 2x 4 + x 3 + x + 3 div x 2 + x 1 = 2x 2 x + 3 (2x 4 + 2x 3 2x 2 ) x 3 + 2x 2 + x + 3 ( x

Mehr

Credit Risk+: Eine Einführung

Credit Risk+: Eine Einführung Credit Risk+: Eine Einführung Volkert Paulsen December 9, 2004 Abstract Credit Risk+ ist neben Credit Metrics ein verbreitetes Kreditrisikomodell, dessen Ursprung in der klassischen Risikotheorie liegt.

Mehr

Zulassungsprüfung für den Master-Studiengang in Elektrotechnik und Informationstechnik an der Leibniz Universität Hannover

Zulassungsprüfung für den Master-Studiengang in Elektrotechnik und Informationstechnik an der Leibniz Universität Hannover Zulassungsprüfung für den Master-Studiengang in Elektrotechnik und Informationstechnik an der Leibniz Universität Hannover Zulassungsjahr: 202 (Sommersemester) Allgemeine Informationen: Der deutschsprachige

Mehr

Binäre abhängige Variablen

Binäre abhängige Variablen Binäre abhängige Variablen Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Einführung Oft wollen wir qualitative Variablen

Mehr

FB IV Mathematik Universität Trier. Präsentation von Nadja Wecker

FB IV Mathematik Universität Trier. Präsentation von Nadja Wecker FB IV Mathematik Universität Trier Präsentation von Nadja Wecker 1) Einführung Beispiele 2) Mathematische Darstellung 3) Numerischer Fluss für Diffusionsgleichung 4) Konvergenz 5) CFL-Bedingung 6) Zusammenfassung

Mehr

Gefesselte Masse. Jörg J. Buchholz 23. März 2014

Gefesselte Masse. Jörg J. Buchholz 23. März 2014 Gefesselte Masse Jörg J. Buchholz 23. März 204 Einleitung In Abbildung ist eine Punktmasse m dargestellt, die sich, von einem masselosen starren tab der Länge l gefesselt, auf einer Kreisbahn bewegt. Dabei

Mehr

Statistische Verfahren für das Data Mining in einem Industrieprojekt

Statistische Verfahren für das Data Mining in einem Industrieprojekt Statistische Verfahren für das Data Mining in einem Industrieprojekt Thorsten Dickhaus Forschungszentrum Jülich GmbH Zentralinstitut für Angewandte Mathematik Telefon: 02461/61-4193 E-Mail: th.dickhaus@fz-juelich.de

Mehr

Kapitel 4: Binäre Regression

Kapitel 4: Binäre Regression Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,

Mehr

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen 4. Datenanalyse und Modellbildung Deskriptive Statistik 2-1 2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen Für die Auswertung einer Messreihe, die in Form

Mehr

Rekursionen (Teschl/Teschl 8.1-8.2)

Rekursionen (Teschl/Teschl 8.1-8.2) Rekursionen (Teschl/Teschl 8.1-8.2) Eine Rekursion kter Ordnung für k N ist eine Folge x 1, x 2, x 3,... deniert durch eine Rekursionsvorschrift x n = f n (x n 1,..., x n k ) für n > k, d. h. jedes Folgenglied

Mehr

Mathematik I für Wirtschaftswissenschaftler Klausur am 08.06.2004, 15.45 17.45.

Mathematik I für Wirtschaftswissenschaftler Klausur am 08.06.2004, 15.45 17.45. Mathematik I für Wirtschaftswissenschaftler Klausur am 8.6.4, 5.45 7.45. Bitte unbedingt beachten: a) Gewertet werden alle acht gestellten Aufgaben. b) Lösungswege und Begründungen sind anzugeben. Die

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

Geoadditive Regression

Geoadditive Regression Seminar: Stochastische Geometrie und ihre Anwendungen - Zufallsfelder Universität Ulm 27.01.2009 Inhalt Einleitung 1 Einleitung 2 3 Penalisierung 4 Idee Variogramm und Kovarianz Gewöhnliches Ansatz für

Mehr

CAS-Ansicht Computer Algebra System & Cas spezifische Befehle

CAS-Ansicht Computer Algebra System & Cas spezifische Befehle CAS-Ansicht Computer Algebra System & Cas spezifische Befehle GeoGebra Workshop Handout 10 1 1. Einführung in die GeoGebra CAS-Ansicht Die CAS-Ansicht ermöglicht die Verwendung eines CAS (Computer Algebra

Mehr

Modellordnungsreduktion für strukturmechanische FEM-Modelle von Werkzeugmaschinen

Modellordnungsreduktion für strukturmechanische FEM-Modelle von Werkzeugmaschinen Modellordnungsreduktion für strukturmechanische FEM-Modelle von Werkzeugmaschinen Professur Mathematik in Industrie und Technik Fakultät für Mathematik, Technische Universität Chemnitz Arbeitsbericht zum

Mehr

Mathematische Grundlagen

Mathematische Grundlagen Kapitel 2 Mathematische Grundlagen In diesem Kapitel werden für die nachfolgenden Untersuchungen wesentliche Grundlagen bereitgestellt. 2.1 Differentiell-algebraische Gleichungssysteme 2.1.1 Einführung

Mehr

Ohne Mathematik undenkbar!

Ohne Mathematik undenkbar! Die tägliche - Suche: Ohne Mathematik undenkbar! Dipl.-Wirt.Math. Jan Maruhn FB IV - Mathematik Universität Trier 29. März 2006 29. März 2006 Seite 1 Gliederung Einleitung und Motivation Das Internet als

Mehr

Berechnung optimaler Angebotskurven in Elektrizitätsmärkten mit Methoden optimaler Steuerprozesse

Berechnung optimaler Angebotskurven in Elektrizitätsmärkten mit Methoden optimaler Steuerprozesse Institut für Numerische und instrumentelle Mathematik Westfälische Wilhelms-Universität Münster Berechnung optimaler Angebotskurven in Elektrizitätsmärkten mit Methoden optimaler Steuerprozesse Diplomarbeit

Mehr

Beobachtergestützte Regelung einer Gasheizung in der Minimal-Invasiven-Medizin (kurz MIM) Felix Menzel, 12.05.2015

Beobachtergestützte Regelung einer Gasheizung in der Minimal-Invasiven-Medizin (kurz MIM) Felix Menzel, 12.05.2015 W.O.M. WORLD OF MEDICINE GmbH Beobachtergestützte Regelung einer Gasheizung in der Minimal-Invasiven-Medizin (kurz MIM) Felix Menzel, 12.05.2015 Regelungssysteme bei WOM (1) Anwendung: Insufflatoren (Laporoskopie)

Mehr

Semidiskretisierung der PDA-Systeme

Semidiskretisierung der PDA-Systeme Kapitel 4 Semidisretisierung der PDA-Systeme Eine Möglicheit zur numerischen Behandlung von Anfangsrandwertproblemen partieller Differentialgleichungen ist die Linienmethode method of lines, MOL, vgl.

Mehr

OPERATIONS-RESEARCH (OR)

OPERATIONS-RESEARCH (OR) OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag. $Id: quadrat.tex,v.5 9//5 ::59 hk Exp $ $Id: orthogonal.tex,v.4 9// ::54 hk Exp $ $Id: fourier.tex,v. 9// :: hk Exp $ Symmetrische Matrizen und quadratische

Mehr

Monte Carlo Methoden in Kreditrisiko-Management

Monte Carlo Methoden in Kreditrisiko-Management Monte Carlo Methoden in Kreditrisiko-Management P Kreditportfolio bestehend aus m Krediten; Verlustfunktion L = n i=1 L i; Die Verluste L i sind unabhängig bedingt durch einen Vektor Z von ökonomischen

Mehr

Die Kalkulation von PKV-Tarifen unter Einbeziehung des Übertragungswertes

Die Kalkulation von PKV-Tarifen unter Einbeziehung des Übertragungswertes Die Kalkulation von PKV-Tarifen unter Einbeziehung des Übertragungswertes Anna Wallner und Hans-Joachim Zwiesler Preprint Series: 2009-25 Fakultät für Mathematik und Wirtschaftswissenschaften UNIVERSITÄT

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu Herleitung der oppenecker-formel (Wiederholung) Für ein System ẋ Ax + Bu (B habe Höchstrang) wird eine Zustandsregelung u x angesetzt. Der geschlossene egelkreis gehorcht der Zustands-Dgl. ẋ (A B)x. Die

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel

Mehr

Wie viele Nullstellen hat ein Polynom?

Wie viele Nullstellen hat ein Polynom? Wie viele Nullstellen hat ein Polynom? Verena Pölzl 0812265 Sabine Prettner 8930280 Juni 2013 1 Inhaltsverzeichnis 1 Warum will man wissen, wie viele Nullstellen ein Polynom hat? 3 2 Oligonome 4 3 Die

Mehr

Probeklausur Signale + Systeme Kurs TIT09ITA

Probeklausur Signale + Systeme Kurs TIT09ITA Probeklausur Signale + Systeme Kurs TIT09ITA Dipl.-Ing. Andreas Ströder 13. Oktober 2010 Zugelassene Hilfsmittel: Alle außer Laptop/PC Die besten 4 Aufgaben werden gewertet. Dauer: 120 min 1 Aufgabe 1

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme Beispiel.5: Funktion von Runge (V) Beispiel Martin-Luther-Universität Halle-Wittenberg, NWF III, Institut für Mathematik Martin Arnold: Grundkurs Numerische Mathematik (WiS 27/8) Abbildung.3: Interpolation

Mehr

Aufgabe b) Anfangs eine simple Aufgabe, doch nach ungefähr dem siebten Glas (64 Reiskörner) eine mühselige Arbeit.

Aufgabe b) Anfangs eine simple Aufgabe, doch nach ungefähr dem siebten Glas (64 Reiskörner) eine mühselige Arbeit. 1. Schachbrett voller Reis Wir haben uns für mehr als 1000 kg entschieden, da wir glauben, dass aufgrund des stark ansteigenden Wachstums (exponentiell!) dieses Gewicht leicht zustande kommt. Anfangs eine

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

1. Einführung. Umwelt-Campus Birkenfeld Numerische Mathematik

1. Einführung. Umwelt-Campus Birkenfeld Numerische Mathematik . Einführung Die numerische Mathematik, kur Numerik genannt, beschäftigt sich als Teilgebiet der Mathematik mit der Konstruktion und Analyse von Algorithmen für technisch-naturwissenschaftliche Probleme..

Mehr

Einführung in die Informatik I

Einführung in die Informatik I Einführung in die Informatik I Algorithmen und deren Programmierung Prof. Dr. Nikolaus Wulff Definition Algorithmus Ein Algorithmus ist eine präzise formulierte Handlungsanweisung zur Lösung einer gleichartigen

Mehr

Funktionen (linear, quadratisch)

Funktionen (linear, quadratisch) Funktionen (linear, quadratisch) 1. Definitionsbereich Bestimme den Definitionsbereich der Funktion f(x) = 16 x 2 2x + 4 2. Umkehrfunktionen Wie lauten die Umkehrfunktionen der folgenden Funktionen? (a)

Mehr

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17 Computer Vision: 3D-Geometrie D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17 Lochkamera Modell C Projektionszentrum, Optische Achse, Bildebene, P Hauptpunkt (optische Achse kreuzt die Bildebene),

Mehr

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten: KAPITEL 4 Lineare Ausgleichsrechnung Beispiel 41 Das Ohmsche Gesetz: Eine Meßreihe von Daten: U = RI (U i, I i ) (Spannung, Stromstärke), i = 1,, m Aufgabe: man bestimme aus diesen Meßdaten den Widerstand

Mehr

Algorithmische Modelle als neues Paradigma

Algorithmische Modelle als neues Paradigma Algorithmische Modelle als neues Paradigma Axel Schwer Seminar über Philosophische Grundlagen der Statistik, WS 2010/11 Betreuer: Prof. Dr. Thomas Augustin München, den 28. Januar 2011 1 / 29 LEO BREIMAN

Mehr

12. Vergleich mehrerer Stichproben

12. Vergleich mehrerer Stichproben 12. Vergleich mehrerer Stichproben Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Häufig wollen wir verschiedene Populationen, Verfahren, usw. miteinander vergleichen. Beipiel: Vergleich

Mehr

Optionskennzahlen. 1 Man beachte, daß die mittels dieser Verhältnisse berechneten Veränderungen nur für kleine Veränderungen rich-

Optionskennzahlen. 1 Man beachte, daß die mittels dieser Verhältnisse berechneten Veränderungen nur für kleine Veränderungen rich- Optionskennzahlen 1 Einführung Die Abhängigkeit des Optionspreises von den verschiedenen Parametern wird analysiert, indem diese marginal 1 verändert und ins Verhältnis zu der daraus resultierenden Veränderung

Mehr

Stochastische Analysis. Zufallsmatrizen. Roland Speicher Queen s University Kingston, Kanada

Stochastische Analysis. Zufallsmatrizen. Roland Speicher Queen s University Kingston, Kanada Stochastische Analysis für Zufallsmatrizen Roland Speicher Queen s University Kingston, Kanada Was ist eine Zufallsmatrix? Zufallsmatrix = Matrix mit zufälligen Einträgen A : Ω M N (C) Was ist eine Zufallsmatrix?

Mehr

Untersuchung des mathematischen Pendels

Untersuchung des mathematischen Pendels Untersuchung des mathematischen Pendels Thomas Bächler, Markus Lange-Hegermann, Marcel Wallraff Aachen, 7. Mai 7 Einführung Im folgenden Abschnitt wird eine kurze Voruntersuchung des mathematischen Pendel

Mehr

Fachhochschule Bochum Fachhochschule Münster Fachhochschule Südwestfalen

Fachhochschule Bochum Fachhochschule Münster Fachhochschule Südwestfalen Fachhochschule Bochum Fachhochschule Münster Fachhochschule Südwestfalen Verbundstudiengang Technische Betriebswirtschaft Prof. Dr. rer. nat. habil. J. Resch Teilprüfung: Mathematik 1 (Modul) Termin: Februar

Mehr

Z = 60! 29!31! 1,1 1017.

Z = 60! 29!31! 1,1 1017. Aufgabe : Eine Hochzeitsgesellschaft besteht aus 60 Personen. a Wieviele verschiedene Möglichkeiten für Sitzordnungen gibt es? b Nehmen Sie nun an, dass 9 Gäste aus dem Familien- und Freundeskreis der

Mehr

Quantitative Risk Management

Quantitative Risk Management Quantitative Risk Management Copulas und Abhängigkeit Johannes Paschetag Mathematisches Institut der Universität zu Köln Wintersemester 2009/10 Betreuung: Prof. Schmidli, J. Eisenberg i Inhaltsverzeichnis

Mehr

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge 2.4 Stetige Zufallsvariable Beispiel. Abfüllung von 500 Gramm Packungen einer bestimmten Ware auf einer automatischen Abfüllanlage. Die Zufallsvariable X beschreibe die Füllmenge einer zufällig ausgewählten

Mehr

Der Advanced Encryption Standard (AES)

Der Advanced Encryption Standard (AES) Der Advanced Encryption Standard (AES) Prof. Dr. Rüdiger Weis TFH Berlin Sommersemester 2008 Geschichte des AES Die Struktur des AES Angriffe auf den AES Aktuelle Ergebnisse DerAdvanced Encryption Standard

Mehr

Die Weierstraßsche Funktion

Die Weierstraßsche Funktion Die Weierstraßsche Funktion Nicolas Weisskopf 7. September 0 Zusammenfassung In dieser Arbeit führen wir die Weierstraßsche Funktion ein und untersuchen einige ihrer Eigenschaften. Wir zeigen, dass jede

Mehr

PRAKTIKUM Experimentelle Prozeßanalyse 2. VERSUCH AS-PA-2 "Methoden der Modellbildung statischer Systeme" Teil 2 (für ausgewählte Masterstudiengänge)

PRAKTIKUM Experimentelle Prozeßanalyse 2. VERSUCH AS-PA-2 Methoden der Modellbildung statischer Systeme Teil 2 (für ausgewählte Masterstudiengänge) FACHGEBIET Systemanalyse PRAKTIKUM Experimentelle Prozeßanalyse 2 VERSUCH AS-PA-2 "Methoden der Modellbildung statischer Systeme" Teil 2 (für ausgewählte Masterstudiengänge) Verantw. Hochschullehrer: Prof.

Mehr

Thermische Gebäude- und Anlagensimulation TGASim

Thermische Gebäude- und Anlagensimulation TGASim Thermische Gebäude- und Anlagensimulation TGASim Die Zustandsraummethode (1. Überarbeitung) CSE Nadler Dipl.-Ing. Norbert Nadler Arnstädter Str. 7, 16515 Oranienburg Tel.: (331) 579 39- Fax: (331) 579

Mehr

Prozeßbezogene Signalverarbeitung in der LDA- und PDA-Meßtechnik

Prozeßbezogene Signalverarbeitung in der LDA- und PDA-Meßtechnik Slide 1 Prozeßbezogene Signalverarbeitung in der LDA- und PDA-Meßtechnik Postdoktorandenprogramm der DFG Zusammenarbeit mit Dantec MT Betreuung durch Universität Rostock Slide Postdoktorandenprogramm Ziel

Mehr

Lösung des Kleinste-Quadrate-Problems

Lösung des Kleinste-Quadrate-Problems Lösung des Kleinste-Quadrate-Problems Computergestützte Statistik Lisakowski, Christof 15.05.2009 Lisakowski, Christof ()Lösung des Kleinste-Quadrate-Problems 15.05.2009 1 / 34 Themen 1 Problemstellung

Mehr

Statistik. R. Frühwirth. Statistik. fru@hephy.oeaw.ac.at. VO 142.090 http://tinyurl.com/tu142090. Februar 2010. R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. fru@hephy.oeaw.ac.at. VO 142.090 http://tinyurl.com/tu142090. Februar 2010. R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

Monte Carlo Simulationen

Monte Carlo Simulationen Monte Carlo Simulationen Erkenntnisse durch die Erschaffung einer virtuellen Welt Stefan Wunsch 31. Mai 2014 INSTITUT FÜR EXPERIMENTELLE KERNPHYSIK (IEKP) KIT Universität des Landes Baden-Württemberg und

Mehr

Stabilisierung durch lokale Projektion für inkompressible Strömungsprobleme

Stabilisierung durch lokale Projektion für inkompressible Strömungsprobleme Stabilisierung durch lokale Projektion für inkompressible Strömungsprobleme Diplomarbeit vorgelegt von Johannes Löwe aus Göttingen angefertigt im Institut für Numerische und Angewandte Mathematik der Georg-August-Universität

Mehr

4 Greedy-Algorithmen (gierige Algorithmen)

4 Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen werden oft für die exakte oder approximative Lösung von Optimierungsproblemen verwendet. Typischerweise konstruiert ein Greedy-Algorithmus eine

Mehr

Kopplung von CFD und Populationsbilanz zur Simulation der Tropfengrößenverteilung in gerührten Systemen

Kopplung von CFD und Populationsbilanz zur Simulation der Tropfengrößenverteilung in gerührten Systemen Kopplung von CFD und Populationsbilanz zur Simulation der Tropfengrößenverteilung in gerührten Systemen A.Walle 1,J. Heiland 2,M. Schäfer 1,V.Mehrmann 2 1 TUDarmstadt, Fachgebietfür Numerische Berechnungsverfahren

Mehr

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 ) Aufgabe 65. Ganz schön span(n)end. Gegeben sei folgende Menge M von 6 Vektoren v, v,..., v 6 R 4 aus Aufgabe P 6: M = v =, v =, v =, v 4 =, v 5 =, v 6 = Welche der folgenden Aussagen sind wahr? span(v,

Mehr

Folgen. Kapitel 3. 3.1 Zinsrechnung

Folgen. Kapitel 3. 3.1 Zinsrechnung Kapitel 3 Folgen Eine Folge reeller Zahlen ordnet natürlichen Zahlen jeweils eine reelle Zahl zu. Liegen beispielsweise volkswirtschaftliche Daten quartalsweise vor, so kann man diese als Folge interpretieren.

Mehr

Molekularfeldtheorie (MFT)

Molekularfeldtheorie (MFT) 29.06.2006 Motivation Anwendungen der MFT MFT-Herleitung mittels Variationsansatz und Anwendung Grenzen der Anwendung der MFT Motivation Meisten Probleme nur unter Berücksichtigung von Wechselwirkungen

Mehr

Microsoft Excel 2010 Solver

Microsoft Excel 2010 Solver Hochschulrechenzentrum Justus-Liebig-Universität Gießen Microsoft Excel 2010 Solver Solver in Excel 2010 Seite 1 von 11 Inhaltsverzeichnis Einleitung... 2 Solver installieren... 2 Die Problemstellung

Mehr

Seminar Optimale Steuerung

Seminar Optimale Steuerung Seminar Optimale Steuerung Janick Frasch, Sebastian Sager Otto-von-Guericke Universität Magdeburg Seminar Sommersemester 2013 Frasch & Sager (OVGU): Seminar Optimale Steuerung 1 Seminar Optimale Steuerung

Mehr