Nichtlineare modellprädiktive Regelung

Größe: px
Ab Seite anzeigen:

Download "Nichtlineare modellprädiktive Regelung"

Transkript

1 Nichtlineare modellprädiktive Regelung Sabine Böhm, Miriam Kießling Mathematisches Institut Universität Bayreuth 23. und 30. Mai 2006 / Seminar MPC, Bayreuth

2 Inhalt 1. Einleitung Einsatz von NMPC Unterschied zu LMPC Problemstellung 2. Lösung durch Linearisierung Lineare Variablentransformation Verwendung von multiplen linearen Modellen

3 Inhalt 1. Einleitung Einsatz von NMPC Unterschied zu LMPC Problemstellung 2. Lösung durch Linearisierung Lineare Variablentransformation Verwendung von multiplen linearen Modellen

4 Inhalt 1. Einleitung Einsatz von NMPC Unterschied zu LMPC Problemstellung 2. Lösung durch Linearisierung Lineare Variablentransformation Verwendung von multiplen linearen Modellen

5 Inhalt 1. Einleitung Einsatz von NMPC Unterschied zu LMPC Problemstellung 2. Lösung durch Linearisierung Lineare Variablentransformation Verwendung von multiplen linearen Modellen

6 Inhalt 1. Einleitung Einsatz von NMPC Unterschied zu LMPC Problemstellung 2. Lösung durch Linearisierung Lineare Variablentransformation Verwendung von multiplen linearen Modellen

7 Inhalt 1. Einleitung Einsatz von NMPC Unterschied zu LMPC Problemstellung 2. Lösung durch Linearisierung Lineare Variablentransformation Verwendung von multiplen linearen Modellen

8 Inhalt 1. Einleitung Einsatz von NMPC Unterschied zu LMPC Problemstellung 2. Lösung durch Linearisierung Lineare Variablentransformation Verwendung von multiplen linearen Modellen

9 3. Indirekte Lösung von NMPC Anwendung des Pontryaginsches Minimumprinzip (a) Hamilton-Funktion (b) Pontryaginsches Minimumprinzip (c) Lösung des Randwertproblems,single und multiple shooting (d) Variationsrechnung als Grundlage des PMP (e) Anwendungsbeispiel

10 3. Indirekte Lösung von NMPC Anwendung des Pontryaginsches Minimumprinzip (a) Hamilton-Funktion (b) Pontryaginsches Minimumprinzip (c) Lösung des Randwertproblems,single und multiple shooting (d) Variationsrechnung als Grundlage des PMP (e) Anwendungsbeispiel

11 3. Indirekte Lösung von NMPC Anwendung des Pontryaginsches Minimumprinzip (a) Hamilton-Funktion (b) Pontryaginsches Minimumprinzip (c) Lösung des Randwertproblems,single und multiple shooting (d) Variationsrechnung als Grundlage des PMP (e) Anwendungsbeispiel

12 3. Indirekte Lösung von NMPC Anwendung des Pontryaginsches Minimumprinzip (a) Hamilton-Funktion (b) Pontryaginsches Minimumprinzip (c) Lösung des Randwertproblems,single und multiple shooting (d) Variationsrechnung als Grundlage des PMP (e) Anwendungsbeispiel

13 3. Indirekte Lösung von NMPC Anwendung des Pontryaginsches Minimumprinzip (a) Hamilton-Funktion (b) Pontryaginsches Minimumprinzip (c) Lösung des Randwertproblems,single und multiple shooting (d) Variationsrechnung als Grundlage des PMP (e) Anwendungsbeispiel

14 3. Indirekte Lösung von NMPC Anwendung des Pontryaginsches Minimumprinzip (a) Hamilton-Funktion (b) Pontryaginsches Minimumprinzip (c) Lösung des Randwertproblems,single und multiple shooting (d) Variationsrechnung als Grundlage des PMP (e) Anwendungsbeispiel

15 3. Indirekte Lösung von NMPC Anwendung des Pontryaginsches Minimumprinzip (a) Hamilton-Funktion (b) Pontryaginsches Minimumprinzip (c) Lösung des Randwertproblems,single und multiple shooting (d) Variationsrechnung als Grundlage des PMP (e) Anwendungsbeispiel

16 3. Indirekte Lösung von NMPC Dynamische Programmierung nach Bellman 4. direct multiple shooting 5. Zustandsschätzung mittels Erweitertem Kalman-Filter 6. Anwendung auf Destillationskolonne

17 3. Indirekte Lösung von NMPC Dynamische Programmierung nach Bellman 4. direct multiple shooting 5. Zustandsschätzung mittels Erweitertem Kalman-Filter 6. Anwendung auf Destillationskolonne

18 3. Indirekte Lösung von NMPC Dynamische Programmierung nach Bellman 4. direct multiple shooting 5. Zustandsschätzung mittels Erweitertem Kalman-Filter 6. Anwendung auf Destillationskolonne

19 3. Indirekte Lösung von NMPC Dynamische Programmierung nach Bellman 4. direct multiple shooting 5. Zustandsschätzung mittels Erweitertem Kalman-Filter 6. Anwendung auf Destillationskolonne

20 3. Indirekte Lösung von NMPC Dynamische Programmierung nach Bellman 4. direct multiple shooting 5. Zustandsschätzung mittels Erweitertem Kalman-Filter 6. Anwendung auf Destillationskolonne

21 1. Einleitung

22 Einleitung Meistens verwendet man Linearisierung Warum dann nichtlineare prädiktive Regelung?

23 Einleitung Linearisierung ist nicht geeignet, bei starken Nichtlinearitäten im Betriebspunkt. bei zwar lokal nur schwach Nichtlinearitäten, aber weiten Arbeitsbereich. Hier Linearisierungen zu wenig genau (wegen z.b.: strengeren Umweltgesetzen und ökonomischen Gesichtspunkten)

24 Einleitung Linearisierung ist nicht geeignet, bei starken Nichtlinearitäten im Betriebspunkt. bei zwar lokal nur schwach Nichtlinearitäten, aber weiten Arbeitsbereich. Hier Linearisierungen zu wenig genau (wegen z.b.: strengeren Umweltgesetzen und ökonomischen Gesichtspunkten)

25 Beispiele Reinst-Destillationanlagen (Beispiel am Ende) Mehrprodukt-Polymerisationsanlagen Kraftwerkanlagen mit häufigen großen Lastenwechseln

26 Beispiele Reinst-Destillationanlagen (Beispiel am Ende) Mehrprodukt-Polymerisationsanlagen Kraftwerkanlagen mit häufigen großen Lastenwechseln

27 Beispiele Reinst-Destillationanlagen (Beispiel am Ende) Mehrprodukt-Polymerisationsanlagen Kraftwerkanlagen mit häufigen großen Lastenwechseln

28 Unterschied von NMPC zu linearer MPC Größerer Aufwand bei der Entwicklung des Prozessmodells Parameteridentifikation nichtlinearer dynamischer Systeme schwieriger größerer Aufwand zur Lösung von Optimierungsproblems (nichtkonvexes Problem) Stabilität, Optimalität und Robustheit viel komplizierter

29 Unterschied von NMPC zu linearer MPC Größerer Aufwand bei der Entwicklung des Prozessmodells Parameteridentifikation nichtlinearer dynamischer Systeme schwieriger größerer Aufwand zur Lösung von Optimierungsproblems (nichtkonvexes Problem) Stabilität, Optimalität und Robustheit viel komplizierter

30 Unterschied von NMPC zu linearer MPC Größerer Aufwand bei der Entwicklung des Prozessmodells Parameteridentifikation nichtlinearer dynamischer Systeme schwieriger größerer Aufwand zur Lösung von Optimierungsproblems (nichtkonvexes Problem) Stabilität, Optimalität und Robustheit viel komplizierter

31 Unterschied von NMPC zu linearer MPC Größerer Aufwand bei der Entwicklung des Prozessmodells Parameteridentifikation nichtlinearer dynamischer Systeme schwieriger größerer Aufwand zur Lösung von Optimierungsproblems (nichtkonvexes Problem) Stabilität, Optimalität und Robustheit viel komplizierter

32 Nichtkonvexes Problem Zur Lösung des Problems muss Konvexität gelten, da bei konvexen Programmen gilt: Jeder lokale Minimierer ist ein globaler Minimierer globale Lösung Problem: nichtlineare Systeme sind im Allg. nichtkonvex

33 Nichtkonvexes Problem

34 Einleitung Problem: ẋ(t) = f (x(t), u(t)) x(0) = x 0 y(t) = h(x(t), u(t)) mit den Eingängen und Zuständen: u(t) U R m x(t) X R n

35 Einleitung Problem: ẋ(t) = f (x(t), u(t)) x(0) = x 0 y(t) = h(x(t), u(t)) mit den Eingängen und Zuständen: u(t) U R m x(t) X R n

36 Einleitung Dabei er erfüllen U und X die folgenden Annahmen: (A1) U R m ist kompakt, X R n ist zusammenhängend und (0, 0) X U (A2) Das Vektorfeld f : R n R m R n ist stetig erfüllt f (0, 0) = 0 und ist lokal Lipschitz stetig in x. (A3) x 0 X 1, X 1 X und stückweise konstante Fkt. u( ) : [0, T P ] U hat ẋ(t) eine eind. stetige Lösg.

37 Einleitung Dabei er erfüllen U und X die folgenden Annahmen: (A1) U R m ist kompakt, X R n ist zusammenhängend und (0, 0) X U (A2) Das Vektorfeld f : R n R m R n ist stetig erfüllt f (0, 0) = 0 und ist lokal Lipschitz stetig in x. (A3) x 0 X 1, X 1 X und stückweise konstante Fkt. u( ) : [0, T P ] U hat ẋ(t) eine eind. stetige Lösg.

38 Einleitung Dabei er erfüllen U und X die folgenden Annahmen: (A1) U R m ist kompakt, X R n ist zusammenhängend und (0, 0) X U (A2) Das Vektorfeld f : R n R m R n ist stetig erfüllt f (0, 0) = 0 und ist lokal Lipschitz stetig in x. (A3) x 0 X 1, X 1 X und stückweise konstante Fkt. u( ) : [0, T P ] U hat ẋ(t) eine eind. stetige Lösg.

39 Einleitung mit min J(x(t), u( ); T p) u( ) J(x(t), u( ); T p ) := t+tp t f 0 (x(τ), u(τ))dτ) + g(x(t + T p )) unter den Nebenbedingungen: ẋ(τ) = f (x(τ), u(τ)), x(t) = x t u(τ) U, τ [t, t + T p ] x(τ) X τ [t, t + T p ] x(t + T p ) E Hierbei ist E die Endregion

40 Einleitung mit min J(x(t), u( ); T p) u( ) J(x(t), u( ); T p ) := t+tp t f 0 (x(τ), u(τ))dτ) + g(x(t + T p )) unter den Nebenbedingungen: ẋ(τ) = f (x(τ), u(τ)), x(t) = x t u(τ) U, τ [t, t + T p ] x(τ) X τ [t, t + T p ] x(t + T p ) E Hierbei ist E die Endregion

41 2. Lösung durch Verwendung von LMPC

42 Linearisierung durch Variablen-Transformation

43 Beispiel Gegeben: Generelles Vorgehen: ẋ(t) = dx dt = f (x, u) (1) dx = f (x, u) = c 1 f 1 (x) + c 2 f 2 (x, u) (2) dt Dann denkt man sich eine Transformation: z = g(x) (3)

44 Variablen-Transformation 2 Varianten zur Wahl von g( ): oder dz dt dz dt = az + bv (4) = a + bv (5)

45 Variablen-Transformation Durch die Ableitung von z = g(x) erhält man: dz dt = dz dx dx dt wenn man (2) in (6) einsetzt, ergibt sich: dz dt = c 1 f 1 (x) dz dx + c 2f 2 (x, u) dz dx Nun wählt man z = g(x) so, dass gilt: dz dx = z f 1 (x) = 1 f 1 (x) und zusätzlich f 2 (x, u) dz dx = v (9) dadurch (7) ˆ=(4) (7) ˆ=(5), wobei a = c 1 und b = c 2. (6) (7) (8)

46 Variablen-Transformation Durch die Ableitung von z = g(x) erhält man: dz dt = dz dx dx dt wenn man (2) in (6) einsetzt, ergibt sich: dz dt = c 1 f 1 (x) dz dx + c 2f 2 (x, u) dz dx Nun wählt man z = g(x) so, dass gilt: dz dx = z f 1 (x) = 1 f 1 (x) und zusätzlich f 2 (x, u) dz dx = v (9) dadurch (7) ˆ=(4) (7) ˆ=(5), wobei a = c 1 und b = c 2. (6) (7) (8)

47 Variablen-Transformation Durch Umformung von (8) erhält man: dz z = dx f 1 (x) dz = dx f 1 (x) oder ln z = dx f 1 (x) = z = exp[ dx f 1 (x) ] = dx f 1 (x) Durch einsetzen von Gleichung (8) in (9) und Umformung erhält man: f 2 (x, u) = vf 1(x) = vf 1 (x) (10) z

48 Variablen-Transformation Durch Umformung von (8) erhält man: dz z = dx f 1 (x) dz = dx f 1 (x) oder ln z = dx f 1 (x) = z = exp[ dx f 1 (x) ] = dx f 1 (x) Durch einsetzen von Gleichung (8) in (9) und Umformung erhält man: f 2 (x, u) = vf 1(x) = vf 1 (x) (10) z

49 Variablen-Transformation Die Gleichung (10) löst man dann nach u auf, um u = q(x, v) zu erhalten. Das Ergebnis ist ein lineares MPC.

50 LMPC mit multiplen linearen Modellen

51 LMPC mit multiplen, linearen Modellen Arbeitsbereich in n Teilbereiche untergliedert für jeden ein lineares Modell erstellt alle Modelle werden parallel zur Vorhersage der Regelgrößen y herangezogen die Vorhersagen der einzelnen Modelle gewichtet aufsummiert gewichteter Mittelwert ŷ = n i=1 α iŷ i

52 LMPC mit multiplen, linearen Modellen Arbeitsbereich in n Teilbereiche untergliedert für jeden ein lineares Modell erstellt alle Modelle werden parallel zur Vorhersage der Regelgrößen y herangezogen die Vorhersagen der einzelnen Modelle gewichtet aufsummiert gewichteter Mittelwert ŷ = n i=1 α iŷ i

53 LMPC mit multiplen, linearen Modellen Arbeitsbereich in n Teilbereiche untergliedert für jeden ein lineares Modell erstellt alle Modelle werden parallel zur Vorhersage der Regelgrößen y herangezogen die Vorhersagen der einzelnen Modelle gewichtet aufsummiert gewichteter Mittelwert ŷ = n i=1 α iŷ i

54 LMPC mit multiplen, linearen Modellen Arbeitsbereich in n Teilbereiche untergliedert für jeden ein lineares Modell erstellt alle Modelle werden parallel zur Vorhersage der Regelgrößen y herangezogen die Vorhersagen der einzelnen Modelle gewichtet aufsummiert gewichteter Mittelwert ŷ = n i=1 α iŷ i

55 LMPC mit multiplen, linearen Modellen Arbeitsbereich in n Teilbereiche untergliedert für jeden ein lineares Modell erstellt alle Modelle werden parallel zur Vorhersage der Regelgrößen y herangezogen die Vorhersagen der einzelnen Modelle gewichtet aufsummiert gewichteter Mittelwert ŷ = n i=1 α iŷ i

56 LMPC mit multiplen, linearen Modellen Berechnung der Gewichtsfaktoren α i α i [0, 1] αi = 1 Berechnung der α i : wobei p j,k = N m=1 α j,k = p j,k N m=1 p m,k exp( 1 2 ɛt j,k K ɛ j,k)p j,k 1 exp( 1 2 ɛt m,k K ɛ m,k)p m,k 1 und K eine Konvergenzmatrix und ɛ j,k = (y ŷ i )

57 LMPC mit multiplen, linearen Modellen Berechnung der Gewichtsfaktoren α i α i [0, 1] αi = 1 Berechnung der α i : wobei p j,k = N m=1 α j,k = p j,k N m=1 p m,k exp( 1 2 ɛt j,k K ɛ j,k)p j,k 1 exp( 1 2 ɛt m,k K ɛ m,k)p m,k 1 und K eine Konvergenzmatrix und ɛ j,k = (y ŷ i )

58 LMPC mit multiplen, linearen Modellen größte Herausforderung: Bestimmung der n Teilmodelle einfachste Zerlegungsmethode: Unterteilung des gesamten Arbeitsbereichs in ein gleichmäßiges mehrdimensionales Gitter

59 LMPC mit multiplen, linearen Modellen größte Herausforderung: Bestimmung der n Teilmodelle einfachste Zerlegungsmethode: Unterteilung des gesamten Arbeitsbereichs in ein gleichmäßiges mehrdimensionales Gitter

60 LMPC mit multiplen, linearen Modellen größte Herausforderung: Bestimmung der n Teilmodelle einfachste Zerlegungsmethode: Unterteilung des gesamten Arbeitsbereichs in ein gleichmäßiges mehrdimensionales Gitter

61 LMPC mit multiplen, linearen Modellen größte Herausforderung: Bestimmung der n Teilmodelle einfachste Zerlegungsmethode: Unterteilung des gesamten Arbeitsbereichs in ein gleichmäßiges mehrdimensionales Gitter

62 LMPC mit multiplen, linearen Modellen Nachteil: riesigen Zahl von Modellen zu identifizieren Alternative: z.b. LOLIMOT-Verfahren (Local Linear Model Tree) Sukzessive Teilung des Eingangsraums

63 LMPC mit multiplen, linearen Modellen Nachteil: riesigen Zahl von Modellen zu identifizieren Alternative: z.b. LOLIMOT-Verfahren (Local Linear Model Tree) Sukzessive Teilung des Eingangsraums

64 LMPC mit multiplen, linearen Modellen Nachteil: riesigen Zahl von Modellen zu identifizieren Alternative: z.b. LOLIMOT-Verfahren (Local Linear Model Tree) Sukzessive Teilung des Eingangsraums

65 LMPC mit multiplen, linearen Modellen Nachteil: riesigen Zahl von Modellen zu identifizieren Alternative: z.b. LOLIMOT-Verfahren (Local Linear Model Tree) Sukzessive Teilung des Eingangsraums

66 LMPC mit multiplen, linearen Modellen

67 LMPC mit multiplen, linearen Modellen

68 3. Indirekte Lösung von NMPC

69 Indirekte Lösung von NMPC Anwendung des MPC - Algorithmus auf nichtlineares System Problem: Zielfunktional und Nebenbedingungen nichtlinear

70 Indirekte Lösung von NMPC Anwendung des MPC - Algorithmus auf nichtlineares System Problem: Zielfunktional und Nebenbedingungen nichtlinear

71 3.1 Verwendung des Pontryaginschen Minimumprinzip

72 Lösung von NMPC mittels PMP

73 Lösung von NMPC mittels PMP

74 Lösung von NMPC mittels PMP

75 Lösung von NMPC mittels PMP

76 Lösung von NMPC mittels PMP

77 Optimaler Steuerprozess - Bolza-Form Definition Das Problem Minimiere J(x, u) = g(x(t 0 ), x(t f )) + unter den Nebenbedingungen heißt optimaler Steuerprozess tf t 0 ẋ(t) = f (x(t), u(t), t), ψ(x(t 0 ), x(t f )) = 0, u(t) U, t [t 0, t f ], f 0 (x(t), u(t), t)dt

78 Randbedingungen Definition: Sei r N, 0 r 2n. Die Bedingung ψ(x(t 0 ), x(t f )) = 0, für Anfangs- und Endzustand mit einer (bzgl. x(t 0 ) und x(t f )) stetig differenzierbaren Funktion ψ : R n R n R r wird eine allgemeine Randbedingung genannt.

79 Optimale Lösung Definition: Ein zulässiges Funktionenpaar (x, u ) zur Endzeit t f heißt optimale Lösung des optimalen Steuerprozesses, falls J(x, u ) J(x, u) für alle zulässigen Paare (x, u) zur Endzeit t f gilt.

80 Hamiltion-Funktion und adjungierte Variable Definition: Sei λ 0 R und λ R n. Dann heißt H(x, λ, u, t) := λ 0 f 0 (x, u, t) + λ T f (x, u, t) die Hamilton-Funktion zum Steuerprozess. λ wird adjungierte Variable zu x genannt

81 Pontryaginsches Minimumprinzip Für eine optimale Lösung (x, u ) existieren eine reelle Zahl λ 0 0, eine stetig und stückweise stetig differenzierbare Funktion λ : [t 0, t f ] R n, sowie ein Vektor ρ R r, so dass gelten: 1. (λ 0, λ T (t), ρ T ) 0, t [t 0, t f ]

82 Pontryaginsches Minimumprinzip Für eine optimale Lösung (x, u ) existieren eine reelle Zahl λ 0 0, eine stetig und stückweise stetig differenzierbare Funktion λ : [t 0, t f ] R n, sowie ein Vektor ρ R r, so dass gelten: 1. (λ 0, λ T (t), ρ T ) 0, t [t 0, t f ]

83 Pontryaginsches Minimumprinzip 2. An allen Stetigkeitsstellen t von u in [t 0, t f ] gelten: Minimumbedingung: H(x (t), λ(t), u (t), t) = min u U H(x (t), λ(t), u, t), Adjungierte Differentialgleichungen: λ T = x H(x (t), λ(t), u (t), t),

84 Pontryaginsches Minimumprinzip 2. An allen Stetigkeitsstellen t von u in [t 0, t f ] gelten: Minimumbedingung: H(x (t), λ(t), u (t), t) = min u U H(x (t), λ(t), u, t), Adjungierte Differentialgleichungen: λ T = x H(x (t), λ(t), u (t), t),

85 Pontryaginsches Minimumprinzip 2. An allen Stetigkeitsstellen t von u in [t 0, t f ] gelten: Minimumbedingung: H(x (t), λ(t), u (t), t) = min u U H(x (t), λ(t), u, t), Adjungierte Differentialgleichungen: λ T = x H(x (t), λ(t), u (t), t),

86 Pontryaginsches Minimumprinzip 3. Transversalitätsbedingung: λ(t 0 ) = x(t0 )(λ 0 g(x (t 0 ), x (t f )) + ρ T ψ(x (t 0 ), x (t f ))) T, λ(t f ) = x(tf )(λ 0 g(x (t 0 ), x (t f )) + ρ T ψ(x (t 0 ), x (t f ))) T,

87 Varitationsrechnung Vereinfachung: Zielfunktional besteht nur aus bestimmtem Integral Integrand nur von x(t) und zusätzlich von ẋ(t) abhängig keine Nebenbedingungen

88 Varitationsrechnung Vereinfachung: Zielfunktional besteht nur aus bestimmtem Integral Integrand nur von x(t) und zusätzlich von ẋ(t) abhängig keine Nebenbedingungen

89 Varitationsrechnung Vereinfachung: Zielfunktional besteht nur aus bestimmtem Integral Integrand nur von x(t) und zusätzlich von ẋ(t) abhängig keine Nebenbedingungen

90 Variationsrechnung Variationsproblem: J = tf t 0 f (t, x, ẋ(t))dt Gesucht ist diejenige Funktion x = x(t), welche die Randbedingungen x(t 0 ) = x 0 und x(t f ) = x f erfüllt und J minimiert.

91 Variationsrechnung

92 Variationsrechnung Vorgehensweise von Euler: Annahme: Lösung x = x (t) sei gefunden Konstruktion einer einparametrigen Schar von Vergleichskurven x(t) = x (t) + ɛ x(t), (11) ɛ 0 < ɛ < ɛ 0 (ɛ 0 > 0), x(t) beliebige Funktion mit x(t 0 ) = 0, x(t f ) = 0

93 Variationsrechnung Vorgehensweise von Euler: Annahme: Lösung x = x (t) sei gefunden Konstruktion einer einparametrigen Schar von Vergleichskurven x(t) = x (t) + ɛ x(t), (11) ɛ 0 < ɛ < ɛ 0 (ɛ 0 > 0), x(t) beliebige Funktion mit x(t 0 ) = 0, x(t f ) = 0

94 Variationsrechnung

95 Variationsrechnung eingesetzt ins Zielfunktional: J = tf t 0 f (t, x (t) + ɛ x(t), ẋ (t) + ɛ x(t))dt = F (ɛ) optimale Lösung x (t) ist für ɛ = 0 in der Vergleichskurvenschar enthalten F (ɛ) muss für ɛ = 0 Minimum haben [ ] df = 0 dɛ ɛ=0

96 Variationsrechnung eingesetzt ins Zielfunktional: J = tf t 0 f (t, x (t) + ɛ x(t), ẋ (t) + ɛ x(t))dt = F (ɛ) optimale Lösung x (t) ist für ɛ = 0 in der Vergleichskurvenschar enthalten F (ɛ) muss für ɛ = 0 Minimum haben [ ] df = 0 dɛ ɛ=0

97 Variationsrechnung Nach Differenzieren nach ɛ, Nullsetzen von ɛ, partieller Integration: J = tf t 0 [ f x d ( )] f x(t)dt = 0 dt ẋ soll für eine bis auf die Randwerte beliebige Funktion x(t) gelten es muss gelten: t [t 0, t f ]: f x d dt ( f ẋ ) = 0. (Euler - Lagrangesche Differentialgleichung)

98 Variationsrechnung Nach Differenzieren nach ɛ, Nullsetzen von ɛ, partieller Integration: J = tf t 0 [ f x d ( )] f x(t)dt = 0 dt ẋ soll für eine bis auf die Randwerte beliebige Funktion x(t) gelten es muss gelten: t [t 0, t f ]: f x d dt ( f ẋ ) = 0. (Euler - Lagrangesche Differentialgleichung)

99 Variationsrechnung Als allgemeine Lösung ergibt sich eine zweiparametrige Kurvenschar: x = x(t, c 1, c 2 ) c 1 und c 2 sind aus den Randbedingungen zu ermitteln: x(t 0, c 1, c 2 ) = x 0, x(t f, c 1, c 2 ) = x f

100 Variationsrechnung durch Eulersche Idee, eine einparametrige Vergleichskurvenschar einzuführen, Rückführung des Variationsproblem auf ein gewöhnliches Extremalproblem PMP Weiterentwicklung der Variationsrechnung

101 Variationsrechnung durch Eulersche Idee, eine einparametrige Vergleichskurvenschar einzuführen, Rückführung des Variationsproblem auf ein gewöhnliches Extremalproblem PMP Weiterentwicklung der Variationsrechnung

102 Pontryaginsches Minimumprinzip Ergebnis des PMP: u kann in Abhängigkeit von x, λ und t aus der Minimumbedingung bestimmt und dann für jedes t in das kanonische Differentialgleichungssystem eingesetzt werden 2-Punkt-Randwertproblem für 2n gewöhnliche Differentialgleichungen. Lösung des Randwertproblems mit numerischen Verfahren

103 Pontryaginsches Minimumprinzip Ergebnis des PMP: u kann in Abhängigkeit von x, λ und t aus der Minimumbedingung bestimmt und dann für jedes t in das kanonische Differentialgleichungssystem eingesetzt werden 2-Punkt-Randwertproblem für 2n gewöhnliche Differentialgleichungen. Lösung des Randwertproblems mit numerischen Verfahren

104 Pontryaginsches Minimumprinzip Ergebnis des PMP: u kann in Abhängigkeit von x, λ und t aus der Minimumbedingung bestimmt und dann für jedes t in das kanonische Differentialgleichungssystem eingesetzt werden 2-Punkt-Randwertproblem für 2n gewöhnliche Differentialgleichungen. Lösung des Randwertproblems mit numerischen Verfahren

105 Pontryaginsches Minimumprinzip Ergebnis des PMP: u kann in Abhängigkeit von x, λ und t aus der Minimumbedingung bestimmt und dann für jedes t in das kanonische Differentialgleichungssystem eingesetzt werden 2-Punkt-Randwertproblem für 2n gewöhnliche Differentialgleichungen. Lösung des Randwertproblems mit numerischen Verfahren

106 3.2 Verfahren zur Lösung des Randwertproblems

107 Einfach - Schießverfahren

108 Einfach - Schießverfahren Randwertproblem: ψ(x(t 0 ), x(t f )) = 0. ẋ = f (x, t), (12)

109 Einfach-Schießverfahren Bestimmung eines Anfangswertes s R n für das Anfangswertproblem ẋ = f (x, t), (13) x(t 0 ) = s, so dass die Lösung x(t) = x(t; s) die Randbedingungen (12) erfüllt.

110 Einfach-Schießverfahren Das heißt: ψ(x(t 0 ; s), x(t f ; s)) ψ(s, x(t f ; s)) = 0. Es ist eine Nullstelle der Funktion F(s) := ψ(s, x(t f ; s)) zu bestimmen.

111 Einfach-Schießverfahren Das heißt: ψ(x(t 0 ; s), x(t f ; s)) ψ(s, x(t f ; s)) = 0. Es ist eine Nullstelle der Funktion F(s) := ψ(s, x(t f ; s)) zu bestimmen.

112 Nullstellenbestimmung Newtonverfahren Newtonartige Verfahren

113 Nullstellenbestimmung Newtonverfahren Newtonartige Verfahren

114 Einfach-Schießverfahren Bestimmung von x(t f ; s) durch Lösen des Anfangswertproblems (13) in jedem Iterationsschritt Differenz der durch die Anfangsschätzung bestimmten Lösung in t f, d.h. x(t f ; s), und der bekannten Endbedingungen x(t f ) wird zu Null gerechnet

115 Einfach-Schießverfahren Bestimmung von x(t f ; s) durch Lösen des Anfangswertproblems (13) in jedem Iterationsschritt Differenz der durch die Anfangsschätzung bestimmten Lösung in t f, d.h. x(t f ; s), und der bekannten Endbedingungen x(t f ) wird zu Null gerechnet

116 Einfach - Schießverfahren

117 Lösung des Anfangswertproblems Einschrittverfahren (Polygonzugverfahren von Euler, Runge-Kutta Verfahren) Mehrschrittverfahren (Adams - Bashforth, Adams - Moulton) Extrapolationsverfahren Schrittweitensteuerung

118 Lösung des Anfangswertproblems Einschrittverfahren (Polygonzugverfahren von Euler, Runge-Kutta Verfahren) Mehrschrittverfahren (Adams - Bashforth, Adams - Moulton) Extrapolationsverfahren Schrittweitensteuerung

119 Lösung des Anfangswertproblems Einschrittverfahren (Polygonzugverfahren von Euler, Runge-Kutta Verfahren) Mehrschrittverfahren (Adams - Bashforth, Adams - Moulton) Extrapolationsverfahren Schrittweitensteuerung

120 Lösung des Anfangswertproblems Einschrittverfahren (Polygonzugverfahren von Euler, Runge-Kutta Verfahren) Mehrschrittverfahren (Adams - Bashforth, Adams - Moulton) Extrapolationsverfahren Schrittweitensteuerung

121 Einfach - Schießverfahren Problem: erhebliche Ungenauigkeiten, sofern x(t) = x(t; s) sehr empfindlich von s abhängt

122 Mehrzielmethode

123 Mehrfach - Schießverfahren Unterteilung von [t 0, t f ] Anwendung des Einfachschießverfahrens auf Teilintervalle für werden die Werte t 0 = t 1 < t 2... < t M = t f s k = x(t k ), k = 1,..., M 1 der exakten Lösung x(t) des Randwertproblems (12) gleichzeitig iterativ berechnet

124 Mehrfach - Schießverfahren Unterteilung von [t 0, t f ] Anwendung des Einfachschießverfahrens auf Teilintervalle für werden die Werte t 0 = t 1 < t 2... < t M = t f s k = x(t k ), k = 1,..., M 1 der exakten Lösung x(t) des Randwertproblems (12) gleichzeitig iterativ berechnet

125 Mehrfach - Schießverfahren Unterteilung von [t 0, t f ] Anwendung des Einfachschießverfahrens auf Teilintervalle für werden die Werte t 0 = t 1 < t 2... < t M = t f s k = x(t k ), k = 1,..., M 1 der exakten Lösung x(t) des Randwertproblems (12) gleichzeitig iterativ berechnet

126 Mehrfach - Schießverfahren x(t; t k, s k ) sei Lösung des Anfangswertproblems ẋ = f (x, t), (14) x(t k ) = s k (15)

127 Mehrfach-Schießverfahren Vektoren s k, k = 1,..., M 1 sind so zu bestimmen, dass die aus den x(t; t k, s) stückweise zusammengesetzte Funktion x(t) := x(t; t k, s k ) für t [t k, t k+1 [, k = 1,..., M 1, stetig ist und die Randbedingungen ψ(x(t 0 ), x(t f )) = 0 erfüllt.

128 Mehrfach - Schießverfahren

129 Mehrfach - Schießverfahren n(m 1) Bedingungen: x(t k+1 ; t k, s k ) = s k+1, k = 1,..., M 2, (Stetigkeit) ψ(s 1, x(t M ; t M 1, s M 1)) = 0, (Randbedingungen) für die n(m 1) unbekannten Komponenten s (j) k, j = 1,..., n, k = 1,..., M 1 der s k

130 Mehrfach - Schießverfahren Gleichungssystem: F 1 (s 1, s 2 ) F 2 (s 2, s 3 ) F (s) :=. := F M 2 (s M 2, s M 1 ) F M 1 (s 1, s M 1 ) = 0 x(t 2 ; t 1, s 1 ) s 2 x(t 3 ; t 2, s 2 ) s 3. x(t M 1 ; t M 2, s M 2 ) s M 1 ψ(s 1, x(t M ; t M 1, s M 1 ))

131 Verfahren zur Nullstellenbestimmung Newton Quasi - Newton Reduzierung des Rechenaufwands durch Verwendung von Broyden - Approximationen zur Bestimmung von F(s)

132 Verfahren zur Nullstellenbestimmung Newton Quasi - Newton Reduzierung des Rechenaufwands durch Verwendung von Broyden - Approximationen zur Bestimmung von F(s)

133 Verfahren zur Nullstellenbestimmung Newton Quasi - Newton Reduzierung des Rechenaufwands durch Verwendung von Broyden - Approximationen zur Bestimmung von F(s)

134 3.3 Anwendung des Pontryaginschen Minimumprinzip

135 Anwendung des Pontryaginschen Minimumprinzips Gegeben sei das folgende Problem: unter min N 1 j=0 tj+1 t j u(t)dt ẋ(t) = e x(t) x(t)u(t) = f (x(t), u(t)) x(t 0 ) = x 0 x(t f ) = x f 0 u(t) 4 t 0... t f

136 Anwendung des Pontryaginschen Minimumprinzips Gegeben sei das folgende Problem: unter min N 1 j=0 tj+1 t j u(t)dt ẋ(t) = e x(t) x(t)u(t) = f (x(t), u(t)) x(t 0 ) = x 0 x(t f ) = x f 0 u(t) 4 t 0... t f

137 Anwendung des Pontryaginschen Minimumprinzips Gegeben sei das folgende Problem: unter min N 1 j=0 tj+1 t j u(t)dt ẋ(t) = e x(t) x(t)u(t) = f (x(t), u(t)) x(t 0 ) = x 0 x(t f ) = x f 0 u(t) 4 t 0... t f

138 Anwendung des Pontryaginschen Minimumprinzips Gegeben sei das folgende Problem: unter min N 1 j=0 tj+1 t j u(t)dt ẋ(t) = e x(t) x(t)u(t) = f (x(t), u(t)) x(t 0 ) = x 0 x(t f ) = x f 0 u(t) 4 t 0... t f

139 Anwendung des Pontryaginschen Minimumprinzips Gegeben sei das folgende Problem: unter min N 1 j=0 tj+1 t j u(t)dt ẋ(t) = e x(t) x(t)u(t) = f (x(t), u(t)) x(t 0 ) = x 0 x(t f ) = x f 0 u(t) 4 t 0... t f

140 Anwendung des Pontryaginschen Minimumprinzips Gegeben sei das folgende Problem: unter min N 1 j=0 tj+1 t j u(t)dt ẋ(t) = e x(t) x(t)u(t) = f (x(t), u(t)) x(t 0 ) = x 0 x(t f ) = x f 0 u(t) 4 t 0... t f

141 Anwendung des Pontryaginschen Minimumprinzips Gegeben sei das folgende Problem: unter min N 1 j=0 tj+1 t j u(t)dt ẋ(t) = e x(t) x(t)u(t) = f (x(t), u(t)) x(t 0 ) = x 0 x(t f ) = x f 0 u(t) 4 t 0... t f

142 Bestimmung der Hamiltonfunktion Definition Hamiltonfunktion: H(x, λ, u, t) := λ 0 f 0 (x, u, t) + λ T f (x, u, t) Es gilt: H(x, λ, u, t) = λ(t)[e x(t) x(t)u(t)] + λ 0 u(t)

143 Bestimmung der Hamiltonfunktion Definition Hamiltonfunktion: H(x, λ, u, t) := λ 0 f 0 (x, u, t) + λ T f (x, u, t) Es gilt: H(x, λ, u, t) = λ(t)[e x(t) x(t)u(t)] + λ 0 u(t)

144 Minimumbedingung Definition Minimumbedingung: H(x (t), λ(t), u (t), t) = min u U H(x (t), λ(t), u, t) min u U λ(t)ex (t) λ(t)x (t)u(t) + λ 0 u(t) = min u U λ(t)ex (t) + u(t)[λ 0 λ(t)x (t)]

145 Minimumbedingung Definition Minimumbedingung: H(x (t), λ(t), u (t), t) = min u U H(x (t), λ(t), u, t) min u U λ(t)ex (t) λ(t)x (t)u(t) + λ 0 u(t) = min u U λ(t)ex (t) + u(t)[λ 0 λ(t)x (t)]

146 Minimumbedingung min u U λ(t)ex (t) + u(t)[λ 0 λ(t)x (t)] 1. Fall: λ 0 λ(t)x (t) > 0 Minimum für u(t) = 0 2. Fall: λ 0 λ(t)x (t) < 0 Minimum für u(t) = 4 3. Fall: λ 0 λ(t)x (t) = 0 singuläre Steuerung nur noch der 3.Fall ist zu untersuchen

147 Minimumbedingung min u U λ(t)ex (t) + u(t)[λ 0 λ(t)x (t)] 1. Fall: λ 0 λ(t)x (t) > 0 Minimum für u(t) = 0 2. Fall: λ 0 λ(t)x (t) < 0 Minimum für u(t) = 4 3. Fall: λ 0 λ(t)x (t) = 0 singuläre Steuerung nur noch der 3.Fall ist zu untersuchen

148 Minimumbedingung min u U λ(t)ex (t) + u(t)[λ 0 λ(t)x (t)] 1. Fall: λ 0 λ(t)x (t) > 0 Minimum für u(t) = 0 2. Fall: λ 0 λ(t)x (t) < 0 Minimum für u(t) = 4 3. Fall: λ 0 λ(t)x (t) = 0 singuläre Steuerung nur noch der 3.Fall ist zu untersuchen

149 Minimumbedingung min u U λ(t)ex (t) + u(t)[λ 0 λ(t)x (t)] 1. Fall: λ 0 λ(t)x (t) > 0 Minimum für u(t) = 0 2. Fall: λ 0 λ(t)x (t) < 0 Minimum für u(t) = 4 3. Fall: λ 0 λ(t)x (t) = 0 singuläre Steuerung nur noch der 3.Fall ist zu untersuchen

150 Adjungierte Differentialgleichung Definition Adjungierte Differentialgleichung: λ T = x H(x (t), λ(t), u (t), t) λ(t) = x H(x, λ, u ) = λ(t)e x (t) + λ(t)u (t)

151 Adjungierte Differentialgleichung Definition Adjungierte Differentialgleichung: λ T = x H(x (t), λ(t), u (t), t) λ(t) = x H(x, λ, u ) = λ(t)e x (t) + λ(t)u (t)

152 Singuläre Steuerung σ(t) := λ 0 λ(t)x (t) = 0 auf singulärem Intervall d dt σ(t) 0 d dt σ(t) = λ(t)x (t) λ(t)ẋ (t) = [λ(t)e x (t) λ(t)u (t)]x (t) λ(t)[e x (t) x (t)u (t)] = λ(t)e x (t) [x (t) 1] = 0

153 Singuläre Steuerung σ(t) := λ 0 λ(t)x (t) = 0 auf singulärem Intervall d dt σ(t) 0 d dt σ(t) = λ(t)x (t) λ(t)ẋ (t) = [λ(t)e x (t) λ(t)u (t)]x (t) λ(t)[e x (t) x (t)u (t)] = λ(t)e x (t) [x (t) 1] = 0

154 Singuläre Steuerung σ(t) := λ 0 λ(t)x (t) = 0 auf singulärem Intervall d dt σ(t) 0 d dt σ(t) = λ(t)x (t) λ(t)ẋ (t) = [λ(t)e x (t) λ(t)u (t)]x (t) λ(t)[e x (t) x (t)u (t)] = λ(t)e x (t) [x (t) 1] = 0

155 Singuläre Steuerung Für λ 0 = 1 : auf singulärem Intervall gilt: λ 0 λ(t)x (t) = 0 λ(t)x (t) = 1 λ(t)e x (t) [x (t) 1] = 0 x (t) 1 ẋ (t) 0 0 = ẋ (t) = e x (t) x (t)u (t) = e u (t) u (t) = e

156 Singuläre Steuerung Für λ 0 = 1 : auf singulärem Intervall gilt: λ 0 λ(t)x (t) = 0 λ(t)x (t) = 1 λ(t)e x (t) [x (t) 1] = 0 x (t) 1 ẋ (t) 0 0 = ẋ (t) = e x (t) x (t)u (t) = e u (t) u (t) = e

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Entwurf robuster Regelungen

Entwurf robuster Regelungen Entwurf robuster Regelungen Kai Müller Hochschule Bremerhaven Institut für Automatisierungs- und Elektrotechnik z P v K Juni 25 76 5 OPTIMALE ZUSTANDSREGELUNG 5 Optimale Zustandsregelung Ein optimaler

Mehr

Kevin Caldwell. 18.April 2012

Kevin Caldwell. 18.April 2012 im Rahmen des Proseminars Numerische Lineare Algebra von Prof.Dr.Sven Beuchler 18.April 2012 Gliederung 1 2 3 Mathematische Beschreibung von naturwissenschaftlich-technischen Problemstellungen führt häufig

Mehr

Definition 3.1: Ein Differentialgleichungssystem 1. Ordnung

Definition 3.1: Ein Differentialgleichungssystem 1. Ordnung Kapitel 3 Dynamische Systeme Definition 31: Ein Differentialgleichungssystem 1 Ordnung = f(t, y) ; y R N ; f : R R N R N heißt namisches System auf dem Phasenraum R N Der Parameter t wird die Zeit genannt

Mehr

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz Optimale Steuerung Kevin Sieg Fachbereich für Mathematik und Statistik Universität Konstanz 14. Juli 2010 1 / 29 Aufgabenstellung 1 Aufgabenstellung Aufgabenstellung 2 Die zusammengesetzte Trapezregel

Mehr

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Wintersemester 3/4 (.3.4). (a) Für z = + i und z = 3 4i berechne man z z und z z. Die Ergebnisse sind in kartesischer Form anzugeben.

Mehr

Skalare Differentialgleichungen

Skalare Differentialgleichungen Kapitel 2 Skalare Differentialgleichungen 2.1 Skalare lineare Differentialgleichungen 2.2 Bernoulli und Riccati Differentialgleichungen 2.3 Differentialgleichungen mit getrennten Variablen 2.4 Exakte Differentialgleichungen

Mehr

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes

Mehr

Übungen zur Numerischen Mathematik 2 Sommersemester 2014. Übungsblatt 13

Übungen zur Numerischen Mathematik 2 Sommersemester 2014. Übungsblatt 13 Universität Heidelberg Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Prof. Dr. Dres. h.c. Hans Georg Bock Dr. Christian Kirches Dipl.-Phys. Simon Lenz Übungen zur Numerischen Mathematik 2 Sommersemester

Mehr

Charakteristikenmethode im Beispiel

Charakteristikenmethode im Beispiel Charakteristikenmethode im Wir betrachten die PDE in drei Variablen xu x + yu y + (x + y )u z = 0. Das charakteristische System lautet dann ẋ = x ẏ = y ż = x + y und besitzt die allgemeine Lösung x(t)

Mehr

Zusammenfassung der 8. Vorlesung

Zusammenfassung der 8. Vorlesung Zusammenfassung der 8. Vorlesung Beschreibung und und Analyse dynamischer Systeme im im Zustandsraum Steuerbarkeit eines dynamischen Systems Unterscheidung: Zustandssteuerbarkeit, Zustandserreichbarkeit

Mehr

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei

Mehr

Teil II Optimierung. Peter Buchholz 2016. Modellgestützte Analyse und Optimierung Kap. 9 Einführung Optimierung

Teil II Optimierung. Peter Buchholz 2016. Modellgestützte Analyse und Optimierung Kap. 9 Einführung Optimierung Teil II Optimierung Gliederung 9 Einführung, Klassifizierung und Grundlagen 10 Lineare Optimierung 11 Ganzzahlige und kombinatorische Optimierung 12 Dynamische Optimierung Literatur: zu 10-12: Neumann,

Mehr

PRAKTIKUM REGELUNGSTECHNIK 2

PRAKTIKUM REGELUNGSTECHNIK 2 FACHHOCHSCHULE LANDSHUT Fachbereich Elektrotechnik Prof. Dr. G. Dorn PRAKTIKUM REGELUNGSTECHNIK 2 1 Versuch 2: Übertragungsfunktion und Polvorgabe 1.1 Einleitung Die Laplace Transformation ist ein äußerst

Mehr

Mathematik 1 für Wirtschaftsinformatik

Mathematik 1 für Wirtschaftsinformatik Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration

Mehr

Optimal Control in Air Traffic Management

Optimal Control in Air Traffic Management Optimal Control in Air Traffic Management DGLR Workshop Bestimmung optimaler Trajektorien im Air Traffic Management 23.04.2013 Deutsche Flugsicherung GmbH, Langen 23.04.2013 1 Inhalt. Hintergrund und Motivation.

Mehr

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort: Tangentengleichung Wie Sie wissen, gibt die erste Ableitung einer Funktion deren Steigung an. Betrachtet man eine fest vorgegebene Stelle, gibt f ( ) also die Steigung der Kurve und somit auch die Steigung

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2013/14 Hochschule Augsburg : Gliederung 1 Aussagenlogik 2 Lineare Algebra 3 Lineare Programme 4 Folgen

Mehr

Kapitel 15: Differentialgleichungen

Kapitel 15: Differentialgleichungen FernUNI Hagen WS 00/03 Kapitel 15: Differentialgleichungen Differentialgleichungen = Gleichungen die Beziehungen zwischen einer Funktion und mindestens einer ihrer Ableitungen herstellen. Kommen bei vielen

Mehr

Extrema von Funktionen in zwei Variablen

Extrema von Funktionen in zwei Variablen Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen in zwei Variablen Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,

Mehr

2.4 Adaptive Verfahren mit Schrittweitensteuerung

2.4 Adaptive Verfahren mit Schrittweitensteuerung 0 0 0 Euler und RK4 fuer f(t,y) = t 0. Euler RK4 /N 0 0 f(t,y) =. t 0., graduiertes Gitter RK4 /N 4 Fehler bei T = 0 3 0 4 0 5 Fehler bei T = 0 5 0 0 0 6 0 7 0 0 0 0 2 0 3 0 4 0 5 Anzahl Schritte N 0 5

Mehr

Stabilität mittels Ljapunov Funktion

Stabilität mittels Ljapunov Funktion Stabilität mittels Ljapunov Funktion Definition Eine C 1 Funktion V : D R, D R, heißt eine Ljapunov Funktion auf K r (0) D für f(y), falls gilt: 1) V(0) = 0, V(y) > 0 für y 0 2) V,f(y) 0 ( y, y r) Gilt

Mehr

Exkurs: Dynamische Optimierung

Exkurs: Dynamische Optimierung Exkurs: Dynamische Optimierung Kapitel 4 Literatur Optimierung Mathematical Methods and Models for Economists, Angel de la Fuente, Cambridge University Press Bibliothekssignatur: QH 000FUE Seite 549 580

Mehr

Bestimmen Sie die Lösung des Anfangswertproblems. y (x) 4y (x) 5y(x) = 6e x. y(0) = y (0) = 0.

Bestimmen Sie die Lösung des Anfangswertproblems. y (x) 4y (x) 5y(x) = 6e x. y(0) = y (0) = 0. Aufgabe Bestimmen Sie die Lösung des Anfangswertproblems y (x) 4y (x) 5y(x) = 6e x y(0) = y (0) = 0. Zunächst bestimmen wir die Lösung der homogenen DGL. Das charakteristische Polynom der DGL ist λ 2 4λ

Mehr

17. Penalty- und Barriere-Methoden

17. Penalty- und Barriere-Methoden H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den

Mehr

Mathematik I Internationales Wirtschaftsingenieurwesen

Mathematik I Internationales Wirtschaftsingenieurwesen Mathematik I Internationales Wirtschaftsingenieurwesen Integralrechnung 03.12.08 Das unbestimmte Integral/Stammfunktion Das bestimmte Integral/Flächenberechnung Integral als Umkehrung der Ableitung Idee:

Mehr

Dierentialgleichungen 2. Ordnung

Dierentialgleichungen 2. Ordnung Dierentialgleichungen 2. Ordnung haben die allgemeine Form x = F (x, x, t. Wir beschränken uns hier auf zwei Spezialfälle, in denen sich eine Lösung analytisch bestimmen lässt: 1. reduzible Dierentialgleichungen:

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 4

Technische Universität München Zentrum Mathematik. Übungsblatt 4 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 4 Hausaufgaben Aufgabe 4. Gegeben sei die Funktion f : D R mit f(x) :=

Mehr

Nichtlineare Optimierungsprobleme mit Komplexität

Nichtlineare Optimierungsprobleme mit Komplexität Definition eines Nichtlinearen Optimierungsproblemes (NLP) min f (x) bzw. min f (x) s.d. x S x S wobei die zulässige Menge S R n typischerweise definiert ist durch S {x R n : h(x) =, c(x) } für Gleichungs-

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

2 3 x3 17. x k dx = x k x k+1 k +1. Mit jeder weiteren partiellen Integration reduziert sich der Grad des Faktors x n, induktiv erhalten wir also

2 3 x3 17. x k dx = x k x k+1 k +1. Mit jeder weiteren partiellen Integration reduziert sich der Grad des Faktors x n, induktiv erhalten wir also Universität Konstanz Fachbereich Mathematik und Statistik Repetitorium Analysis 0 Dr DK Huynh Blatt 8 Aufgabe 6 Bestimmen Sie (a) (x + x 7x+)dx (c) (f) x n exp(x)dx (n N fest) sin (x)dx (g) (b) (d) ln(x)dx

Mehr

Vorkurs Mathematik Übungen zu Differentialgleichungen

Vorkurs Mathematik Übungen zu Differentialgleichungen Vorkurs Mathematik Übungen zu Differentialgleichungen Als bekannt setzen wir die folgenden Umformungen voraus: e ln(f(x)) = f(x) e f(x)+c = e f(x) e c e ln(f(x)) +c = f(x) e c = f(x) c f ( g(x) ) g (x)

Mehr

Numerische Ableitung

Numerische Ableitung Numerische Ableitung Die Ableitung kann angenähert werden durch den Differentenquotient: f (x) f(x + h) f(x) h oder f(x + h) f(x h) 2h für h > 0, aber h 0. Beim numerischen Rechnen ist folgendes zu beachten:

Mehr

Entladen und Aufladen eines Kondensators über einen ohmschen Widerstand

Entladen und Aufladen eines Kondensators über einen ohmschen Widerstand Entladen und Aufladen eines Kondensators über einen ohmschen Widerstand Vorüberlegung In einem seriellen Stromkreis addieren sich die Teilspannungen zur Gesamtspannung Bei einer Gesamtspannung U ges, der

Mehr

Differentialgleichungen

Differentialgleichungen Kapitel Differentialgleichungen Josef Leydold Mathematik für VW WS 05/6 Differentialgleichungen / Ein einfaches Modell (Domar) Im Domar Wachstumsmodell treffen wir die folgenden Annahmen: () Erhöhung der

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

Modulabschlussklausur Analysis II

Modulabschlussklausur Analysis II Modulabschlussklausur Analysis II. Juli 015 Bearbeitungszeit: 150 min Aufgabe 1 [5/10 Punkte] Es sei a R und f a : R 3 R mit f a (x, y, z) = x cos(y) + z 3 sin(y) + a 3 + (z + ay a y) cos(x) a) Bestimmen

Mehr

a n := ( 1) n 3n2 + 5 2n 2. a n := 5n4 + 2n 2 2n 3 + 3 10n + 1. a n := 1 3 + 1 2n 5n 2 n 2 + 7n + 8 b n := ( 1) n

a n := ( 1) n 3n2 + 5 2n 2. a n := 5n4 + 2n 2 2n 3 + 3 10n + 1. a n := 1 3 + 1 2n 5n 2 n 2 + 7n + 8 b n := ( 1) n Folgen und Reihen. Beweisen Sie die Beschränktheit der Folge (a n ) n N mit 2. Berechnen Sie den Grenzwert der Folge (a n ) n N mit a n := ( ) n 3n2 + 5 2n 2. a n := 5n4 + 2n 2 2n 3 + 3 n +. 4 3. Untersuchen

Mehr

Rekonfigurierbare Regelung der Stuttgart SmartShell

Rekonfigurierbare Regelung der Stuttgart SmartShell Rekonfigurierbare Regelung der Stuttgart SmartShell Michael Heidingsfeld Institut für Systemdynamik, Universität Stuttgart 9. Elgersburg Workshop (2.-6. März 2014) Institut für Systemdynamik Stuttgart

Mehr

Gewöhnliche Dierentialgleichungen

Gewöhnliche Dierentialgleichungen Gewöhnliche Dierentialgleichungen sind Gleichungen, die eine Funktion mit ihren Ableitungen verknüpfen. Denition Eine explizite Dierentialgleichung (DGL) nter Ordnung für die reelle Funktion t x(t) hat

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra

Mehr

4. Dynamische Optimierung

4. Dynamische Optimierung 4. Dynamische Optimierung Allgemeine Form dynamischer Optimierungsprobleme 4. Dynamische Optimierung Die dynamische Optimierung (DO) betrachtet Entscheidungsprobleme als eine Folge voneinander abhängiger

Mehr

J. Dankert Mathematik

J. Dankert Mathematik Aufgabe 10.1 Man zeige, daß die erste Ableitung der Funktion y = a x 2 + b x + c für einen beliebigen Punkt x i durch die zentrale Differenzenformel exakt wiedergegeben wird. Aufgabe 10.2 Man stelle für

Mehr

Computer Vision: Optische Flüsse

Computer Vision: Optische Flüsse Computer Vision: Optische Flüsse D. Schlesinger TUD/INF/KI/IS Bewegungsanalyse Optischer Fluss Lokale Verfahren (Lukas-Kanade) Globale Verfahren (Horn-Schunck) (+ kontinuierliche Ansätze: mathematische

Mehr

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung. Lineare Gleichungen mit einer Unbekannten Die Grundform der linearen Gleichung mit einer Unbekannten x lautet A x = a Dabei sind A, a reelle Zahlen. Die Gleichung lösen heißt, alle reellen Zahlen anzugeben,

Mehr

Lösung des Hedging-Problems mittels Stochastischer Dynamischer Optimierung

Lösung des Hedging-Problems mittels Stochastischer Dynamischer Optimierung Lösung des Hedging-Problems mittels Stochastischer Dynamischer Optimierung Ausarbeitung zum Vortrag im Seminar Stochastische Dynamische Optimierung vom 18.01.2008 Datum : 18.01.2008 Verfasser: Martin Schymalla

Mehr

4 Runge-Kutta-Verfahren

4 Runge-Kutta-Verfahren Numerik gewöhnlicher Differentialgleichungen 43 4 Runge-Kutta-Verfahren 4. Konstruktion Ausgangspunkt wie immer (Substitution: s = t + τh, 0 τ ) y(t + h) = y(t) + [y(t + h) y(t)] = y(t) + = y(t) + h 0

Mehr

Finite Differenzen und Elemente

Finite Differenzen und Elemente Dietrich Marsal Finite Differenzen und Elemente Numerische Lösung von Variationsproblemen und partiellen Differentialgleichungen Mit 64 Abbildungen Springer-Verlag Berlin Heidelberg NewYork London Paris

Mehr

Analysis. mit dem Computer-Algebra-System des TI-92. Anhang 2: Gedanken zum Lehrplan. Beat Eicke und Edmund Holzherr 11.

Analysis. mit dem Computer-Algebra-System des TI-92. Anhang 2: Gedanken zum Lehrplan. Beat Eicke und Edmund Holzherr 11. ETH EIDGENÖSSISCHE TECHNISCHE HOCHSCHULE ZÜRICH Analysis mit dem Computer-Algebra-System des TI-92 Anhang 2: Gedanken zum Lehrplan Beat Eicke und Edmund Holzherr 11. November 1997 Eidgenössische Technische

Mehr

Schnelle Optimierungs-Algorithmen für die Nichtlineare Prädiktive Regelung

Schnelle Optimierungs-Algorithmen für die Nichtlineare Prädiktive Regelung Schnelle Optimierungs-Algorithmen für die Nichtlineare Prädiktive Regelung M. Diehl, H. G. Bock, P. Kühl, J.P. Schlöder Interdisziplinäres Zentrum für wissenschaftliches Rechnen Universität Heidelberg

Mehr

Transformation und Darstellung funktionaler Daten

Transformation und Darstellung funktionaler Daten Transformation und Darstellung funktionaler Daten Seminar - Statistik funktionaler Daten Jakob Bossek Fakultät für Statistik 7. Mai 2012 Übersicht Einleitung Einordnung im Seminar Motivation am Beispiel

Mehr

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum

Mehr

Serie 13: Online Test

Serie 13: Online Test D-ERDW, D-HEST, D-USYS Mathematik I HS 3 Dr. Ana Cannas Serie 3: Online Test Einsendeschluss: 3. Januar 4 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung verwenden.

Mehr

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z R Es sei f : R n D R eine einmal stetig differenzierbare Funktion, für die in einer Umgebung eines Punkte a = a 1, a,, a n D gilt: fa 1, a,, a n = 0, f xn a 1, a,, a n 0 Dann gibt es eines Umgebung U des

Mehr

Einführung in die Robotik Regelung. Mohamed Oubbati Institut für Neuroinformatik. Tel.: (+49) 731 / 50 24153 mohamed.oubbati@uni-ulm.de 04. 12.

Einführung in die Robotik Regelung. Mohamed Oubbati Institut für Neuroinformatik. Tel.: (+49) 731 / 50 24153 mohamed.oubbati@uni-ulm.de 04. 12. Einführung in die Robotik Regelung Mohamed Oubbati Institut für Neuroinformatik Tel.: (+49) 731 / 50 24153 mohamed.oubbati@uni-ulm.de 04. 12. 2012 The human is perhaps the most intelligent control system

Mehr

Lösung zu den Testaufgaben zur Mathematik für Chemiker II (Analysis)

Lösung zu den Testaufgaben zur Mathematik für Chemiker II (Analysis) Universität D U I S B U R G E S S E N Campus Essen, Mathematik PD Dr. L. Strüngmann Informationen zur Veranstaltung unter: http://www.uni-due.de/algebra-logic/struengmann.shtml SS 7 Lösung zu den Testaufgaben

Mehr

34 5. FINANZMATHEMATIK

34 5. FINANZMATHEMATIK 34 5. FINANZMATHEMATIK 5. Finanzmathematik 5.1. Ein einführendes Beispiel Betrachten wir eine ganz einfache Situation. Wir haben einen Markt, wo es nur erlaubt ist, heute und in einem Monat zu handeln.

Mehr

Institut für Leistungselektronik und Elektrische Antriebe. Übungen Regelungstechnik 2

Institut für Leistungselektronik und Elektrische Antriebe. Übungen Regelungstechnik 2 Institut für Leistungselektronik und Elektrische Antriebe Prof. Dr.-Ing. J. Roth-Stielow Übungen Regelungstechnik 2 Inhalt der Übungen: 1. Grundlagen (Wiederholung RT1) 2. Störgrößenaufschaltung 3. Störgrößennachbildung

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

3 Nichtlineare Gleichungssysteme

3 Nichtlineare Gleichungssysteme 3 Nichtlineare Gleichungsssteme 3.1 Eine Gleichung in einer Unbekannten Problemstellung: Gegeben sei die stetige Funktion f(). Gesucht ist die Lösung der Gleichung f() = 0. f() f() a) f ( ) 0 b) f ( )

Mehr

FB IV Mathematik Universität Trier. Präsentation von Nadja Wecker

FB IV Mathematik Universität Trier. Präsentation von Nadja Wecker FB IV Mathematik Universität Trier Präsentation von Nadja Wecker 1) Einführung Beispiele 2) Mathematische Darstellung 3) Numerischer Fluss für Diffusionsgleichung 4) Konvergenz 5) CFL-Bedingung 6) Zusammenfassung

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Physiker II, SS Mittwoch 8.6 $Id: jordan.tex,v.6 /6/7 8:5:3 hk Exp hk $ 5 Eigenwerte und die Jordansche Normalform 5.4 Die Jordansche Normalform Wir hatten bereits erwähnt, dass eine n n

Mehr

Analytische Methoden und die Black-Scholes Modelle

Analytische Methoden und die Black-Scholes Modelle Analytische Methoden und die Black-Scholes Modelle Diplomverteidigung Universität Rostock Institut für Mathematik 20.01.2011 Agenda 1 Das Ornstein-Uhlenbeck Volatilitätsmodell 2 in L 2 (R 2 ) 3 4 Problem

Mehr

Digitale Regelung. Vorlesung: Seminarübungen: Dozent: Professor Ferdinand Svaricek Ort: 33/2211 Zeit:Di 15.00 16.30 Uhr

Digitale Regelung. Vorlesung: Seminarübungen: Dozent: Professor Ferdinand Svaricek Ort: 33/2211 Zeit:Di 15.00 16.30 Uhr Vorlesung: Dozent: Professor Ferdinand Svaricek Ort: 33/2211 Zeit:Di 15.00 16.30 Uhr Seminarübungen: Dozent: Alexander Weber Ort: 33/1101 Zeit: Mo 9.45 11.15 Uhr (Beginn: 20.04.2015) Vorlesungsskript:

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

DIFFERENTIALGLEICHUNGEN

DIFFERENTIALGLEICHUNGEN DIFFERENTIALGLEICHUNGEN GRUNDBEGRIFFE Differentialgleichung Eine Gleichung, in der Ableitungen einer unbekannten Funktion y = y(x) bis zur n-ten Ordnung auftreten, heisst gewöhnliche Differentialgleichung

Mehr

Wir unterscheiden folgende drei Schritte im Design paralleler Algorithmen:

Wir unterscheiden folgende drei Schritte im Design paralleler Algorithmen: 1 Parallele Algorithmen Grundlagen Parallele Algorithmen Grundlagen Wir unterscheiden folgende drei Schritte im Design paralleler Algorithmen: Dekomposition eines Problems in unabhängige Teilaufgaben.

Mehr

(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren

(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren Aufgabe Gegeben seien die Punkte A(,,, B(,,, C(,,. (a Geben Sie die Hesse-Normalform der Ebene E, welche die drei Punkte A, B und C enthält, an. (b Bestimmen Sie den Abstand des Punktes P (,, 5 zur Ebene

Mehr

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz Mathematik für Bioinformatik und Systembiologie - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz WS 2009/10 Universität Freiburg Dieses Vorlesungsskript ist auf der Basis von Vorlesungen

Mehr

3. Grundlagen der Linearen Programmierung

3. Grundlagen der Linearen Programmierung 3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations

Mehr

Beispiel 11.2. Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) =

Beispiel 11.2. Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) = Funktionentheorie, Woche Funktionen und Polstellen. Meromorphe Funktionen Definition.. Sei U C offen und sei f : U gilt, nennt man f meromorph auf U: Ĉ eine Funktion. Wenn folgendes. P := f hat keine Häufungspunkte;.

Mehr

Lösungsmethoden gewöhnlicher Differentialgleichungen (Dgl.)

Lösungsmethoden gewöhnlicher Differentialgleichungen (Dgl.) Lösungsmethoden gewöhnlicher Dierentialgleichungen Dgl) Allgemeine und partikuläre Lösung einer gewöhnlichen Dierentialgleichung Eine Dierentialgleichung ist eine Gleichung! Zum Unterschied von den gewöhnlichen

Mehr

MPC Schemata mit variablem Kontrollhorizont

MPC Schemata mit variablem Kontrollhorizont MPC Schemata mit variablem Kontrollhorizont Diplomarbeit von Harald Voit FAKULTÄT FÜR MATHEMATIK UND PHYSIK MATHEMATISCHES INSTITUT Datum: 21. Januar 2008 Aufgabenstellung: Prof. Dr. L. Grüne 2 Inhaltsverzeichnis

Mehr

8. Übung zur Vorlesung Mathematisches Modellieren Lösung

8. Übung zur Vorlesung Mathematisches Modellieren Lösung Universität Duisburg-Essen Essen, den.6. Fakultät für Mathematik S. Bauer C. Hubacsek C. Thiel 8. Übung zur Vorlesung Mathematisches Modellieren Lösung In dieser Übung sollen in Aufgabe und die qualitativ

Mehr

2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht

2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht 2.5.2 Selbstorganisierte Karten: das Modell von Kohonen Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht zwischen den einzelnen Neuronen gibt, spielt deren räumliche Anordnung keine

Mehr

Anwendung der Theorie von Gauß Shift Experimenten auf den Kolmogorov Smirnov Test und das einseitige Boundary Crossing Problem

Anwendung der Theorie von Gauß Shift Experimenten auf den Kolmogorov Smirnov Test und das einseitige Boundary Crossing Problem Anwendung der Theorie von Gauß Shift Experimenten auf den Kolmogorov Smirnov Test und das einseitige Boundary Crossing Problem Inauguraldissertation zur Erlangung des Doktorgrades der Mathematisch Naturwissenschaftlichen

Mehr

Optimierung. Florian Jarre Josef Stoer. Springer

Optimierung. Florian Jarre Josef Stoer. Springer 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Florian Jarre Josef Stoer Optimierung Springer Inhaltsverzeichnis

Mehr

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Prof. Dr. Volker Schulz Universität Trier / FB IV / Abt. Mathematik 8. November 2010 http://www.mathematik.uni-trier.de/ schulz/elan-ws1011.html

Mehr

1 Lineare Gleichungssysteme

1 Lineare Gleichungssysteme MLAN1 1 LINEARE GLEICHUNGSSYSTEME 1 Literatur: K Nipp/D Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4 Auflage, 1998, oder neuer 1 Lineare Gleichungssysteme Zu den grundlegenden

Mehr

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt Methoden und Techniken an Beispielen erklärt Georg Anegg 5. November 009 Beispiel. Die Folge {a n } sei wie folgt definiert (a, d, q R, q ): a 0 a, a n+ a n q + d (n 0) Man bestimme eine explizite Darstellung

Mehr

Weiterbildungskurs Stochastik

Weiterbildungskurs Stochastik Hansruedi Künsch Seminar für Statistik Departement Mathematik, ETH Zürich 24. Juni 2009 Inhalt STATISTIK DER BINOMIALVERTEILUNG 1 STATISTIK DER BINOMIALVERTEILUNG 2 Fragestellungen Typische Fragestellungen

Mehr

Übungsklausur. Bitte wählen Sie fünf Aufgaben aus! Aufgabe 1. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr.

Übungsklausur. Bitte wählen Sie fünf Aufgaben aus! Aufgabe 1. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr. Gert Zöller Übungsklausur Hilfsmittel: Taschenrechner, Formblatt mit Formeln. Lösungswege sind stets anzugeben. Die alleinige Angabe eines

Mehr

Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005. Paradigmen im Algorithmenentwurf

Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005. Paradigmen im Algorithmenentwurf Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005 Paradigmen im Algorithmenentwurf Problemlösen Problem definieren Algorithmus entwerfen

Mehr

Die Black-Scholes-Gleichung

Die Black-Scholes-Gleichung Die Black-Scholes-Gleichung Franziska Merk 22.06.2012 Outline Optionen 1 Optionen 2 3 Optionen Eine Kaufoption ist ein Recht, eine Aktie zu einem heute (t=0) festgelegten Preis E an einem zukünftigen Zeitpunkt

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

(1) Problemstellung. (2) Kalman Filter

(1) Problemstellung. (2) Kalman Filter Inhaltsverzeichnis (1) Problemstellung...2 (2) Kalman Filter...2 Funktionsweise... 2 Gleichungen im mehrdimensionalen Fall...3 Schätzung des Systemzustands...3 Vermuteter Schätzfehler... 3 Aktualisierung

Mehr

6.3 Exakte Differentialgleichungen

6.3 Exakte Differentialgleichungen 6.3. EXAKTE DIFFERENTIALGLEICHUNGEN 23 6.3 Exakte Differentialgleichungen Andere Bezeichnungen: Pfaffsche Dgl., Dgl. für Kurvenscharen, Nullinien Pfaffscher Formen. 1. Definitionen Pfaffsche Dgl, Dgl.

Mehr

(Lineare) stochastische Optimierung

(Lineare) stochastische Optimierung (Lineare) stochastische Optimierung Bsp: Aus zwei Sorten Rohöl wird Benzin und Heizöl erzeugt. Die Produktivität sowie der Mindestbedarf (pro Woche) und die Kosten sind in folgender Tabelle angegeben:

Mehr

Black Jack - Kartenzählen

Black Jack - Kartenzählen Black Jack - Kartenzählen Michael Gabler 24.01.2012 Literatur: N. Richard Werthamer: Risk and Reward - The Science of Casino Blackjack, Springer Black Jack - Kartenzählen 1 Wie zähle ich Karten? Historisches

Mehr

Dr. Jürgen Roth. Fachbereich 6: Abteilung Didaktik der Mathematik. Elemente der Algebra. Dr. Jürgen Roth 3.1

Dr. Jürgen Roth. Fachbereich 6: Abteilung Didaktik der Mathematik. Elemente der Algebra. Dr. Jürgen Roth 3.1 .1 Dr. Jürgen Roth Fachbereich 6: Abteilung Didaktik der Mathematik Elemente der Algebra . Inhaltsverzeichnis Elemente der Algebra & Argumentationsgrundlagen, Gleichungen und Gleichungssysteme Quadratische

Mehr

2004, x 0 (e 2x + x) x 1, x > 0. Untersuchen Sie die Funktion auf Stetigkeit an der Stelle x 0 = 0!

2004, x 0 (e 2x + x) x 1, x > 0. Untersuchen Sie die Funktion auf Stetigkeit an der Stelle x 0 = 0! Klausur 25.02.2004 Aufgabe 5 Gegeben ist die Funktion f(x) = 2004, x 0 (e 2x + x) x 1, x > 0. Untersuchen Sie die Funktion auf Stetigkeit an der Stelle x 0 = 0! Klausur 06.08.2003 Aufgabe 5 Gegeben ist

Mehr

2.12 Potenzreihen. 1. Definitionen. 2. Berechnung 2.12. POTENZREIHEN 207. Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen.

2.12 Potenzreihen. 1. Definitionen. 2. Berechnung 2.12. POTENZREIHEN 207. Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen. 2.2. POTENZREIHEN 207 2.2 Potenzreihen. Definitionen Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen. Eine Potenzreihe mit Entwicklungspunkt x 0 ist eine Reihe a n x x 0 n. Es gilt: es

Mehr

ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS

ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS Aufgabe 1. a) Gegeben sei die Gleichung 2x 2 4xy +y 2 3x+4y = 0. Verifizieren Sie, dass diese Gleichung

Mehr

Die Taylorreihe einer Funktion

Die Taylorreihe einer Funktion Kapitel 6 Die Taylorreihe einer Funktion Dieser Abschnitt beschäftigt sich mit Taylorreihen, Taylorpolynomen und der Restgliedabschätzung für Taylorpolynome. Die Taylorreihe einer reellen Funktion ist

Mehr

Kybernetik Intelligent Agents- Action Selection

Kybernetik Intelligent Agents- Action Selection Kybernetik Intelligent Agents- Action Selection Mohamed Oubbati Institut für Neuroinformatik Tel.: (+49) 731 / 50 24153 mohamed.oubbati@uni-ulm.de 26. 06. 2012 Intelligent Agents Intelligent Agents Environment

Mehr