Optimierung für Nichtmathematiker

Größe: px
Ab Seite anzeigen:

Download "Optimierung für Nichtmathematiker"

Transkript

1 Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1

2 Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren in der freien Optimierung 7Line-Search-Verfahren 8Gradienten-Verfahren und Skalierung 9Quasi-Newton-Verfahren 10Trust-Region-Verfahren 11Das Verfahren der konjugierten Gradienten 12Inexakte Newton-Verfahren 13Nichtlineare kleinste Quadrate 14Gauss-Newton-Verfahren 15Numerisches Differenzieren Vorlesung 6 II Freie Optimierung 2 / 29

3 Nichtlineare kleinste Quadrate Typisches Problem für Parameteridentifikation (optimale Parameterwahl): Minimiere eine Zielfunktion f der speziellen Gestalt f (x) = 1 2 m j=1 mit r j : R n R glatte Funktionen. r 2 j (x) = 1 2 r(x) 2 Dies ist ein nichtlineares Kleinste-Quadrate-Problem. Vorlesung 6 II Freie Optimierung 3 / 29

4 Nichtlineare kleinste Quadrate Beispiel: An m Messpunkten t j werden Werte ỹ j R mit unabhängigen, (0, σ 2 )-normalverteilten Messfehlern gemessen. Für die korrekten Messwerte y j wird vermutet, dass sie sich für einen geeignet gewählten Parameter x R n als Funktion y j = Φ(t j ; x) der Messpunkte darstellen lassen. Bestimme den richtigen Parameter x R n. Vorlesung 6 II Freie Optimierung 4 / 29

5 Nichtlineare kleinste Quadrate Beispiel: An m Messpunkten t j werden Werte ỹ j R mit unabhängigen, (0, σ 2 )-normalverteilten Messfehlern gemessen. Für die korrekten Messwerte y j wird vermutet, dass sie sich für einen geeignet gewählten Parameter x R n als Funktion y j = Φ(t j ; x) der Messpunkte darstellen lassen. Bestimme den richtigen Parameter x R n. Hat ein Messfehler von ε R die Wahrscheinlichkeit ϕ(ε) = 1 ε2 e 2σ 2 2πσ, 2 würden für korrekte Parameter x die Messwerte ỹ mit Wahrscheinlichkeit m ( 1 )m ( 2 p(ỹ; x, t) := ϕ(ỹ j Φ(t j ; x)) = 2πσ 2 exp 1 m 2σ 2 [ỹ j Φ(t j ; x)] 2) auftreten. j=1 j=1 Vorlesung 6 II Freie Optimierung 5 / 29

6 Nichtlineare kleinste Quadrate Beispiel: An m Messpunkten t j werden Werte ỹ j R mit unabhängigen, (0, σ 2 )-normalverteilten Messfehlern gemessen. Für die korrekten Messwerte y j wird vermutet, dass sie sich für einen geeignet gewählten Parameter x R n als Funktion y j = Φ(t j ; x) der Messpunkte darstellen lassen. Bestimme den richtigen Parameter x R n. Hat ein Messfehler von ε R die Wahrscheinlichkeit ϕ(ε) = 1 ε2 e 2σ 2 2πσ, 2 würden für korrekte Parameter x die Messwerte ỹ mit Wahrscheinlichkeit m ( 1 )m ( 2 p(ỹ; x, t) := ϕ(ỹ j Φ(t j ; x)) = 2πσ 2 exp 1 m 2σ 2 [ỹ j Φ(t j ; x)] 2) j=1 auftreten. Betrachtet man p(ỹ; x, t) als Likelihood-Funktion dafür, dass x die korrekten Parameter sind, ist die beste Parameterwahl für ỹ und t in diesem Sinn ein Maximum-Likelihood-Schätzer x Argmax x p(ỹ; x, t). j=1 Vorlesung 6 II Freie Optimierung 6 / 29

7 Nichtlineare kleinste Quadrate Beispiel: An m Messpunkten t j werden Werte ỹ j R mit unabhängigen, (0, σ 2 )-normalverteilten Messfehlern gemessen. Für die korrekten Messwerte y j wird vermutet, dass sie sich für einen geeignet gewählten Parameter x R n als Funktion y j = Φ(t j ; x) der Messpunkte darstellen lassen. Bestimme den richtigen Parameter x R n. Hat ein Messfehler von ε R die Wahrscheinlichkeit ϕ(ε) = 1 ε2 e 2σ 2 2πσ, 2 würden für korrekte Parameter x die Messwerte ỹ mit Wahrscheinlichkeit m ( 1 )m ( 2 p(ỹ; x, t) := ϕ(ỹ j Φ(t j ; x)) = 2πσ 2 exp 1 m 2σ 2 [ỹ j Φ(t j ; x)] 2) j=1 auftreten. Betrachtet man p(ỹ; x, t) als Likelihood-Funktion dafür, dass x die korrekten Parameter sind, ist die beste Parameterwahl für ỹ und t in diesem Sinn ein Maximum-Likelihood-Schätzer x Argmax x p(ỹ; x, t). min f (x) := 1 2 m j=1 j=1 r 2 j (x) mit r j (x) := ỹ j Φ(t j ; x). Vorlesung 6 II Freie Optimierung 7 / 29

8 Spezialfall: Lineare kleinste Quadrate Sind alle r j linear/affin, also r j (x) = a j x b j : min x f (x) = 1 2 m r j (x) 2 = 1 2 Ax b 2 mit A R m n. j=1 Vorlesung 6 II Freie Optimierung 8 / 29

9 Spezialfall: Lineare kleinste Quadrate Sind alle r j linear/affin, also r j (x) = a j x b j : min x f (x) = 1 2 m r j (x) 2 = 1 2 Ax b 2 mit A R m n. j=1 Wegen 1 2 Ax b 2 = 1 2 (Ax b)t (Ax b) = 1 2 x T A T Ax x T A T b bt b und A T A 0, ist das Problem konvex quadratisch, und f (x) = 0 ist notwendige und hinreichende Optimalitätsbedingung. x ist Optimallösung x erfüllt die Normalgleichungen A T Ax = A T b. Vorlesung 6 II Freie Optimierung 9 / 29

10 Spezialfall: Lineare kleinste Quadrate Sind alle r j linear/affin, also r j (x) = a j x b j : min x f (x) = 1 2 m r j (x) 2 = 1 2 Ax b 2 mit A R m n. j=1 Wegen 1 2 Ax b 2 = 1 2 (Ax b)t (Ax b) = 1 2 x T A T Ax x T A T b bt b und A T A 0, ist das Problem konvex quadratisch, und f (x) = 0 ist notwendige und hinreichende Optimalitätsbedingung. x ist Optimallösung x erfüllt die Normalgleichungen A T Ax = A T b. Da A T A 0, bieten sich viele numerische Verfahren zur Lösung an: Cholesky-Faktorisierung von A T A (mit Pivotisieren), QR-Faktorisierung von A (recht stabil, wird aber dicht besetzt), SVD-Dekomposition (am stabilsten und teuersten) Präkonditionierte CG-Verfahren (PCG) (für Näherungslösung im large scale-bereich, falls Av und A T w billig) Vorlesung 6 II Freie Optimierung 10 / 29

11 Einschub: Jacobimatrix Für eine Funktion g : R n R m mit g(x) = (g 1 (x),..., g m (x)) T ist J g (x) = g 1 g 1 x 1 (x)... x n (x)..... g m g x 1 (x)... m x n (x) die Jacobimatrix von g(x) im Punkt x. = g 1 (x) T. g m (x) T Vorlesung 6 II Freie Optimierung 11 / 29

12 Einschub: Jacobimatrix Für eine Funktion g : R n R m mit g(x) = (g 1 (x),..., g m (x)) T ist J g (x) = g 1 g 1 x 1 (x)... x n (x)..... g m g x 1 (x)... m x n (x) = g 1 (x) T. g m (x) T die Jacobimatrix von g(x) im Punkt x. So ist z.b. 2 f (x) = J f (x). Vorlesung 6 II Freie Optimierung 12 / 29

13 Einschub: Jacobimatrix Für eine Funktion g : R n R m mit g(x) = (g 1 (x),..., g m (x)) T ist J g (x) = g 1 g 1 x 1 (x)... x n (x)..... g m g x 1 (x)... m x n (x) = g 1 (x) T. g m (x) T die Jacobimatrix von g(x) im Punkt x. So ist z.b. 2 f (x) = J f (x). g(x + h) = g(x) + J g (x)h + o(h) ist das lineare Modell von g im Punkt x. Vorlesung 6 II Freie Optimierung 13 / 29

14 Nichtlineare kleinste Quadrate mit kleinen Residuen min x f (x) := 1 2 r(x) 2 = 1 2 m j=1 r 2 j (x) mit r(x) = r 1 (x). r m (x) und in einer Umgebung von x sei r(x) klein (=kleine Residuen). Vorlesung 6 II Freie Optimierung 14 / 29

15 Nichtlineare kleinste Quadrate mit kleinen Residuen min x f (x) := 1 2 r(x) 2 = 1 2 m j=1 r 2 j (x) mit r(x) = r 1 (x). r m (x) und in einer Umgebung von x sei r(x) klein (=kleine Residuen). Betrachte Gradienten und Hessematrix von f (Kettenregel): f (x) = m j=1 r j(x) r j (x) = J r (x) T r(x) Vorlesung 6 II Freie Optimierung 15 / 29

16 Nichtlineare kleinste Quadrate mit kleinen Residuen min x f (x) := 1 2 r(x) 2 = 1 2 m j=1 r 2 j (x) mit r(x) = r 1 (x). r m (x) und in einer Umgebung von x sei r(x) klein (=kleine Residuen). Betrachte Gradienten und Hessematrix von f (Kettenregel): f (x) = m j=1 r j(x) r j (x) = J r (x) T r(x) 2 f (x) = m j=1 r j(x) r j (x) T + m j=1 r j(x) 2 r j (x) = J r (x) T J r (x) + m j=1 r j(x) 2 r j (x) J r (x) T J r (x) }{{} klein J r (x) T J r (x) liefert eine gute Näherung für die Hessematrix. Vorlesung 6 II Freie Optimierung 16 / 29

17 Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren in der freien Optimierung 7Line-Search-Verfahren 8Gradienten-Verfahren und Skalierung 9Quasi-Newton-Verfahren 10Trust-Region-Verfahren 11Das Verfahren der konjugierten Gradienten 12Inexakte Newton-Verfahren 13Nichtlineare kleinste Quadrate 14Gauss-Newton-Verfahren 15Numerisches Differenzieren Vorlesung 6 II Freie Optimierung 17 / 29

18 Das Gauss-Newton-Verfahren Zur Lösung von min x f (x) := 1 2 r(x) 2 mit r : R n R m wähle statt der Newton-Schrittrichtung 2 f k hk N = f k die Gauss-Newton-Richtung J T k J k h GN k = J T k r k, wobei J k := J r (x (k) ), r k := r(x (k) ) Vorlesung 6 II Freie Optimierung 18 / 29

19 Das Gauss-Newton-Verfahren Zur Lösung von min x f (x) := 1 2 r(x) 2 mit r : R n R m wähle statt der Newton-Schrittrichtung 2 f k hk N = f k die Gauss-Newton-Richtung J T k J k h GN k = J T k r k, wobei J k := J r (x (k) ), r k := r(x (k) ) Vorteile: Es muss keine zweite Ableitung von r(x) berechnet werden. Ist r k klein (kleine Residuen), ist J T k J k gute Näherung für 2 f. Vorlesung 6 II Freie Optimierung 19 / 29

20 Das Gauss-Newton-Verfahren Zur Lösung von min x f (x) := 1 2 r(x) 2 mit r : R n R m wähle statt der Newton-Schrittrichtung 2 f k hk N = f k die Gauss-Newton-Richtung J T k J k h GN k = J T k r k, wobei J k := J r (x (k) ), r k := r(x (k) ) Vorteile: Es muss keine zweite Ableitung von r(x) berechnet werden. Ist r k klein (kleine Residuen), ist Jk TJ k gute Näherung für 2 f. Ist Rang(J k ) = n (d.h. Jk TJ k 0) und f k 0, so ist hk GN Abstiegsrichtung: (hk GN ) T f k = (hk GN ) T Jk T r k = (hk GN ) T Jk TJ k hk GN = J k hk GN 2 < 0, denn wegen Jk TJ k 0 ist J k hk GN = 0 Jk T r k = f k = 0. Vorlesung 6 II Freie Optimierung 20 / 29

21 Das Gauss-Newton-Verfahren Zur Lösung von min x f (x) := 1 2 r(x) 2 mit r : R n R m wähle statt der Newton-Schrittrichtung 2 f k hk N = f k die Gauss-Newton-Richtung J T k J k h GN k = J T k r k, wobei J k := J r (x (k) ), r k := r(x (k) ) Vorteile: Es muss keine zweite Ableitung von r(x) berechnet werden. Ist r k klein (kleine Residuen), ist Jk TJ k gute Näherung für 2 f. Ist Rang(J k ) = n (d.h. Jk TJ k 0) und f k 0, so ist hk GN Abstiegsrichtung: (hk GN ) T f k = (hk GN ) T Jk T r k = (hk GN ) T Jk TJ k hk GN = J k hk GN 2 < 0, denn wegen Jk TJ k 0 ist J k hk GN = 0 Jk T r k = f k = 0. Die Gleichung für hk GN hat die Form A T Ax = A T b (Normalgleichung) hk GN ist Lösung des linearen Kleinste-Quadrate-Problems min h Jk T h r k 2 alle numerischen Verfahren des linearen Falls sind verwendbar. Vorlesung 6 II Freie Optimierung 21 / 29

22 Das Gauss-Newton-Verfahren Zur Lösung von min x f (x) := 1 2 r(x) 2 mit r : R n R m wähle statt der Newton-Schrittrichtung 2 f k hk N = f k die Gauss-Newton-Richtung J T k J k h GN k = J T k r k, wobei J k := J r (x (k) ), r k := r(x (k) ) Vorteile: Es muss keine zweite Ableitung von r(x) berechnet werden. Ist r k klein (kleine Residuen), ist Jk TJ k gute Näherung für 2 f. Ist Rang(J k ) = n (d.h. Jk TJ k 0) und f k 0, so ist hk GN Abstiegsrichtung: (hk GN ) T f k = (hk GN ) T Jk T r k = (hk GN ) T Jk TJ k hk GN = J k hk GN 2 < 0, denn wegen Jk TJ k 0 ist J k hk GN = 0 Jk T r k = f k = 0. Die Gleichung für hk GN hat die Form A T Ax = A T b (Normalgleichung) hk GN ist Lösung des linearen Kleinste-Quadrate-Problems min h Jk T h r k 2 alle numerischen Verfahren des linearen Falls sind verwendbar. Ist Rang(J k ) < n, verwendet man im Levenberg-Marquardt-Verfahren (Jk T J k + λi )h = J k r k, mit ähnlichen Anpassungsregeln für λ wie für die Trust-Region. [Interpretiere λ als Lagrange-Multiplikator für die Trust-Region-Constraint.] Vorlesung 6 II Freie Optimierung 22 / 29

23 Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren in der freien Optimierung 7Line-Search-Verfahren 8Gradienten-Verfahren und Skalierung 9Quasi-Newton-Verfahren 10Trust-Region-Verfahren 11Das Verfahren der konjugierten Gradienten 12Inexakte Newton-Verfahren 13Nichtlineare kleinste Quadrate 14Gauss-Newton-Verfahren 15Numerisches Differenzieren Vorlesung 6 II Freie Optimierung 23 / 29

24 Wie berechnet man f ( 2 f ) für das Orakel 1. (2.) Ordnung? Vorlesung 6 II Freie Optimierung 24 / 29

25 Wie berechnet man f ( 2 f ) für das Orakel 1. (2.) Ordnung? Falls f analytisch vorliegt: von Hand differenzieren oder Matlab, Maple,... nutzen Falls f nur als Unterprogramm gegeben ist oder symbolisches Differenzieren fehlschlägt: Numerisches Differenzieren Automatisches Differenzieren (falls Source-Code verfügbar) Für beides gibt es kommerzielle und frei verfügbare Software. Vorlesung 6 II Freie Optimierung 25 / 29

26 Numerisches Differenzieren Für die Berechnung von f ( x) werden die partiellen Ableitungen durch Differenzenquotienten angenähert [Vorsicht: Stellenauslöschung!]: Vorwärtsdifferenz f ( x) f ( x + he i) f ( x) x i h zentrale Differenz f ( x) f ( x + he i) f ( x he i ) x i 2h Näherung 1. Ordnung Näherung 2. Ordnung Vorlesung 6 II Freie Optimierung 26 / 29

27 Vorwärtsdifferenz Vorwärtsdifferenz f ( x) f ( x + he i) f ( x) x i h Näherung 1. Ordnung Zum Problem der Stellenauslöschung im Zähler: Numerik: Sei ε das Maschinenepsilon, also die größte Fließkomma-Zahl mit float(1 + ε)=float(1). Dann liefert die Wahl h = ε = ε 1 2 das beste Ergebnis. Damit wird f x i ( x) bis auf einen Fehler der Größe const h genau bestimmt (oft zu ungenau). Vorlesung 6 II Freie Optimierung 27 / 29

28 Zentrale Differenz zentrale Differenz f ( x) f ( x + he i) f ( x he i ) x i 2h Näherung 2. Ordnung Zum Problem der Stellenauslöschung im Zähler: Numerik: Sei ε das Maschinenepsilon, also die größte Fließkomma-Zahl mit float(1 + ε)=float(1). Dann liefert die Wahl h = ε 2 3 das beste Ergebnis. Damit wird f x i ( x) bis auf einen Fehler der Größe const h 2 genau bestimmt. Vorlesung 6 II Freie Optimierung 28 / 29

29 Praktische Aspekte des Numerischen Differenzierens Bei der Berechung von 2 f oder der Jacobimatrix J g einer Funktion g : R n R m rentiert es sich zu untersuchen, ob eine eventuelle Dünnbesetztheit (viele Nullen) der Matrizen genutzt werden kann, um die Anzahl der Funktionsauswertungen zu reduzieren. Dies wird hier nicht weiter vertieft. Vorlesung 6 II Freie Optimierung 29 / 29

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den

Mehr

Übungen zur Numerischen Mathematik 2 Sommersemester 2014. Übungsblatt 13

Übungen zur Numerischen Mathematik 2 Sommersemester 2014. Übungsblatt 13 Universität Heidelberg Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Prof. Dr. Dres. h.c. Hans Georg Bock Dr. Christian Kirches Dipl.-Phys. Simon Lenz Übungen zur Numerischen Mathematik 2 Sommersemester

Mehr

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag

Mehr

Computer Vision: Optische Flüsse

Computer Vision: Optische Flüsse Computer Vision: Optische Flüsse D. Schlesinger TUD/INF/KI/IS Bewegungsanalyse Optischer Fluss Lokale Verfahren (Lukas-Kanade) Globale Verfahren (Horn-Schunck) (+ kontinuierliche Ansätze: mathematische

Mehr

Nichtlineare Optimierungsprobleme mit Komplexität

Nichtlineare Optimierungsprobleme mit Komplexität Definition eines Nichtlinearen Optimierungsproblemes (NLP) min f (x) bzw. min f (x) s.d. x S x S wobei die zulässige Menge S R n typischerweise definiert ist durch S {x R n : h(x) =, c(x) } für Gleichungs-

Mehr

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz Mathematik für Bioinformatik und Systembiologie - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz WS 2009/10 Universität Freiburg Dieses Vorlesungsskript ist auf der Basis von Vorlesungen

Mehr

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei

Mehr

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten: KAPITEL 4 Lineare Ausgleichsrechnung Beispiel 41 Das Ohmsche Gesetz: Eine Meßreihe von Daten: U = RI (U i, I i ) (Spannung, Stromstärke), i = 1,, m Aufgabe: man bestimme aus diesen Meßdaten den Widerstand

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

Mathematik 1 für Wirtschaftsinformatik

Mathematik 1 für Wirtschaftsinformatik Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration

Mehr

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes

Mehr

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen.

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. 13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. Sie heißt linear, wenn sie die Form y (n) + a n 1 y (n 1)

Mehr

Optimierung. Florian Jarre Josef Stoer. Springer

Optimierung. Florian Jarre Josef Stoer. Springer 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Florian Jarre Josef Stoer Optimierung Springer Inhaltsverzeichnis

Mehr

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz Optimale Steuerung Kevin Sieg Fachbereich für Mathematik und Statistik Universität Konstanz 14. Juli 2010 1 / 29 Aufgabenstellung 1 Aufgabenstellung Aufgabenstellung 2 Die zusammengesetzte Trapezregel

Mehr

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Prof. Dr. Volker Schulz Universität Trier / FB IV / Abt. Mathematik 8. November 2010 http://www.mathematik.uni-trier.de/ schulz/elan-ws1011.html

Mehr

Die CUTEr Testbibliothek

Die CUTEr Testbibliothek Die CUTEr Testbibliothek Slide 1 Motivation Softwarepakete mit vollkommen verschiedenen Anwendungsschwerpunkten Optimierung entweder nur einer von vielen Schwerpunkten oder sogar nur Nebenprodukt zur Lösung

Mehr

Allgemeine Regressionsanalyse. Kovariablen / Prädiktoren / unabhängige Variablen X j R d, evtl. deterministisch

Allgemeine Regressionsanalyse. Kovariablen / Prädiktoren / unabhängige Variablen X j R d, evtl. deterministisch Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 9.1 Allgemeine Regressionsanalyse Daten (X j, Y j ), j = 1,..., N unabhängig Kovariablen / Prädiktoren / unabhängige Variablen X j R d, evtl.

Mehr

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik Ludwig Fahrmeir, Nora Fenske Institut für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik 29. März 21 Hinweise:

Mehr

Kevin Caldwell. 18.April 2012

Kevin Caldwell. 18.April 2012 im Rahmen des Proseminars Numerische Lineare Algebra von Prof.Dr.Sven Beuchler 18.April 2012 Gliederung 1 2 3 Mathematische Beschreibung von naturwissenschaftlich-technischen Problemstellungen führt häufig

Mehr

Stochastische Eingangsprüfung, 17.05.2008

Stochastische Eingangsprüfung, 17.05.2008 Stochastische Eingangsprüfung, 17.5.8 Wir gehen stets von einem Wahrscheinlichkeitsraum (Ω, A, P) aus. Aufgabe 1 ( Punkte) Sei X : Ω [, ) eine integrierbare Zufallsvariable mit XdP = 1. Sei Q : A R, Q(A)

Mehr

17. Penalty- und Barriere-Methoden

17. Penalty- und Barriere-Methoden H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende

Mehr

Die Laufzeit muss nun ebenfalls in Monaten gerechnet werden und beträgt 25 12 = 300 Monate. Damit liefert die Sparkassenformel (zweiter Teil):

Die Laufzeit muss nun ebenfalls in Monaten gerechnet werden und beträgt 25 12 = 300 Monate. Damit liefert die Sparkassenformel (zweiter Teil): Lösungen zur Mathematikklausur WS 2004/2005 (Versuch 1) 1.1. Hier ist die Rentenformel für gemischte Verzinsung (nachschüssig) zu verwenden: K n = r(12 + 5, 5i p ) qn 1 q 1 = 100(12 + 5, 5 0, 03)1, 0325

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Weiterbildungskurs Stochastik

Weiterbildungskurs Stochastik Hansruedi Künsch Seminar für Statistik Departement Mathematik, ETH Zürich 24. Juni 2009 Inhalt STATISTIK DER BINOMIALVERTEILUNG 1 STATISTIK DER BINOMIALVERTEILUNG 2 Fragestellungen Typische Fragestellungen

Mehr

Effiziente numerische Methoden in der Elasto-Plastizität

Effiziente numerische Methoden in der Elasto-Plastizität Karlsruhe Institute of Technology Effiziente numerische Methoden in der Elasto-Plastizität Christian Wieners Institut für Angewandte und Numerische Mathematik, Karlsruhe KIT University of the State of

Mehr

Optimierung mit Matlab

Optimierung mit Matlab Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof. Dr. L. Cromme Computerbasierte Mathematische Modellierung für Mathematiker, Wirtschaftsmathematiker, Informatiker im Wintersemester

Mehr

Vorkurs Mathematik Übungen zu Polynomgleichungen

Vorkurs Mathematik Übungen zu Polynomgleichungen Vorkurs Mathematik Übungen zu en 1 Aufgaben Lineare Gleichungen Aufgabe 1.1 Ein Freund von Ihnen möchte einen neuen Mobilfunkvertrag abschließen. Es gibt zwei verschiedene Angebote: Anbieter 1: monatl.

Mehr

Entwurf robuster Regelungen

Entwurf robuster Regelungen Entwurf robuster Regelungen Kai Müller Hochschule Bremerhaven Institut für Automatisierungs- und Elektrotechnik z P v K Juni 25 76 5 OPTIMALE ZUSTANDSREGELUNG 5 Optimale Zustandsregelung Ein optimaler

Mehr

3. Grundlagen der Linearen Programmierung

3. Grundlagen der Linearen Programmierung 3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations

Mehr

Monte Carlo Methoden in Kreditrisiko-Management

Monte Carlo Methoden in Kreditrisiko-Management Monte Carlo Methoden in Kreditrisiko-Management P Kreditportfolio bestehend aus m Krediten; Verlustfunktion L = n i=1 L i; Die Verluste L i sind unabhängig bedingt durch einen Vektor Z von ökonomischen

Mehr

Bildverarbeitung Herbstsemester 2012. Kanten und Ecken

Bildverarbeitung Herbstsemester 2012. Kanten und Ecken Bildverarbeitung Herbstsemester 01 Kanten und Ecken 1 Inhalt Einführung Kantendetektierung Gradientenbasierende Verfahren Verfahren basierend auf der zweiten Ableitung Eckpunkterkennung Harris Corner Detector

Mehr

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Wintersemester 3/4 (.3.4). (a) Für z = + i und z = 3 4i berechne man z z und z z. Die Ergebnisse sind in kartesischer Form anzugeben.

Mehr

Kapitel 15: Differentialgleichungen

Kapitel 15: Differentialgleichungen FernUNI Hagen WS 00/03 Kapitel 15: Differentialgleichungen Differentialgleichungen = Gleichungen die Beziehungen zwischen einer Funktion und mindestens einer ihrer Ableitungen herstellen. Kommen bei vielen

Mehr

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik Höhere Mathematik 3 Apl. Prof. Dr. Norbert Knarr FB Mathematik Wintersemester 2015/16 4. Homogene lineare Dierentialgleichungen 4.1. Grundbegrie 4.1.1. Denition. Es sei J R ein Intervall und a 0 ; : :

Mehr

2.4 Adaptive Verfahren mit Schrittweitensteuerung

2.4 Adaptive Verfahren mit Schrittweitensteuerung 0 0 0 Euler und RK4 fuer f(t,y) = t 0. Euler RK4 /N 0 0 f(t,y) =. t 0., graduiertes Gitter RK4 /N 4 Fehler bei T = 0 3 0 4 0 5 Fehler bei T = 0 5 0 0 0 6 0 7 0 0 0 0 2 0 3 0 4 0 5 Anzahl Schritte N 0 5

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme Beispiel.5: Funktion von Runge (V) Beispiel Martin-Luther-Universität Halle-Wittenberg, NWF III, Institut für Mathematik Martin Arnold: Grundkurs Numerische Mathematik (WiS 27/8) Abbildung.3: Interpolation

Mehr

Funktionen (linear, quadratisch)

Funktionen (linear, quadratisch) Funktionen (linear, quadratisch) 1. Definitionsbereich Bestimme den Definitionsbereich der Funktion f(x) = 16 x 2 2x + 4 2. Umkehrfunktionen Wie lauten die Umkehrfunktionen der folgenden Funktionen? (a)

Mehr

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II. Aufgaben und Lösungen

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II. Aufgaben und Lösungen Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II Aufgaben und Lösungen SS 2005 Aufgaben Aufgabe 41 Ein Betrieb stellt zwei Produkte P 1 und P 2 her, die die

Mehr

Statistik - Fehlerrechnung - Auswertung von Messungen

Statistik - Fehlerrechnung - Auswertung von Messungen 2013-11-13 Statistik - Fehlerrechnung - Auswertung von Messungen TEIL I Vorbereitungskurs F-Praktikum B (Physik), RWTH Aachen Thomas Hebbeker Literatur Eindimensionaler Fall: Grundbegriffe Wahrscheinlichkeitsverteilungen:

Mehr

Skalare Differentialgleichungen

Skalare Differentialgleichungen Kapitel 2 Skalare Differentialgleichungen 2.1 Skalare lineare Differentialgleichungen 2.2 Bernoulli und Riccati Differentialgleichungen 2.3 Differentialgleichungen mit getrennten Variablen 2.4 Exakte Differentialgleichungen

Mehr

Höhere Mathematik III für Wirtschaftsinformatiker

Höhere Mathematik III für Wirtschaftsinformatiker TU Ilmenau Institut für Mathematik Prof. Dr. S. Vogel Höhere Mathematik III für Wirtschaftsinformatiker Funktionen von mehreren Variablen. Grenzwerte und Stetigkeit Betrachtet werden Funktionen f : D f

Mehr

ε heteroskedastisch BINARY CHOICE MODELS Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS?

ε heteroskedastisch BINARY CHOICE MODELS Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS? BINARY CHOICE MODELS 1 mit Pr( Y = 1) = P Y = 0 mit Pr( Y = 0) = 1 P Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS? Y i = X i β + ε i Probleme: Nonsense Predictions

Mehr

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen Gleichungen Lösen Was bedeutet es, eine Gleichung zu lösen? Was ist überhaupt eine Gleichung? Eine Gleichung ist, grundsätzlich eine Aussage über zwei mathematische Terme, dass sie gleich sind. Ein Term

Mehr

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Einführung in die Vektor- und Matrizenrechnung. Matrizen Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:

Mehr

Rekursionen (Teschl/Teschl 8.1-8.2)

Rekursionen (Teschl/Teschl 8.1-8.2) Rekursionen (Teschl/Teschl 8.1-8.2) Eine Rekursion kter Ordnung für k N ist eine Folge x 1, x 2, x 3,... deniert durch eine Rekursionsvorschrift x n = f n (x n 1,..., x n k ) für n > k, d. h. jedes Folgenglied

Mehr

Kaufmännische Berufsmatura 2011

Kaufmännische Berufsmatura 2011 Kaufmännische Berufsmatura 0 Serie : Lösungen Serie - Lösungen Prüfungsdauer: Max. zahl: 50 Minuten 00 Bewertungshinweise: Mehrfachlösungen sind nicht gestattet. Als Resultate gelten nur eindeutig gekennzeichnete

Mehr

Protokoll Physikalisch-Chemisches Praktikum für Fortgeschrittene

Protokoll Physikalisch-Chemisches Praktikum für Fortgeschrittene K. B. Datum des Praktikumstags: 4.12.2007 Matthias Ernst Protokoll-Datum: 8.12.2007 Gruppe 11 Assistent: T. Bentz Testat: AK-Versuch: Modellierung von verbrennungsrelevanten Prozessen Aufgabenstellung

Mehr

Statische Optimierung unter Gleichungsrestriktionen (Lagrange)

Statische Optimierung unter Gleichungsrestriktionen (Lagrange) Kapitel 2 Statische Optimierung unter Gleichungsrestriktionen (Lagrange) 21 Einleitung/Ziel/Bedeutung/Übersicht Viele ökonomischen Fragestellungen bestehen im Kern zwar aus einem statischen Optimierungsproblem,

Mehr

Repetitionsaufgaben: Lineare Gleichungen

Repetitionsaufgaben: Lineare Gleichungen Kantonale Fachschaft Mathematik Repetitionsaufgaben: Lineare Gleichungen Zusammengestellt von Hannes Ernst, KSR Lernziele: - Lineare Gleichungen von Hand auflösen können. - Lineare Gleichungen mit Parametern

Mehr

Lineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen

Lineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen Wir betrachten in diesem Abschnitt das lineare Ausgleichsproblem Ax b 2 = min! (1) Heinrich Voss voss@tu-harburgde Hamburg University of Technology Institute for Numerical Simulation mit gegebenem A R

Mehr

Kapitel 4: Binäre Regression

Kapitel 4: Binäre Regression Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,

Mehr

Finite Differenzen und Elemente

Finite Differenzen und Elemente Dietrich Marsal Finite Differenzen und Elemente Numerische Lösung von Variationsproblemen und partiellen Differentialgleichungen Mit 64 Abbildungen Springer-Verlag Berlin Heidelberg NewYork London Paris

Mehr

Einführung in QtiPlot

Einführung in QtiPlot HUWagner und Julia Bek Einführung in QtiPlot 30. Juni 2011 1/13 Einführung in QtiPlot Mit Bezug auf das Liebig-Lab Praktikum an der Ludwig-Maximilians-Universität München Inhaltsverzeichnis 1 Programmeinführung

Mehr

3.4 Histogramm, WENN-Funktion

3.4 Histogramm, WENN-Funktion 3.4 Histogramm, WENN-Funktion 3.4.1 Aufgabe Ausgehend von den Lösungen der zum Aufgabenkomplex 3.3, Absenkung (s. S. 106), aufgestellten Tabellen sollen weitere Elemente der MS-Excel-Programmierung genutzt

Mehr

Ergänzungsseminar zu "Rechenmethoden für Studierende der Chemie"

Ergänzungsseminar zu Rechenmethoden für Studierende der Chemie Ergänzungsseminar zu "Rechenmethoden für Studierende der Chemie" VAK 02-03-2-RM-3 Johannes Ranke Ergänzungsseminar zu "Rechenmethoden für Studierende der Chemie" p.1/13 Programm 18.4. Überblick über Software

Mehr

Elementare Bildverarbeitungsoperationen

Elementare Bildverarbeitungsoperationen 1 Elementare Bildverarbeitungsoperationen - Kantenerkennung - 1 Einführung 2 Gradientenverfahren 3 Laplace-Verfahren 4 Canny-Verfahren 5 Literatur 1 Einführung 2 1 Einführung Kantenerkennung basiert auf

Mehr

4 Das Overlap-Konzept

4 Das Overlap-Konzept 4 Das Overlap-Konzept Das Overlap-Konzept wurde in [31] ausführlich beschrieben. Im folgenden werden wir die Aspekte darlegen, die nötig sind, um das Konzept zu implementieren, und werden uns dabei eng

Mehr

Motivation. Jede Messung ist mit einem sogenannten Fehler behaftet, d.h. einer Messungenauigkeit

Motivation. Jede Messung ist mit einem sogenannten Fehler behaftet, d.h. einer Messungenauigkeit Fehlerrechnung Inhalt: 1. Motivation 2. Was sind Messfehler, statistische und systematische 3. Verteilung statistischer Fehler 4. Fehlerfortpflanzung 5. Graphische Auswertung und lineare Regression 6.

Mehr

Computersimulation physikalischer Phänomene mit der Finite- Elemente-Methode

Computersimulation physikalischer Phänomene mit der Finite- Elemente-Methode K.Bräuer: Computersimulation physikalischer Phänomene mit der Finiten-Elemente-Methode 1 Computersimulation physikalischer Phänomene mit der Finite- Elemente-Methode Kurt Bräuer Privatdozent am Institut

Mehr

Übung 3: Einfache Graphiken und Näherungen durch Regression

Übung 3: Einfache Graphiken und Näherungen durch Regression Übung 3: Einfache Graphiken und Näherungen durch Regression M. Schlup, 9. August 010 Aufgabe 1 Einfache Graphik Für die abgegebene Leistung P = UI eines linearen, aktiven Zweipols mit Leerlaufspannung

Mehr

ElGamal Verschlüsselungsverfahren (1984)

ElGamal Verschlüsselungsverfahren (1984) ElGamal Verschlüsselungsverfahren (1984) Definition ElGamal Verschlüsselungsverfahren Sei n ein Sicherheitsparameter. 1 Gen : (q, g) G(1 n ), wobei g eine Gruppe G der Ordnung q generiert. Wähle x R Z

Mehr

Finanzierung und Investition

Finanzierung und Investition Kruschwitz/Husmann (2012) Finanzierung und Investition 1/40 Finanzierung und Investition Kruschwitz/Husmann (2012) Oldenbourg Verlag München 7. Auflage, Kapitel 2 Kruschwitz/Husmann (2012) Finanzierung

Mehr

Schulinternes Curriculum. Mathematik

Schulinternes Curriculum. Mathematik Gymnasium Zitadelle Schulinternes Curriculum (G 8) Stand: Schuljahr 2012/13 Gymnasium Zitadelle Schulinternes Curriculum Seite 1 EF Eingeführtes Lehrbuch: Lambacher Schweizer 10 Einführungsphase Funktionen

Mehr

Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear":

Das Dialogfeld für die Regressionsanalyse (Lineare Regression) findet sich im Statistik- Menu unter Regression-Linear: Lineare Regression Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear": Im einfachsten Fall werden mehrere Prädiktoren (oder nur

Mehr

Multivariate Statistik

Multivariate Statistik Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)

Mehr

DLP. Adolphe Kankeu Tamghe papibobo@informatik.uni-bremen.de ALZAGK SEMINAR. Bremen, den 18. Januar 2011. Fachbereich Mathematik und Informatik 1 / 27

DLP. Adolphe Kankeu Tamghe papibobo@informatik.uni-bremen.de ALZAGK SEMINAR. Bremen, den 18. Januar 2011. Fachbereich Mathematik und Informatik 1 / 27 DLP Adolphe Kankeu Tamghe papibobo@informatik.uni-bremen.de Fachbereich Mathematik und Informatik ALZAGK SEMINAR Bremen, den 18. Januar 2011 1 / 27 Inhaltsverzeichnis 1 Der diskrete Logarithmus Definition

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2013/14 Hochschule Augsburg : Gliederung 1 Aussagenlogik 2 Lineare Algebra 3 Lineare Programme 4 Folgen

Mehr

Das Optimierungsverfahren mit Lagrange-Multiplikatoren. Robert Koschig (www.massmatics.de), 09/2012

Das Optimierungsverfahren mit Lagrange-Multiplikatoren. Robert Koschig (www.massmatics.de), 09/2012 Das Optimierungsverfahren mit Lagrange-Multiplikatoren Robert Koschig www.massmatics.de, 9/ Inhaltsverzeichnis Motivation. Wo taucht so etwas auf?...................................... Was ist das Problem?......................................

Mehr

Einführung in die Geostatistik (7) Fred Hattermann (Vorlesung), hattermann@pik-potsdam.de Michael Roers (Übung), roers@pik-potsdam.

Einführung in die Geostatistik (7) Fred Hattermann (Vorlesung), hattermann@pik-potsdam.de Michael Roers (Übung), roers@pik-potsdam. Einführung in die Geostatistik (7) Fred Hattermann (Vorlesung), hattermann@pik-potsdam.de Michael Roers (Übung), roers@pik-potsdam.de 1 Gliederung 7 Weitere Krigingverfahren 7.1 Simple-Kriging 7.2 Indikator-Kriging

Mehr

Theoretische Grundlagen der Informatik WS 09/10

Theoretische Grundlagen der Informatik WS 09/10 Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3

Mehr

Lineare Programmierung

Lineare Programmierung Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in

Mehr

Universität der Pharmazie

Universität der Pharmazie Universität der Pharmazie Institut für Pharmazie Pharmazie-Straße 1 12345 Pharmastadt Identitäts-, Gehalts- und Reinheitsbestimmung von Substanzen in Anlehnung an Methoden des Europäischen Arzneibuchs

Mehr

Extremwertverteilungen

Extremwertverteilungen Seminar Statistik Institut für Stochastik 12. Februar 2009 Gliederung 1 Grenzwertwahrscheinlichkeiten 2 3 MDA Fréchet MDA Weibull MDA Gumbel 4 5 6 Darstellung von multivariaten, max-stabilen Verteilungsfunktionen

Mehr

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema 2x 4 + x 3 + x + 3 div x 2 + x 1 = 2x 2 x + 3 (2x 4 + 2x 3 2x 2 ) x 3 + 2x 2 + x + 3 ( x

Mehr

Analysis. mit dem Computer-Algebra-System des TI-92. Anhang 2: Gedanken zum Lehrplan. Beat Eicke und Edmund Holzherr 11.

Analysis. mit dem Computer-Algebra-System des TI-92. Anhang 2: Gedanken zum Lehrplan. Beat Eicke und Edmund Holzherr 11. ETH EIDGENÖSSISCHE TECHNISCHE HOCHSCHULE ZÜRICH Analysis mit dem Computer-Algebra-System des TI-92 Anhang 2: Gedanken zum Lehrplan Beat Eicke und Edmund Holzherr 11. November 1997 Eidgenössische Technische

Mehr

Präsenzübungsaufgaben zur Vorlesung Elementare Sachversicherungsmathematik

Präsenzübungsaufgaben zur Vorlesung Elementare Sachversicherungsmathematik Präsenzübungsaufgaben zur Vorlesung Elementare Sachversicherungsmathematik Dozent: Volker Krätschmer Fakultät für Mathematik, Universität Duisburg-Essen, WS 2012/13 1. Präsenzübung Aufgabe T 1 Sei (Z 1,...,

Mehr

Bachelorarbeit. Vergleich von Ansätzen zur numerischen Lösung von MPCCs am Beispiel eines Mautproblems

Bachelorarbeit. Vergleich von Ansätzen zur numerischen Lösung von MPCCs am Beispiel eines Mautproblems Bachelorarbeit Vergleich von Ansätzen zur numerischen Lösung von MPCCs am Beispiel eines Mautproblems Vorgelegt an der Professur für Numerische Mathematik (Partielle Differentialgleichungen) von Prof.

Mehr

Lösung des Kleinste-Quadrate-Problems

Lösung des Kleinste-Quadrate-Problems Lösung des Kleinste-Quadrate-Problems Computergestützte Statistik Lisakowski, Christof 15.05.2009 Lisakowski, Christof ()Lösung des Kleinste-Quadrate-Problems 15.05.2009 1 / 34 Themen 1 Problemstellung

Mehr

Praktikum Wissenschaftliches Rechnen 3. Aufgabenblatt

Praktikum Wissenschaftliches Rechnen 3. Aufgabenblatt Institut für Wissenschaftliches Rechnen Technische Universität Braunschweig Prof. Hermann G. Matthies, Ph. D. Dipl.-inform. Oliver Kayser-Herold Praktikum Wissenschaftliches Rechnen 3. Aufgabenblatt Wir

Mehr

Einführung in QtiPlot

Einführung in QtiPlot HUWagner und Julia Bek Einführung in QtiPlot 1/11 Einführung in QtiPlot Mit Bezug auf das Liebig-Lab Praktikum an der Ludwig-Maximilians-Universität München Bei Fragen und Fehlern: jubech@cup.lmu.de Inhaltsverzeichnis

Mehr

Modulabschlussklausur Analysis II

Modulabschlussklausur Analysis II Modulabschlussklausur Analysis II. Juli 015 Bearbeitungszeit: 150 min Aufgabe 1 [5/10 Punkte] Es sei a R und f a : R 3 R mit f a (x, y, z) = x cos(y) + z 3 sin(y) + a 3 + (z + ay a y) cos(x) a) Bestimmen

Mehr

Serie 13: Online Test

Serie 13: Online Test D-ERDW, D-HEST, D-USYS Mathematik I HS 3 Dr. Ana Cannas Serie 3: Online Test Einsendeschluss: 3. Januar 4 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung verwenden.

Mehr

Monte Carlo Simulationen

Monte Carlo Simulationen Monte Carlo Simulationen Erkenntnisse durch die Erschaffung einer virtuellen Welt Stefan Wunsch 31. Mai 2014 INSTITUT FÜR EXPERIMENTELLE KERNPHYSIK (IEKP) KIT Universität des Landes Baden-Württemberg und

Mehr

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011 Mathematik für Informatiker II Christoph Eisinger Sommersemester 211 Beispiellösungen zur Probeklausur Aufgabe 1 Gegeben sind die Polynome f, g, h K[x]. Zu zeigen: Es gibt genau dann Polynome h 1 und h

Mehr

Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau

Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau Ziele: Einführung in richtige Einordnung von Optimierungsproblemen Modellierungstechniken praktische Umsetzung

Mehr

Reproduzierbarkeit der Bachelor-Thesis

Reproduzierbarkeit der Bachelor-Thesis der Bachelor-Thesis Anonymisierungsverfahren: Randverteilungen und ihr statistisches Analysepotential Seminar Institut für Statistik Ludwig-Maxmilians-Universität in München Betreuung: Manuel J. A. Eugster

Mehr

Risikomessung und Value at Risk Wintersemester 2013/14

Risikomessung und Value at Risk Wintersemester 2013/14 Risikomessung und Value at Risk Wintersemester 2013/14 Walter Sanddorf-Köhle Statistik und Ökonometrie Foliensatz Nr. 11 Version vom 24. Januar 2014 1 / 45 6.5.1 Bisherige Vorgehensweise zur Berechnung

Mehr

Messtechnik. Gedächnisprotokoll Klausur 2012 24. März 2012. Es wurde die Kapazität von 10 Kondensatoren gleicher Bauart gemessen:

Messtechnik. Gedächnisprotokoll Klausur 2012 24. März 2012. Es wurde die Kapazität von 10 Kondensatoren gleicher Bauart gemessen: Messtechnik Gedächnisprotokoll Klausur 2012 24. März 2012 Dokument erstellt von: mailto:snooozer@gmx.de Aufgaben Es wurde die Kapazität von 10 Kondensatoren gleicher Bauart gemessen: Index k 1 2 3 4 5

Mehr

Maple-Skripte. A.1 Einleitung. A.2 Explizite Zweischritt-Runge-Kutta-Verfahren. Bei der Ausführung

Maple-Skripte. A.1 Einleitung. A.2 Explizite Zweischritt-Runge-Kutta-Verfahren. Bei der Ausführung A Maple-Skripte A.1 Einleitung Bei der Ausführung mechanischer Rechnungen können Computeralgebra-Programme sehr nützlich werden. Wenn man genau weiß, was eingesetzt, umgeformt, zusammengefaßt oder entwickelt

Mehr