Optimierung für Nichtmathematiker
|
|
- Reinhardt Beutel
- vor 6 Jahren
- Abrufe
Transkript
1 Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1
2 Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren in der freien Optimierung 7Line-Search-Verfahren 8Gradienten-Verfahren und Skalierung 9Quasi-Newton-Verfahren 10Trust-Region-Verfahren 11Das Verfahren der konjugierten Gradienten 12Inexakte Newton-Verfahren 13Nichtlineare kleinste Quadrate 14Gauss-Newton-Verfahren 15Numerisches Differenzieren Vorlesung 6 II Freie Optimierung 2 / 29
3 Nichtlineare kleinste Quadrate Typisches Problem für Parameteridentifikation (optimale Parameterwahl): Minimiere eine Zielfunktion f der speziellen Gestalt f (x) = 1 2 m j=1 mit r j : R n R glatte Funktionen. r 2 j (x) = 1 2 r(x) 2 Dies ist ein nichtlineares Kleinste-Quadrate-Problem. Vorlesung 6 II Freie Optimierung 3 / 29
4 Nichtlineare kleinste Quadrate Beispiel: An m Messpunkten t j werden Werte ỹ j R mit unabhängigen, (0, σ 2 )-normalverteilten Messfehlern gemessen. Für die korrekten Messwerte y j wird vermutet, dass sie sich für einen geeignet gewählten Parameter x R n als Funktion y j = Φ(t j ; x) der Messpunkte darstellen lassen. Bestimme den richtigen Parameter x R n. Vorlesung 6 II Freie Optimierung 4 / 29
5 Nichtlineare kleinste Quadrate Beispiel: An m Messpunkten t j werden Werte ỹ j R mit unabhängigen, (0, σ 2 )-normalverteilten Messfehlern gemessen. Für die korrekten Messwerte y j wird vermutet, dass sie sich für einen geeignet gewählten Parameter x R n als Funktion y j = Φ(t j ; x) der Messpunkte darstellen lassen. Bestimme den richtigen Parameter x R n. Hat ein Messfehler von ε R die Wahrscheinlichkeit ϕ(ε) = 1 ε2 e 2σ 2 2πσ, 2 würden für korrekte Parameter x die Messwerte ỹ mit Wahrscheinlichkeit m ( 1 )m ( 2 p(ỹ; x, t) := ϕ(ỹ j Φ(t j ; x)) = 2πσ 2 exp 1 m 2σ 2 [ỹ j Φ(t j ; x)] 2) auftreten. j=1 j=1 Vorlesung 6 II Freie Optimierung 5 / 29
6 Nichtlineare kleinste Quadrate Beispiel: An m Messpunkten t j werden Werte ỹ j R mit unabhängigen, (0, σ 2 )-normalverteilten Messfehlern gemessen. Für die korrekten Messwerte y j wird vermutet, dass sie sich für einen geeignet gewählten Parameter x R n als Funktion y j = Φ(t j ; x) der Messpunkte darstellen lassen. Bestimme den richtigen Parameter x R n. Hat ein Messfehler von ε R die Wahrscheinlichkeit ϕ(ε) = 1 ε2 e 2σ 2 2πσ, 2 würden für korrekte Parameter x die Messwerte ỹ mit Wahrscheinlichkeit m ( 1 )m ( 2 p(ỹ; x, t) := ϕ(ỹ j Φ(t j ; x)) = 2πσ 2 exp 1 m 2σ 2 [ỹ j Φ(t j ; x)] 2) j=1 auftreten. Betrachtet man p(ỹ; x, t) als Likelihood-Funktion dafür, dass x die korrekten Parameter sind, ist die beste Parameterwahl für ỹ und t in diesem Sinn ein Maximum-Likelihood-Schätzer x Argmax x p(ỹ; x, t). j=1 Vorlesung 6 II Freie Optimierung 6 / 29
7 Nichtlineare kleinste Quadrate Beispiel: An m Messpunkten t j werden Werte ỹ j R mit unabhängigen, (0, σ 2 )-normalverteilten Messfehlern gemessen. Für die korrekten Messwerte y j wird vermutet, dass sie sich für einen geeignet gewählten Parameter x R n als Funktion y j = Φ(t j ; x) der Messpunkte darstellen lassen. Bestimme den richtigen Parameter x R n. Hat ein Messfehler von ε R die Wahrscheinlichkeit ϕ(ε) = 1 ε2 e 2σ 2 2πσ, 2 würden für korrekte Parameter x die Messwerte ỹ mit Wahrscheinlichkeit m ( 1 )m ( 2 p(ỹ; x, t) := ϕ(ỹ j Φ(t j ; x)) = 2πσ 2 exp 1 m 2σ 2 [ỹ j Φ(t j ; x)] 2) j=1 auftreten. Betrachtet man p(ỹ; x, t) als Likelihood-Funktion dafür, dass x die korrekten Parameter sind, ist die beste Parameterwahl für ỹ und t in diesem Sinn ein Maximum-Likelihood-Schätzer x Argmax x p(ỹ; x, t). min f (x) := 1 2 m j=1 j=1 r 2 j (x) mit r j (x) := ỹ j Φ(t j ; x). Vorlesung 6 II Freie Optimierung 7 / 29
8 Spezialfall: Lineare kleinste Quadrate Sind alle r j linear/affin, also r j (x) = a j x b j : min x f (x) = 1 2 m r j (x) 2 = 1 2 Ax b 2 mit A R m n. j=1 Vorlesung 6 II Freie Optimierung 8 / 29
9 Spezialfall: Lineare kleinste Quadrate Sind alle r j linear/affin, also r j (x) = a j x b j : min x f (x) = 1 2 m r j (x) 2 = 1 2 Ax b 2 mit A R m n. j=1 Wegen 1 2 Ax b 2 = 1 2 (Ax b)t (Ax b) = 1 2 x T A T Ax x T A T b bt b und A T A 0, ist das Problem konvex quadratisch, und f (x) = 0 ist notwendige und hinreichende Optimalitätsbedingung. x ist Optimallösung x erfüllt die Normalgleichungen A T Ax = A T b. Vorlesung 6 II Freie Optimierung 9 / 29
10 Spezialfall: Lineare kleinste Quadrate Sind alle r j linear/affin, also r j (x) = a j x b j : min x f (x) = 1 2 m r j (x) 2 = 1 2 Ax b 2 mit A R m n. j=1 Wegen 1 2 Ax b 2 = 1 2 (Ax b)t (Ax b) = 1 2 x T A T Ax x T A T b bt b und A T A 0, ist das Problem konvex quadratisch, und f (x) = 0 ist notwendige und hinreichende Optimalitätsbedingung. x ist Optimallösung x erfüllt die Normalgleichungen A T Ax = A T b. Da A T A 0, bieten sich viele numerische Verfahren zur Lösung an: Cholesky-Faktorisierung von A T A (mit Pivotisieren), QR-Faktorisierung von A (recht stabil, wird aber dicht besetzt), SVD-Dekomposition (am stabilsten und teuersten) Präkonditionierte CG-Verfahren (PCG) (für Näherungslösung im large scale-bereich, falls Av und A T w billig) Vorlesung 6 II Freie Optimierung 10 / 29
11 Einschub: Jacobimatrix Für eine Funktion g : R n R m mit g(x) = (g 1 (x),..., g m (x)) T ist J g (x) = g 1 g 1 x 1 (x)... x n (x)..... g m g x 1 (x)... m x n (x) die Jacobimatrix von g(x) im Punkt x. = g 1 (x) T. g m (x) T Vorlesung 6 II Freie Optimierung 11 / 29
12 Einschub: Jacobimatrix Für eine Funktion g : R n R m mit g(x) = (g 1 (x),..., g m (x)) T ist J g (x) = g 1 g 1 x 1 (x)... x n (x)..... g m g x 1 (x)... m x n (x) = g 1 (x) T. g m (x) T die Jacobimatrix von g(x) im Punkt x. So ist z.b. 2 f (x) = J f (x). Vorlesung 6 II Freie Optimierung 12 / 29
13 Einschub: Jacobimatrix Für eine Funktion g : R n R m mit g(x) = (g 1 (x),..., g m (x)) T ist J g (x) = g 1 g 1 x 1 (x)... x n (x)..... g m g x 1 (x)... m x n (x) = g 1 (x) T. g m (x) T die Jacobimatrix von g(x) im Punkt x. So ist z.b. 2 f (x) = J f (x). g(x + h) = g(x) + J g (x)h + o(h) ist das lineare Modell von g im Punkt x. Vorlesung 6 II Freie Optimierung 13 / 29
14 Nichtlineare kleinste Quadrate mit kleinen Residuen min x f (x) := 1 2 r(x) 2 = 1 2 m j=1 r 2 j (x) mit r(x) = r 1 (x). r m (x) und in einer Umgebung von x sei r(x) klein (=kleine Residuen). Vorlesung 6 II Freie Optimierung 14 / 29
15 Nichtlineare kleinste Quadrate mit kleinen Residuen min x f (x) := 1 2 r(x) 2 = 1 2 m j=1 r 2 j (x) mit r(x) = r 1 (x). r m (x) und in einer Umgebung von x sei r(x) klein (=kleine Residuen). Betrachte Gradienten und Hessematrix von f (Kettenregel): f (x) = m j=1 r j(x) r j (x) = J r (x) T r(x) Vorlesung 6 II Freie Optimierung 15 / 29
16 Nichtlineare kleinste Quadrate mit kleinen Residuen min x f (x) := 1 2 r(x) 2 = 1 2 m j=1 r 2 j (x) mit r(x) = r 1 (x). r m (x) und in einer Umgebung von x sei r(x) klein (=kleine Residuen). Betrachte Gradienten und Hessematrix von f (Kettenregel): f (x) = m j=1 r j(x) r j (x) = J r (x) T r(x) 2 f (x) = m j=1 r j(x) r j (x) T + m j=1 r j(x) 2 r j (x) = J r (x) T J r (x) + m j=1 r j(x) 2 r j (x) J r (x) T J r (x) }{{} klein J r (x) T J r (x) liefert eine gute Näherung für die Hessematrix. Vorlesung 6 II Freie Optimierung 16 / 29
17 Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren in der freien Optimierung 7Line-Search-Verfahren 8Gradienten-Verfahren und Skalierung 9Quasi-Newton-Verfahren 10Trust-Region-Verfahren 11Das Verfahren der konjugierten Gradienten 12Inexakte Newton-Verfahren 13Nichtlineare kleinste Quadrate 14Gauss-Newton-Verfahren 15Numerisches Differenzieren Vorlesung 6 II Freie Optimierung 17 / 29
18 Das Gauss-Newton-Verfahren Zur Lösung von min x f (x) := 1 2 r(x) 2 mit r : R n R m wähle statt der Newton-Schrittrichtung 2 f k hk N = f k die Gauss-Newton-Richtung J T k J k h GN k = J T k r k, wobei J k := J r (x (k) ), r k := r(x (k) ) Vorlesung 6 II Freie Optimierung 18 / 29
19 Das Gauss-Newton-Verfahren Zur Lösung von min x f (x) := 1 2 r(x) 2 mit r : R n R m wähle statt der Newton-Schrittrichtung 2 f k hk N = f k die Gauss-Newton-Richtung J T k J k h GN k = J T k r k, wobei J k := J r (x (k) ), r k := r(x (k) ) Vorteile: Es muss keine zweite Ableitung von r(x) berechnet werden. Ist r k klein (kleine Residuen), ist J T k J k gute Näherung für 2 f. Vorlesung 6 II Freie Optimierung 19 / 29
20 Das Gauss-Newton-Verfahren Zur Lösung von min x f (x) := 1 2 r(x) 2 mit r : R n R m wähle statt der Newton-Schrittrichtung 2 f k hk N = f k die Gauss-Newton-Richtung J T k J k h GN k = J T k r k, wobei J k := J r (x (k) ), r k := r(x (k) ) Vorteile: Es muss keine zweite Ableitung von r(x) berechnet werden. Ist r k klein (kleine Residuen), ist Jk TJ k gute Näherung für 2 f. Ist Rang(J k ) = n (d.h. Jk TJ k 0) und f k 0, so ist hk GN Abstiegsrichtung: (hk GN ) T f k = (hk GN ) T Jk T r k = (hk GN ) T Jk TJ k hk GN = J k hk GN 2 < 0, denn wegen Jk TJ k 0 ist J k hk GN = 0 Jk T r k = f k = 0. Vorlesung 6 II Freie Optimierung 20 / 29
21 Das Gauss-Newton-Verfahren Zur Lösung von min x f (x) := 1 2 r(x) 2 mit r : R n R m wähle statt der Newton-Schrittrichtung 2 f k hk N = f k die Gauss-Newton-Richtung J T k J k h GN k = J T k r k, wobei J k := J r (x (k) ), r k := r(x (k) ) Vorteile: Es muss keine zweite Ableitung von r(x) berechnet werden. Ist r k klein (kleine Residuen), ist Jk TJ k gute Näherung für 2 f. Ist Rang(J k ) = n (d.h. Jk TJ k 0) und f k 0, so ist hk GN Abstiegsrichtung: (hk GN ) T f k = (hk GN ) T Jk T r k = (hk GN ) T Jk TJ k hk GN = J k hk GN 2 < 0, denn wegen Jk TJ k 0 ist J k hk GN = 0 Jk T r k = f k = 0. Die Gleichung für hk GN hat die Form A T Ax = A T b (Normalgleichung) hk GN ist Lösung des linearen Kleinste-Quadrate-Problems min h Jk T h r k 2 alle numerischen Verfahren des linearen Falls sind verwendbar. Vorlesung 6 II Freie Optimierung 21 / 29
22 Das Gauss-Newton-Verfahren Zur Lösung von min x f (x) := 1 2 r(x) 2 mit r : R n R m wähle statt der Newton-Schrittrichtung 2 f k hk N = f k die Gauss-Newton-Richtung J T k J k h GN k = J T k r k, wobei J k := J r (x (k) ), r k := r(x (k) ) Vorteile: Es muss keine zweite Ableitung von r(x) berechnet werden. Ist r k klein (kleine Residuen), ist Jk TJ k gute Näherung für 2 f. Ist Rang(J k ) = n (d.h. Jk TJ k 0) und f k 0, so ist hk GN Abstiegsrichtung: (hk GN ) T f k = (hk GN ) T Jk T r k = (hk GN ) T Jk TJ k hk GN = J k hk GN 2 < 0, denn wegen Jk TJ k 0 ist J k hk GN = 0 Jk T r k = f k = 0. Die Gleichung für hk GN hat die Form A T Ax = A T b (Normalgleichung) hk GN ist Lösung des linearen Kleinste-Quadrate-Problems min h Jk T h r k 2 alle numerischen Verfahren des linearen Falls sind verwendbar. Ist Rang(J k ) < n, verwendet man im Levenberg-Marquardt-Verfahren (Jk T J k + λi )h = J k r k, mit ähnlichen Anpassungsregeln für λ wie für die Trust-Region. [Interpretiere λ als Lagrange-Multiplikator für die Trust-Region-Constraint.] Vorlesung 6 II Freie Optimierung 22 / 29
23 Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren in der freien Optimierung 7Line-Search-Verfahren 8Gradienten-Verfahren und Skalierung 9Quasi-Newton-Verfahren 10Trust-Region-Verfahren 11Das Verfahren der konjugierten Gradienten 12Inexakte Newton-Verfahren 13Nichtlineare kleinste Quadrate 14Gauss-Newton-Verfahren 15Numerisches Differenzieren Vorlesung 6 II Freie Optimierung 23 / 29
24 Wie berechnet man f ( 2 f ) für das Orakel 1. (2.) Ordnung? Vorlesung 6 II Freie Optimierung 24 / 29
25 Wie berechnet man f ( 2 f ) für das Orakel 1. (2.) Ordnung? Falls f analytisch vorliegt: von Hand differenzieren oder Matlab, Maple,... nutzen Falls f nur als Unterprogramm gegeben ist oder symbolisches Differenzieren fehlschlägt: Numerisches Differenzieren Automatisches Differenzieren (falls Source-Code verfügbar) Für beides gibt es kommerzielle und frei verfügbare Software. Vorlesung 6 II Freie Optimierung 25 / 29
26 Numerisches Differenzieren Für die Berechnung von f ( x) werden die partiellen Ableitungen durch Differenzenquotienten angenähert [Vorsicht: Stellenauslöschung!]: Vorwärtsdifferenz f ( x) f ( x + he i) f ( x) x i h zentrale Differenz f ( x) f ( x + he i) f ( x he i ) x i 2h Näherung 1. Ordnung Näherung 2. Ordnung Vorlesung 6 II Freie Optimierung 26 / 29
27 Vorwärtsdifferenz Vorwärtsdifferenz f ( x) f ( x + he i) f ( x) x i h Näherung 1. Ordnung Zum Problem der Stellenauslöschung im Zähler: Numerik: Sei ε das Maschinenepsilon, also die größte Fließkomma-Zahl mit float(1 + ε)=float(1). Dann liefert die Wahl h = ε = ε 1 2 das beste Ergebnis. Damit wird f x i ( x) bis auf einen Fehler der Größe const h genau bestimmt (oft zu ungenau). Vorlesung 6 II Freie Optimierung 27 / 29
28 Zentrale Differenz zentrale Differenz f ( x) f ( x + he i) f ( x he i ) x i 2h Näherung 2. Ordnung Zum Problem der Stellenauslöschung im Zähler: Numerik: Sei ε das Maschinenepsilon, also die größte Fließkomma-Zahl mit float(1 + ε)=float(1). Dann liefert die Wahl h = ε 2 3 das beste Ergebnis. Damit wird f x i ( x) bis auf einen Fehler der Größe const h 2 genau bestimmt. Vorlesung 6 II Freie Optimierung 28 / 29
29 Praktische Aspekte des Numerischen Differenzierens Bei der Berechung von 2 f oder der Jacobimatrix J g einer Funktion g : R n R m rentiert es sich zu untersuchen, ob eine eventuelle Dünnbesetztheit (viele Nullen) der Matrizen genutzt werden kann, um die Anzahl der Funktionsauswertungen zu reduzieren. Dies wird hier nicht weiter vertieft. Vorlesung 6 II Freie Optimierung 29 / 29
Optimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den
MehrÜbungen zur Numerischen Mathematik 2 Sommersemester 2014. Übungsblatt 13
Universität Heidelberg Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Prof. Dr. Dres. h.c. Hans Georg Bock Dr. Christian Kirches Dipl.-Phys. Simon Lenz Übungen zur Numerischen Mathematik 2 Sommersemester
MehrÜbungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009
Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag
MehrComputer Vision: Optische Flüsse
Computer Vision: Optische Flüsse D. Schlesinger TUD/INF/KI/IS Bewegungsanalyse Optischer Fluss Lokale Verfahren (Lukas-Kanade) Globale Verfahren (Horn-Schunck) (+ kontinuierliche Ansätze: mathematische
MehrNichtlineare Optimierungsprobleme mit Komplexität
Definition eines Nichtlinearen Optimierungsproblemes (NLP) min f (x) bzw. min f (x) s.d. x S x S wobei die zulässige Menge S R n typischerweise definiert ist durch S {x R n : h(x) =, c(x) } für Gleichungs-
MehrMathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz
Mathematik für Bioinformatik und Systembiologie - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz WS 2009/10 Universität Freiburg Dieses Vorlesungsskript ist auf der Basis von Vorlesungen
MehrOptimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg
Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei
MehrKAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:
KAPITEL 4 Lineare Ausgleichsrechnung Beispiel 41 Das Ohmsche Gesetz: Eine Meßreihe von Daten: U = RI (U i, I i ) (Spannung, Stromstärke), i = 1,, m Aufgabe: man bestimme aus diesen Meßdaten den Widerstand
MehrTeil II. Nichtlineare Optimierung
Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene
MehrOptimalitätskriterien
Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen
MehrMathematik 1 für Wirtschaftsinformatik
Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration
MehrOptimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen
Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes
Mehr13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen.
13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. Sie heißt linear, wenn sie die Form y (n) + a n 1 y (n 1)
MehrOptimierung. Florian Jarre Josef Stoer. Springer
2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Florian Jarre Josef Stoer Optimierung Springer Inhaltsverzeichnis
MehrOptimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz
Optimale Steuerung Kevin Sieg Fachbereich für Mathematik und Statistik Universität Konstanz 14. Juli 2010 1 / 29 Aufgabenstellung 1 Aufgabenstellung Aufgabenstellung 2 Die zusammengesetzte Trapezregel
MehrElemente der Analysis I Kapitel 2: Einführung II, Gleichungen
Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Prof. Dr. Volker Schulz Universität Trier / FB IV / Abt. Mathematik 8. November 2010 http://www.mathematik.uni-trier.de/ schulz/elan-ws1011.html
MehrDie CUTEr Testbibliothek
Die CUTEr Testbibliothek Slide 1 Motivation Softwarepakete mit vollkommen verschiedenen Anwendungsschwerpunkten Optimierung entweder nur einer von vielen Schwerpunkten oder sogar nur Nebenprodukt zur Lösung
MehrAllgemeine Regressionsanalyse. Kovariablen / Prädiktoren / unabhängige Variablen X j R d, evtl. deterministisch
Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 9.1 Allgemeine Regressionsanalyse Daten (X j, Y j ), j = 1,..., N unabhängig Kovariablen / Prädiktoren / unabhängige Variablen X j R d, evtl.
MehrKlausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik
Ludwig Fahrmeir, Nora Fenske Institut für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik 29. März 21 Hinweise:
MehrKevin Caldwell. 18.April 2012
im Rahmen des Proseminars Numerische Lineare Algebra von Prof.Dr.Sven Beuchler 18.April 2012 Gliederung 1 2 3 Mathematische Beschreibung von naturwissenschaftlich-technischen Problemstellungen führt häufig
MehrStochastische Eingangsprüfung, 17.05.2008
Stochastische Eingangsprüfung, 17.5.8 Wir gehen stets von einem Wahrscheinlichkeitsraum (Ω, A, P) aus. Aufgabe 1 ( Punkte) Sei X : Ω [, ) eine integrierbare Zufallsvariable mit XdP = 1. Sei Q : A R, Q(A)
Mehr17. Penalty- und Barriere-Methoden
H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende
MehrDie Laufzeit muss nun ebenfalls in Monaten gerechnet werden und beträgt 25 12 = 300 Monate. Damit liefert die Sparkassenformel (zweiter Teil):
Lösungen zur Mathematikklausur WS 2004/2005 (Versuch 1) 1.1. Hier ist die Rentenformel für gemischte Verzinsung (nachschüssig) zu verwenden: K n = r(12 + 5, 5i p ) qn 1 q 1 = 100(12 + 5, 5 0, 03)1, 0325
MehrNichtlineare Optimierung ohne Nebenbedingungen
Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt
MehrWeiterbildungskurs Stochastik
Hansruedi Künsch Seminar für Statistik Departement Mathematik, ETH Zürich 24. Juni 2009 Inhalt STATISTIK DER BINOMIALVERTEILUNG 1 STATISTIK DER BINOMIALVERTEILUNG 2 Fragestellungen Typische Fragestellungen
MehrEffiziente numerische Methoden in der Elasto-Plastizität
Karlsruhe Institute of Technology Effiziente numerische Methoden in der Elasto-Plastizität Christian Wieners Institut für Angewandte und Numerische Mathematik, Karlsruhe KIT University of the State of
MehrOptimierung mit Matlab
Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof. Dr. L. Cromme Computerbasierte Mathematische Modellierung für Mathematiker, Wirtschaftsmathematiker, Informatiker im Wintersemester
MehrVorkurs Mathematik Übungen zu Polynomgleichungen
Vorkurs Mathematik Übungen zu en 1 Aufgaben Lineare Gleichungen Aufgabe 1.1 Ein Freund von Ihnen möchte einen neuen Mobilfunkvertrag abschließen. Es gibt zwei verschiedene Angebote: Anbieter 1: monatl.
MehrEntwurf robuster Regelungen
Entwurf robuster Regelungen Kai Müller Hochschule Bremerhaven Institut für Automatisierungs- und Elektrotechnik z P v K Juni 25 76 5 OPTIMALE ZUSTANDSREGELUNG 5 Optimale Zustandsregelung Ein optimaler
Mehr3. Grundlagen der Linearen Programmierung
3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations
MehrMonte Carlo Methoden in Kreditrisiko-Management
Monte Carlo Methoden in Kreditrisiko-Management P Kreditportfolio bestehend aus m Krediten; Verlustfunktion L = n i=1 L i; Die Verluste L i sind unabhängig bedingt durch einen Vektor Z von ökonomischen
MehrBildverarbeitung Herbstsemester 2012. Kanten und Ecken
Bildverarbeitung Herbstsemester 01 Kanten und Ecken 1 Inhalt Einführung Kantendetektierung Gradientenbasierende Verfahren Verfahren basierend auf der zweiten Ableitung Eckpunkterkennung Harris Corner Detector
MehrKommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler
Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Wintersemester 3/4 (.3.4). (a) Für z = + i und z = 3 4i berechne man z z und z z. Die Ergebnisse sind in kartesischer Form anzugeben.
MehrKapitel 15: Differentialgleichungen
FernUNI Hagen WS 00/03 Kapitel 15: Differentialgleichungen Differentialgleichungen = Gleichungen die Beziehungen zwischen einer Funktion und mindestens einer ihrer Ableitungen herstellen. Kommen bei vielen
MehrHöhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik
Höhere Mathematik 3 Apl. Prof. Dr. Norbert Knarr FB Mathematik Wintersemester 2015/16 4. Homogene lineare Dierentialgleichungen 4.1. Grundbegrie 4.1.1. Denition. Es sei J R ein Intervall und a 0 ; : :
Mehr2.4 Adaptive Verfahren mit Schrittweitensteuerung
0 0 0 Euler und RK4 fuer f(t,y) = t 0. Euler RK4 /N 0 0 f(t,y) =. t 0., graduiertes Gitter RK4 /N 4 Fehler bei T = 0 3 0 4 0 5 Fehler bei T = 0 5 0 0 0 6 0 7 0 0 0 0 2 0 3 0 4 0 5 Anzahl Schritte N 0 5
Mehr2 Lineare Gleichungssysteme
Beispiel.5: Funktion von Runge (V) Beispiel Martin-Luther-Universität Halle-Wittenberg, NWF III, Institut für Mathematik Martin Arnold: Grundkurs Numerische Mathematik (WiS 27/8) Abbildung.3: Interpolation
MehrFunktionen (linear, quadratisch)
Funktionen (linear, quadratisch) 1. Definitionsbereich Bestimme den Definitionsbereich der Funktion f(x) = 16 x 2 2x + 4 2. Umkehrfunktionen Wie lauten die Umkehrfunktionen der folgenden Funktionen? (a)
MehrInstitut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II. Aufgaben und Lösungen
Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II Aufgaben und Lösungen SS 2005 Aufgaben Aufgabe 41 Ein Betrieb stellt zwei Produkte P 1 und P 2 her, die die
MehrStatistik - Fehlerrechnung - Auswertung von Messungen
2013-11-13 Statistik - Fehlerrechnung - Auswertung von Messungen TEIL I Vorbereitungskurs F-Praktikum B (Physik), RWTH Aachen Thomas Hebbeker Literatur Eindimensionaler Fall: Grundbegriffe Wahrscheinlichkeitsverteilungen:
MehrSkalare Differentialgleichungen
Kapitel 2 Skalare Differentialgleichungen 2.1 Skalare lineare Differentialgleichungen 2.2 Bernoulli und Riccati Differentialgleichungen 2.3 Differentialgleichungen mit getrennten Variablen 2.4 Exakte Differentialgleichungen
MehrHöhere Mathematik III für Wirtschaftsinformatiker
TU Ilmenau Institut für Mathematik Prof. Dr. S. Vogel Höhere Mathematik III für Wirtschaftsinformatiker Funktionen von mehreren Variablen. Grenzwerte und Stetigkeit Betrachtet werden Funktionen f : D f
Mehrε heteroskedastisch BINARY CHOICE MODELS Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS?
BINARY CHOICE MODELS 1 mit Pr( Y = 1) = P Y = 0 mit Pr( Y = 0) = 1 P Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS? Y i = X i β + ε i Probleme: Nonsense Predictions
MehrGleichungen Lösen. Ein graphischer Blick auf Gleichungen
Gleichungen Lösen Was bedeutet es, eine Gleichung zu lösen? Was ist überhaupt eine Gleichung? Eine Gleichung ist, grundsätzlich eine Aussage über zwei mathematische Terme, dass sie gleich sind. Ein Term
MehrEinführung in die Vektor- und Matrizenrechnung. Matrizen
Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:
MehrRekursionen (Teschl/Teschl 8.1-8.2)
Rekursionen (Teschl/Teschl 8.1-8.2) Eine Rekursion kter Ordnung für k N ist eine Folge x 1, x 2, x 3,... deniert durch eine Rekursionsvorschrift x n = f n (x n 1,..., x n k ) für n > k, d. h. jedes Folgenglied
MehrKaufmännische Berufsmatura 2011
Kaufmännische Berufsmatura 0 Serie : Lösungen Serie - Lösungen Prüfungsdauer: Max. zahl: 50 Minuten 00 Bewertungshinweise: Mehrfachlösungen sind nicht gestattet. Als Resultate gelten nur eindeutig gekennzeichnete
MehrProtokoll Physikalisch-Chemisches Praktikum für Fortgeschrittene
K. B. Datum des Praktikumstags: 4.12.2007 Matthias Ernst Protokoll-Datum: 8.12.2007 Gruppe 11 Assistent: T. Bentz Testat: AK-Versuch: Modellierung von verbrennungsrelevanten Prozessen Aufgabenstellung
MehrStatische Optimierung unter Gleichungsrestriktionen (Lagrange)
Kapitel 2 Statische Optimierung unter Gleichungsrestriktionen (Lagrange) 21 Einleitung/Ziel/Bedeutung/Übersicht Viele ökonomischen Fragestellungen bestehen im Kern zwar aus einem statischen Optimierungsproblem,
MehrRepetitionsaufgaben: Lineare Gleichungen
Kantonale Fachschaft Mathematik Repetitionsaufgaben: Lineare Gleichungen Zusammengestellt von Hannes Ernst, KSR Lernziele: - Lineare Gleichungen von Hand auflösen können. - Lineare Gleichungen mit Parametern
MehrLineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen
Wir betrachten in diesem Abschnitt das lineare Ausgleichsproblem Ax b 2 = min! (1) Heinrich Voss voss@tu-harburgde Hamburg University of Technology Institute for Numerical Simulation mit gegebenem A R
MehrKapitel 4: Binäre Regression
Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,
MehrFinite Differenzen und Elemente
Dietrich Marsal Finite Differenzen und Elemente Numerische Lösung von Variationsproblemen und partiellen Differentialgleichungen Mit 64 Abbildungen Springer-Verlag Berlin Heidelberg NewYork London Paris
MehrEinführung in QtiPlot
HUWagner und Julia Bek Einführung in QtiPlot 30. Juni 2011 1/13 Einführung in QtiPlot Mit Bezug auf das Liebig-Lab Praktikum an der Ludwig-Maximilians-Universität München Inhaltsverzeichnis 1 Programmeinführung
Mehr3.4 Histogramm, WENN-Funktion
3.4 Histogramm, WENN-Funktion 3.4.1 Aufgabe Ausgehend von den Lösungen der zum Aufgabenkomplex 3.3, Absenkung (s. S. 106), aufgestellten Tabellen sollen weitere Elemente der MS-Excel-Programmierung genutzt
MehrErgänzungsseminar zu "Rechenmethoden für Studierende der Chemie"
Ergänzungsseminar zu "Rechenmethoden für Studierende der Chemie" VAK 02-03-2-RM-3 Johannes Ranke Ergänzungsseminar zu "Rechenmethoden für Studierende der Chemie" p.1/13 Programm 18.4. Überblick über Software
MehrElementare Bildverarbeitungsoperationen
1 Elementare Bildverarbeitungsoperationen - Kantenerkennung - 1 Einführung 2 Gradientenverfahren 3 Laplace-Verfahren 4 Canny-Verfahren 5 Literatur 1 Einführung 2 1 Einführung Kantenerkennung basiert auf
Mehr4 Das Overlap-Konzept
4 Das Overlap-Konzept Das Overlap-Konzept wurde in [31] ausführlich beschrieben. Im folgenden werden wir die Aspekte darlegen, die nötig sind, um das Konzept zu implementieren, und werden uns dabei eng
MehrMotivation. Jede Messung ist mit einem sogenannten Fehler behaftet, d.h. einer Messungenauigkeit
Fehlerrechnung Inhalt: 1. Motivation 2. Was sind Messfehler, statistische und systematische 3. Verteilung statistischer Fehler 4. Fehlerfortpflanzung 5. Graphische Auswertung und lineare Regression 6.
MehrComputersimulation physikalischer Phänomene mit der Finite- Elemente-Methode
K.Bräuer: Computersimulation physikalischer Phänomene mit der Finiten-Elemente-Methode 1 Computersimulation physikalischer Phänomene mit der Finite- Elemente-Methode Kurt Bräuer Privatdozent am Institut
MehrÜbung 3: Einfache Graphiken und Näherungen durch Regression
Übung 3: Einfache Graphiken und Näherungen durch Regression M. Schlup, 9. August 010 Aufgabe 1 Einfache Graphik Für die abgegebene Leistung P = UI eines linearen, aktiven Zweipols mit Leerlaufspannung
MehrElGamal Verschlüsselungsverfahren (1984)
ElGamal Verschlüsselungsverfahren (1984) Definition ElGamal Verschlüsselungsverfahren Sei n ein Sicherheitsparameter. 1 Gen : (q, g) G(1 n ), wobei g eine Gruppe G der Ordnung q generiert. Wähle x R Z
MehrFinanzierung und Investition
Kruschwitz/Husmann (2012) Finanzierung und Investition 1/40 Finanzierung und Investition Kruschwitz/Husmann (2012) Oldenbourg Verlag München 7. Auflage, Kapitel 2 Kruschwitz/Husmann (2012) Finanzierung
MehrSchulinternes Curriculum. Mathematik
Gymnasium Zitadelle Schulinternes Curriculum (G 8) Stand: Schuljahr 2012/13 Gymnasium Zitadelle Schulinternes Curriculum Seite 1 EF Eingeführtes Lehrbuch: Lambacher Schweizer 10 Einführungsphase Funktionen
MehrDas Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear":
Lineare Regression Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear": Im einfachsten Fall werden mehrere Prädiktoren (oder nur
MehrMultivariate Statistik
Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)
MehrDLP. Adolphe Kankeu Tamghe papibobo@informatik.uni-bremen.de ALZAGK SEMINAR. Bremen, den 18. Januar 2011. Fachbereich Mathematik und Informatik 1 / 27
DLP Adolphe Kankeu Tamghe papibobo@informatik.uni-bremen.de Fachbereich Mathematik und Informatik ALZAGK SEMINAR Bremen, den 18. Januar 2011 1 / 27 Inhaltsverzeichnis 1 Der diskrete Logarithmus Definition
MehrWirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2013/14 Hochschule Augsburg : Gliederung 1 Aussagenlogik 2 Lineare Algebra 3 Lineare Programme 4 Folgen
MehrDas Optimierungsverfahren mit Lagrange-Multiplikatoren. Robert Koschig (www.massmatics.de), 09/2012
Das Optimierungsverfahren mit Lagrange-Multiplikatoren Robert Koschig www.massmatics.de, 9/ Inhaltsverzeichnis Motivation. Wo taucht so etwas auf?...................................... Was ist das Problem?......................................
MehrEinführung in die Geostatistik (7) Fred Hattermann (Vorlesung), hattermann@pik-potsdam.de Michael Roers (Übung), roers@pik-potsdam.
Einführung in die Geostatistik (7) Fred Hattermann (Vorlesung), hattermann@pik-potsdam.de Michael Roers (Übung), roers@pik-potsdam.de 1 Gliederung 7 Weitere Krigingverfahren 7.1 Simple-Kriging 7.2 Indikator-Kriging
MehrTheoretische Grundlagen der Informatik WS 09/10
Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3
MehrLineare Programmierung
Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in
MehrUniversität der Pharmazie
Universität der Pharmazie Institut für Pharmazie Pharmazie-Straße 1 12345 Pharmastadt Identitäts-, Gehalts- und Reinheitsbestimmung von Substanzen in Anlehnung an Methoden des Europäischen Arzneibuchs
MehrExtremwertverteilungen
Seminar Statistik Institut für Stochastik 12. Februar 2009 Gliederung 1 Grenzwertwahrscheinlichkeiten 2 3 MDA Fréchet MDA Weibull MDA Gumbel 4 5 6 Darstellung von multivariaten, max-stabilen Verteilungsfunktionen
MehrDivision Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema
Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema 2x 4 + x 3 + x + 3 div x 2 + x 1 = 2x 2 x + 3 (2x 4 + 2x 3 2x 2 ) x 3 + 2x 2 + x + 3 ( x
MehrAnalysis. mit dem Computer-Algebra-System des TI-92. Anhang 2: Gedanken zum Lehrplan. Beat Eicke und Edmund Holzherr 11.
ETH EIDGENÖSSISCHE TECHNISCHE HOCHSCHULE ZÜRICH Analysis mit dem Computer-Algebra-System des TI-92 Anhang 2: Gedanken zum Lehrplan Beat Eicke und Edmund Holzherr 11. November 1997 Eidgenössische Technische
MehrPräsenzübungsaufgaben zur Vorlesung Elementare Sachversicherungsmathematik
Präsenzübungsaufgaben zur Vorlesung Elementare Sachversicherungsmathematik Dozent: Volker Krätschmer Fakultät für Mathematik, Universität Duisburg-Essen, WS 2012/13 1. Präsenzübung Aufgabe T 1 Sei (Z 1,...,
MehrBachelorarbeit. Vergleich von Ansätzen zur numerischen Lösung von MPCCs am Beispiel eines Mautproblems
Bachelorarbeit Vergleich von Ansätzen zur numerischen Lösung von MPCCs am Beispiel eines Mautproblems Vorgelegt an der Professur für Numerische Mathematik (Partielle Differentialgleichungen) von Prof.
MehrLösung des Kleinste-Quadrate-Problems
Lösung des Kleinste-Quadrate-Problems Computergestützte Statistik Lisakowski, Christof 15.05.2009 Lisakowski, Christof ()Lösung des Kleinste-Quadrate-Problems 15.05.2009 1 / 34 Themen 1 Problemstellung
MehrPraktikum Wissenschaftliches Rechnen 3. Aufgabenblatt
Institut für Wissenschaftliches Rechnen Technische Universität Braunschweig Prof. Hermann G. Matthies, Ph. D. Dipl.-inform. Oliver Kayser-Herold Praktikum Wissenschaftliches Rechnen 3. Aufgabenblatt Wir
MehrEinführung in QtiPlot
HUWagner und Julia Bek Einführung in QtiPlot 1/11 Einführung in QtiPlot Mit Bezug auf das Liebig-Lab Praktikum an der Ludwig-Maximilians-Universität München Bei Fragen und Fehlern: jubech@cup.lmu.de Inhaltsverzeichnis
MehrModulabschlussklausur Analysis II
Modulabschlussklausur Analysis II. Juli 015 Bearbeitungszeit: 150 min Aufgabe 1 [5/10 Punkte] Es sei a R und f a : R 3 R mit f a (x, y, z) = x cos(y) + z 3 sin(y) + a 3 + (z + ay a y) cos(x) a) Bestimmen
MehrSerie 13: Online Test
D-ERDW, D-HEST, D-USYS Mathematik I HS 3 Dr. Ana Cannas Serie 3: Online Test Einsendeschluss: 3. Januar 4 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung verwenden.
MehrMonte Carlo Simulationen
Monte Carlo Simulationen Erkenntnisse durch die Erschaffung einer virtuellen Welt Stefan Wunsch 31. Mai 2014 INSTITUT FÜR EXPERIMENTELLE KERNPHYSIK (IEKP) KIT Universität des Landes Baden-Württemberg und
MehrMathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011
Mathematik für Informatiker II Christoph Eisinger Sommersemester 211 Beispiellösungen zur Probeklausur Aufgabe 1 Gegeben sind die Polynome f, g, h K[x]. Zu zeigen: Es gibt genau dann Polynome h 1 und h
MehrOptimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau
Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau Ziele: Einführung in richtige Einordnung von Optimierungsproblemen Modellierungstechniken praktische Umsetzung
MehrReproduzierbarkeit der Bachelor-Thesis
der Bachelor-Thesis Anonymisierungsverfahren: Randverteilungen und ihr statistisches Analysepotential Seminar Institut für Statistik Ludwig-Maxmilians-Universität in München Betreuung: Manuel J. A. Eugster
MehrRisikomessung und Value at Risk Wintersemester 2013/14
Risikomessung und Value at Risk Wintersemester 2013/14 Walter Sanddorf-Köhle Statistik und Ökonometrie Foliensatz Nr. 11 Version vom 24. Januar 2014 1 / 45 6.5.1 Bisherige Vorgehensweise zur Berechnung
MehrMesstechnik. Gedächnisprotokoll Klausur 2012 24. März 2012. Es wurde die Kapazität von 10 Kondensatoren gleicher Bauart gemessen:
Messtechnik Gedächnisprotokoll Klausur 2012 24. März 2012 Dokument erstellt von: mailto:snooozer@gmx.de Aufgaben Es wurde die Kapazität von 10 Kondensatoren gleicher Bauart gemessen: Index k 1 2 3 4 5
MehrMaple-Skripte. A.1 Einleitung. A.2 Explizite Zweischritt-Runge-Kutta-Verfahren. Bei der Ausführung
A Maple-Skripte A.1 Einleitung Bei der Ausführung mechanischer Rechnungen können Computeralgebra-Programme sehr nützlich werden. Wenn man genau weiß, was eingesetzt, umgeformt, zusammengefaßt oder entwickelt
Mehr