Numerische Methoden der Bayes-Inferenz. Helga Wagner Bayes Statistik WS 2010/11 338
|
|
- Albert Morgenstern
- vor 5 Jahren
- Abrufe
Transkript
1 Numerische Methoden der Bayes-Inferenz Helga Wagner Bayes Statistik WS 2010/11 338
2 Nichtkonjugierte Analyse Bei bekannter Likelihood und Priori-Verteilung kann die nichtnormierte Dichte der Posteriori-Verteilung p (ϑ y) für beliebige Werte ϑ bestimmt werden. Die normierte Posteriori-Verteilung erfordert die Bestimmung der marginalen Likelihood, d.h. des Integrals p(y) = p(y ϑ)p(ϑ)dϑ. Auch die Bestimmung des Bayes-Schätzers von h(ϑ) bei quadratischer Verlustfunktion erfordert die Berechnung eines Integrals E(h(ϑ) y) = Θ h(ϑ)p(ϑ y)dϑ = Θ h(ϑ)p(y ϑ)p(ϑ)dϑ Θ p(y ϑ)p(ϑ)dϑ Helga Wagner Bayes Statistik WS 2010/11 339
3 Nichtkonjugierte Analyse keine analytische Lösung des Integrals = numerische Integration analytische Approximation: Laplace Approximation Monte-Carlo-Methoden: Monte-Carlo-Integration, Importance sampling Markov-Chain-Monte-Carlo (MCMC) Methoden Helga Wagner Bayes Statistik WS 2010/11 340
4 Beispiel SFr Wechselkurs-Daten Modell: y i = 100(logp i logp i 1 ) t ν ( µ,σ 2 ) Likelihood: p(y µ,σ 2,ν) = Γ((ν +1)/2)N Γ(ν/2) N νπ N ( ) N/2 1 N σ 2 i=1 (1+ (y i µ) 2 ) (ν+1)/2. (37) νσ 2 = keine konjugierte Analyse möglich einfacheres Modell: y i.i.d. t 4 ( 0,σ 2 ), d.h. nur die Varianz ist unbekannt Nichtnormierte Posteriori-Dichte: p(σ 2 y) ( ) N/2 1 N ( ) 5/2 1+ y2 i p(σ 2 ) (38) σ 2 4σ 2 i=1 Helga Wagner Bayes Statistik WS 2010/11 341
5 Beispiel SFr Wechselkurs-Daten 2.5 x Posterior distribution of σ 2 6 x Posterior distribution of σ σ σ 2 Abbildung 39: SFr Wechselkurs-Daten, Modell: i.i.d. t 4 ( 0,σ 2 ) (links) und N ( 0,σ 2) (rechts); nichtnormierte Posteriori-Dichte p(σ 2 y) bei nichtinformativer Priori p(σ 2 ) 1/σ 2 Posteriori gegenüber dem Normalverteilungsmodell nach links verschoben Helga Wagner Bayes Statistik WS 2010/11 342
6 Beispiel SFr Wechselkurs-Daten Inferenz: Posteriori Erwartungswert E(ϑ y) = ϑp(ϑ y)dϑ = ϑp (ϑ y)dϑ p (ϑ y)dϑ Posteriori Varianz: Var(ϑ y) = E(ϑ 2 y) E(ϑ y) 2 E(ϑ 2 y) = ϑ 2 p(ϑ y)dϑ = ϑ 2 p (ϑ y)dϑ p (ϑ y)dϑ p (ϑ y) = p(y ϑ)p(ϑ) ist die nicht-normierte Posteriori-Verteilung. Helga Wagner Bayes Statistik WS 2010/11 343
7 Numerische Methoden der Bayes-Inferenz: Numerische Integration Helga Wagner Bayes Statistik WS 2010/11 344
8 Trapezregel Die Trapezregel für ein univariates Integral Integration b a g(x)dx = G 1 i=0 mit Knoten x 0 = a < x 1 < < x G = b b a xi+1 x i g(x)dx basiert auf stückweiser g(x)dx Approximation der Teilintegrale durch Fläche des Trapezes in einem Intervall: 1 2 (x i+1 x i ) ( g(x i )+g(x i+1 ) ) Bei gleicher Intervallbreite h = (x i+1 x i ) ist b a g(x)dx h ( 1 n 1 2 g(a)+ i=1 g(x i )+ 1 2 g(b)) Helga Wagner Bayes Statistik WS 2010/11 345
9 Beispiel: SFr Wechselkurs-Daten 1. Bestimmen der Normierungskonstanten: g(ϑ) = p (ϑ y) 2. Bestimmen von Erwartungswert und Varianz der Posteriori-Verteilung g(ϑ) = ϑp(ϑ y) bzw. g(ϑ) = (ϑ E(ϑ y)) 2 p(ϑ y) SFr Wechselkurs-Daten: y i i.i.d.t 4 ( 0,σ 2 ) E(σ 2 y) = , SD ( σ 2 y ) = Helga Wagner Bayes Statistik WS 2010/11 346
10 Newton Cotes-Formeln Wahl von m+1 äquidistanten Stützstellen x i0 = x i < x i1 < x i,m+1 = x i+1 in jedem Intervall [x i,x i+1 ] Berechnung der Funktionswerte g(x i,j ) Interpolation der m+1 Punkte (x i,j,g(x i,j )) durch ein Polynom p i (x ij ) vom Grad m Integration des Näherungspolynomes T i = xi+1 x i g(x)dx xi+1 x i p i (x)dx = m w ij g(x ij ) j=0 Helga Wagner Bayes Statistik WS 2010/11 347
11 Newton Cotes-Formeln Beispiel Simpson-Regel: m=2 Stützstellen x i0 = x i und x i1 = (x i +x i+1 )/2 xi+1 x i f(x)dx = x ( ) i+1 x i f(x i )+4f((x i +x i+1 )/2)+f(x i+1 ) 6 Durch die Newton-Cotes-Formel werden Polynome vom Grad m für ungerades m vom Grad m+1 für gerades m exakt integriert. Der Integrationsfehler hängt von der (m + 1)-ten Ableitung der zu integrierenden Funktion ab. Helga Wagner Bayes Statistik WS 2010/11 348
12 Adaptive numerische Integration adaptive Wahl der Knoten Start mit wenigen Knoten Bestimmung des Integrals Bestimmung des Integrals mit Zwischenknoten: Bereiche, in denen Integralschätzung noch stark schwankt, werden weiter zerlegt Die Knoten sind also nicht äquidistant: in schwierigen Integrationsbereichen liegen die Knoten dichter als in einfachen. Eindimensionale (auch uneigentliche) Integrale berechnet die R-Funktion integrate. Mehrdimensionale Integrale auf Rechtecksbereichen können mit der R-Funktion adaptintegrate des Packages cubature berechnet werden. Helga Wagner Bayes Statistik WS 2010/11 349
13 Adaptive numerische Integration Mögliche Probleme bei numerischer Integration: Unendlicher Integrationsbereich: Integrationsbereich abschneiden, Transformation Singularitäten: stückweise Integration, Transformation hochdimensionale Integrale numerische Probleme Helga Wagner Bayes Statistik WS 2010/11 350
14 Berechnung der marginalen Likelihood Für y 1,...,y n i.i.d. N ( 0,σ 2) ist die Likelihood p(y σ 2 1 ) = ( 2πσ 2)n/2 exp ( 1 2σ 2 n i=1 y 2 i ) Mit wachsendem n konvergiert p(y σ 2 ) gegen 0 für σ 2 > 1 bzw. gegen wenn σ 2 < 1. = Log-Likelihood ist robuster bezüglich Over-/Underflows logp(y σ 2 ) = n 2 (log(2π)+log(σ2 )) 1 2σ 2 n yi. 2 i=1 Helga Wagner Bayes Statistik WS 2010/11 351
15 Berechnung der marginalen Likelihood Beispiel: σ 2,true = 0.1: n p(y σ 2,true ) logp(y σ 2,true ) e e Inf Beispiel σ 2,true = 2: n p(y σ 2,true ) logp(y σ 2,true ) e e Helga Wagner Bayes Statistik WS 2010/11 352
16 Berechnung der marginalen Likelihood Wahl der Knoten ϑ 0,...,ϑ G Berechnung der nicht-normierten Log-posteriori-Dichte l(ϑ i ) = log(p (ϑ i y)) = log(p(y ϑ i )) log(p(ϑ i )) Bestimmen des Maximums l max = max i=0,...,g l(ϑ i) Berechnung der marginalen Likelihood als p(y M) = p (ϑ y)dϑ = exp(l max ) exp(l(ϑ) l max )dϑ Helga Wagner Bayes Statistik WS 2010/11 353
17 Berechnung der marginalen Likelihood Berechnung des Posteriori-Erwartungswertes E(ϑ y) = ϑp(ϑ y)dϑ = ϑp (ϑ y)dϑ p (ϑ y)dϑ = exp(l max) ϑexp(l(ϑ) l max )dϑ exp(l max ) exp(l(ϑ) l max )dϑ ϑexp(l(ϑ) lmax )dϑ = exp(l(ϑ) lmax )dϑ Analog: E(ϑ 2 y) = ϑ 2 exp(l(ϑ) l max )dϑ exp(l(ϑ) lmax )dϑ Helga Wagner Bayes Statistik WS 2010/11 354
18 Numerische Methoden der Bayes-Inferenz: Laplace- Approximation Helga Wagner Bayes Statistik WS 2010/11 355
19 Laplace-Approximation Gesucht sei das Integral exp( nh(x))dx wobei h(x) eine konvexe, zweimal differenzierbare Funktion ist, die ihr Minimum an der Stelle x = x hat. Für x gilt damit: h ( x) = dh( x) dx = 0 und h ( x) = d2 h( x) dx 2 > 0 Entwicklung der Funktion h(x) in Taylor-Reihe an der Stelle x ergibt h(x) = h( x)+h ( x)(x x)+ 1 2 h ( x)(x x) 2 = h( x)+ 1 2 h ( x)(x x) 2 Helga Wagner Bayes Statistik WS 2010/11 356
20 Laplace-Approximation Für das Integral ergibt sich damit exp( nh(x))dx exp( nh( x)) 2π = exp( nh( x)) nh ( x) exp( 1 2 nh ( x)(x x) 2 )du Der relative Fehler der Laplace-Approximation ist O( 1 n ). Helga Wagner Bayes Statistik WS 2010/11 357
21 Anwendung der Laplace-Approximation Die Bestimmung des Posteriori-Erwartungswertes der Funktion g(ϑ) E(g(ϑ) y) = Θ g(ϑ)p(y ϑ)p(ϑ)dϑ Θ p(y ϑ)p(ϑ)dϑ erfordert die Berechnung des Quotienten zweier Integrale mit ähnlichem Integranden. Die Laplace-Approximation für E(g(ϑ) y) ist mit einem relativen Fehler von O( 1 n 2 ) genauer als für die marginale Likelihood p(y). Helga Wagner Bayes Statistik WS 2010/11 358
22 Anwendung der Laplace-Approximation Mit nh(ϑ) = logp(y ϑ)+logp(ϑ) nq(ϑ) = logg(ϑ)+logp(y ϑ)+logp(ϑ) ist E(g(ϑ) y) = exp( nq(ϑ))dϑ exp( nh(ϑ))dϑ. Seien ˆϑ und ϑ die Minimumstellen von h(ϑ) und q(ϑ). Dann ist E(g(ϑ) y) h (ˆϑ) q ( ϑ) exp( n(q( ϑ) h(ˆϑ))). Helga Wagner Bayes Statistik WS 2010/11 359
23 Anwendung der Laplace-Approximation Beispiel Verkehrssicherheitsdaten Kinder 6-10: y i.i.d. P(µ) ges.: Laplace-Aproximation des Posteriori-Erwartungswertes Mit der konjugierten G(a 0,b 0 )-Priori ist nh(µ) = (n+b 0 )µ+(ny +a 0 1)log(µ)+c = b n µ+(a n 1)log(µ)+c nq(µ) = b n µ+a n log(µ)+c Die ersten Ableitungen erhält man als d( nh(µ)) dµ = b n + a n 1 µ und d( nq(µ)) dµ = b n + a n µ Ihre Nullstellen sind ˆµ = a n 1 b n und µ = a n b n Helga Wagner Bayes Statistik WS 2010/11 360
24 Anwendung der Laplace-Approximation Die 2. Ableitungen sind gegeben als d 2 ( nh(µ)) dµ 2 = a n 1 µ 2 d 2 ( nq(µ)) dµ 2 = a n µ 2. An der Stelle der Maxima des Integranden erhält man h (ˆµ) = b2 n a n 1 und q ( µ) = b2 n a n und damit h (ˆµ) q ( µ) = a n 1 a n Für den Exponenten n(q( µ) h(ˆµ)) erhält man n(q( µ) h(ˆµ)) = b n ( µ ˆµ) + (a n 1)(log( µ) log(ˆµ)) + log( µ) = = 1 + (a n 1)log( a n a n 1 ) + log(a n b n ) Helga Wagner Bayes Statistik WS 2010/11 361
25 Anwendung der Laplace-Approximation Damit ergibt sich die Laplace-Approximation für den Posteriori-Erwartungswert als E(µ y) = h (ˆµ) q ( µ) exp( n(q( µ) h(ˆµ))) an 1 exp( 1+(a n 1)log( a n = a n 1 ( 1+ 1 b n e a n 1 ) an 1 a n 1 a n a n a n 1 )+log(a n )) = b n Helga Wagner Bayes Statistik WS 2010/11 362
26 Anwendung der Laplace-Approximation Tabelle 17: Verkehrssicherheitsdaten Kinder 6-10;, i.i.d. P (µ) Genauigkeit der Laplace-Approximation für den Posteriori-Erwartungswert, bestimmt aus den ersten n Beobachtungen mit G(2,1)-Priori Posteriori-Mittel Approximation rel. Fehler n µ µ µ µ /µ (=n) Helga Wagner Bayes Statistik WS 2010/11 363
27 Laplace-Approximation eines p-dimensionalen Integrals Die Laplace-Approximation des p-dimensionalen Integrals I = exp( nh(x))dx R p erfolgt analog zum univariaten Fall. Eine Taylor-Reihenentwicklung an der Minimumstelle x von h(x) ergibt h(x) h( x)+ 1 2 (x x) H h (x x) wobei H h die p p-hesse-matrix an der Stelle x bezeichnet. H h = 2 h(x) x i x j x Helga Wagner Bayes Statistik WS 2010/11 364
28 Laplace-Approximation eines p-dimensionalen Integrals Die Laplace-Approximation von I ist damit gegeben als ( 2 π ) p/2 H I = exp( nh(x))dx = 1/2 exp( nh( x)) R p n Die Minimumstelle von h(x) ist i.a. nicht bekannt und muss daher zur Anwendung der Laplace-Approximation bestimmt werden. Die numerische Bestimmung von Minimum und Krümmung ist z.b. mit der R-Funktion optim möglich. Helga Wagner Bayes Statistik WS 2010/11 365
29 Erwartungswerte von Funktionen multivariater Parameter Mit und nh n (ϑ) = logp(y ϑ)+logp(ϑ) nq n (ϑ) = logg(ϑ)+logp(y ϑ)+logp(ϑ), ˆϑ = argmin ϑ h n (ϑ) und ϑ = argminϑ q n (ϑ) ist die Laplace-Approximation für den Erwartungswert von g(ϑ) gegeben als E(g(ϑ)) H h H q exp( n(q n ( ϑ) h n (ˆϑ)) ) Helga Wagner Bayes Statistik WS 2010/11 366
30 Erwartungswerte von Funktionen multivariater Parameter Dabei sind H h und H q die Hesse-Matrizen an den Minimumstellen: H h = 2 h n (ϑ) ϑ i ϑ j ˆϑ und H q = 2 q n (ϑ) ϑ i ϑ j ϑ Helga Wagner Bayes Statistik WS 2010/11 367
Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik
1 Verteilungen Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik 1.1 Diskrete Verteilungen Helga Wagner und Gero Walter Binomialverteilung: Y BiNom (n, π) Parameter: n > 0, π [0, 1] Wahrscheinlichkeitsfunktion:
MehrBayesianische Modellwahl. Helga Wagner Bayes Statistik WS 2010/11 161
Bayesianische Modellwahl Helga Wagner Bayes Statistik WS 2010/11 161 Modellwahl Problem der Modellwahl: Welches von K möglichen Modellen M 1,...,M K ist für die Daten y am besten geeignet? Klassisch: LQ-Test
MehrBayes Inferenz Schätzen und Testen von Hypothesen. Helga Wagner Bayes Statistik WS 2010/11 301
Bayes Inferenz Schätzen und Testen von Hypothesen Helga Wagner Bayes Statistik WS 2010/11 301 Bayes Punktschätzung Entscheidungstheoretischer Ansatz: Wahl des Punktschätzers ist eine Aktion, die möglicherweise
MehrBayes Prognose. Helga Wagner Bayes Statistik WS 2010/11 194
Bayes Prognose Helga Wagner Bayes Statistik WS 2010/11 194 Prognose einer weiteren Beobachtung Verkehrssicherheitsdaten Senioren: Wieviele Senioren werden in Linz im kommenden Monat getötet oder schwerverletzt?
MehrMethoden der statistischen Inferenz
Leonhard Held Methoden der statistischen Inferenz Likelihood und Bayes Unter Mitwirkung von Daniel Sabanes Bove Spektrum KJL AKADEMISCHER VERLAG Vorwort vii 1 Einführung 1 1.1 Statistische Inferenz 1 1.2
MehrMarkov Chain Monte Carlo Verfahren. Helga Wagner Bayes Statistik WS 2010/11 407
Markov Chain Monte Carlo Verfahren Helga Wagner Bayes Statistik WS 2010/11 407 Einführung Simulationsbasierte Bayes-Inferenz erfordert Ziehungen aus der Posteriori- Verteilung MCMC-Verfahren ermöglichen
MehrKAPITEL 10. Numerische Integration
KAPITEL 10. Numerische Integration 10.1 Einleitung Sei Es gilt I Ĩ = b I = b a a f(x) f(x) dx f(x) dx, Ĩ = b b a f(x) dx. a f(x) f(x) dx (b a) f f. I Ĩ I (b a) f f b a f(x) dx = ba f dx b a f(x) dx f f
MehrKonjugierte Analyse einfacher Modelle Poisson-Modelle. Helga Wagner Bayes Statistik WS 2010/11 31
Konjugierte Analyse einfacher Modelle Poisson-Modelle Helga Wagner Bayes Statistik WS 2010/11 31 Example: Verkehrssicherheitsdaten 6 Time Series Plot 15 Time Series Plot 5 4 10 3 2 5 1 0 0 20 40 60 80
Mehr3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)
3.4 Bayes-Verfahren 203 3.4.1 Begrifflicher Hintergrund Satz 3.22 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f
Mehr4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion
4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
Mehr5. Numerische Differentiation. und Integration
5. Numerische Differentiation und Integration 1 Numerische Differentiation Problemstellung: Gegeben ist eine differenzierbare Funktion f : [a,b] R und x (a,b). Gesucht sind Näherungen für die Ableitungen
Mehr1/26. Integration. Numerische Mathematik 1 WS 2011/12
1/26 Integration Numerische Mathematik 1 WS 2011/12 Notation 2/26 Die Abbildung I b a : C([a, b]) R gegeben durch Ia b (f ) := beschreibt die Integration. b a f (x)dx, Um das Integral I(f ) zu approximieren
Mehr5. Numerische Differentiation. und Integration
5. Numerische Differentiation und Integration 1 Numerische Differentiation Problemstellung: Gegeben ist eine differenzierbare Funktion f : [a,b] R und x (a,b). Gesucht sind Näherungen für die Ableitungen
MehrEinführung in die Bayes-Statistik
Einführung in die Bayes-Statistik Volker Schmid, Clara Happ 27. 30. März 2017 Institut für Statistik Ludwig Maximilians Universität München 1 Inhaltsverzeichnis 1 Der Satz von Bayes 3 1.1 Wahrscheinlichkeitsrechnung......................
MehrKlausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016
Verständnisfragen-Teil ( Punkte) Jeder der Verständnisfragenblöcke besteht aus Verständnisfragen. Werden alle Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block Punkte.
MehrDas Bayes'sche Prinzip
Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem
Mehr3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.19 (allgemeines Theorem von Bayes)
3.4 Bayes-Verfahren 202 3.4.1 Begrifflicher Hintergrund Satz 3.19 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f
Mehr5 Interpolation und Approximation
5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)
MehrVF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.
IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrStatistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg
Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Dr. Stan Lai und Prof. Markus Schumacher Physikalisches Institut Westbau 2 OG Raum 008 Telefonnummer
MehrVarianzkomponentenschätzung
Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler
MehrNumerik SS Übungsblatt 3
PROF. DR. BERND SIMEON CHRISTIAN GOBERT THOMAS MÄRZ Numerik SS 9 Übungsblatt 3 Aufgabe 1 Clenshaw-Curtis-Quadratur Wie bereits bei der Polynominterpolation bietet es sich auch zur Quadratur an Tschebysheff-
MehrGMA. Grundlagen Mathematik und Analysis. Nullstellen und Fixpunkte Reelle Funktionen 3. Christian Cenker Gabriele Uchida
GMA Grundlagen Mathematik und Analysis Reelle Funktionen 3 Christian Cenker Gabriele Uchida Data Analytics and Computing Nullstellen cos log : 0, 0,? 1 Fixpunkte Beispiel 1 Beispiel 2 1 0 0 und 1 1sin,?
Mehr5 Numerische Mathematik
6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul
MehrTechnische Numerik Numerische Integration
W I S S E N T E C H N I K L E I D E N S C H A F T Technische Numerik Numerische Integration Peter Gangl Institut für Numerische Mathematik, Technische Universität Graz c Alle Rechte vorbehalten. Nachdruck
MehrModulprüfung Numerische Mathematik 1
Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel
Mehr5 Allgemeine Verfahren zum Testen von Hypothesen
5 Allgemeine Verfahren zum Testen von Hypothesen 5.1 Likelihood Schätzung für multivariate Daten Statistisches Modell: Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ).
MehrÜbungsblatt 3 Musterlösung
Numerik gewöhnlicher Differentialgleichungen MA4 - SS6 Übungsblatt Musterlösung Sei M,N N und f C M+N+ (B) eine komplexe Funktion, B eine kompakte Menge. Die Padé Approximation PN M (f)(x) ist die rationale
MehrNumerik für Ingenieure I Wintersemester 2008
1 / 32 Numerik für Ingenieure I Wintersemester 2008 J. Michael Fried Lehrstuhl Angewandte Mathematik III 23.1.2009 2 / 32 Wiederholung Stückweise Polynominterpolation Stückweise lineare Interpolierende
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrGauß-Prozess-Regression
Bayessche Regression und Gaußprozesse Dr. rer. nat. Johannes Riesterer Motivation Kriging Der südafrikanische Bergbauingenieur Danie Krige versuchte 1951, eine optimale Interpolationsmethode für den Bergbau
Mehr(Reine) Bayes-Punktschätzung
233 3.4.3 (Reine) Bayes-Punktschätzung Def. 3.33 (MPD-Schätzung) Gegeben eine Beobachtung x und die posteriori Verteilung mit Dichte bzw. Wahrscheinlichkeitsfunktion π(ϑ x) heißt ϑ mit π(ˆϑ x) = max ϑ
MehrModellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch
Modellanpassung Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München SS 2009 Statistik Statistik Wahrscheinlichkeitsrechnung: Gesetze bekannt,
MehrInterpolation, numerische Integration
Interpolation, numerische Integration 8. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 8. Mai 2014 Gliederung 1 Interpolation polynomial Spline 2 Numerische
MehrMathematik für Wirtschaftswissenschaftler im WS 12/13 Lösungen zu den Übungsaufgaben Blatt 12
Mathematik für Wirtschaftswissenschaftler im WS /3 Lösungen zu den Übungsaufgaben Blatt Aufgabe 5 Welche der folgenden Matrizen sind positiv bzw negativ definit? A 8, B 3 7 7 8 9 3, C 7 4 3 3 8 3 3 π 3
MehrInstitut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER
Institut für Statistik der LMU FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER 2003 2003 Inhaltsverzeichnis 1 Elementare Wahrscheinlichkeitsrechnung 1 1.1 Die Axiome von Kolmogorov...........................
Mehr2. Gauß-Integration. Prof. Dr. Wandinger 4. Scheibenelemente FEM 4.2-1
Die analytische Integration der Steifigkeitsmatrix für das Rechteckelement ist recht mühsam. Für Polynome gibt es eine einfachere Methode zur Berechnung von Integralen, ohne dass die Stammfunktion benötigt
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.
Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;
MehrStatistische Entscheidungstheorie
KAPITEL 6 Statistische Entscheidungstheorie 6.1. Verlustfunktion, Risiko, Minimax Schätzer Es sei (, A, (P θ ) θ ) ein statistisches Modell. Das heißt, ist die Menge aller möglichen Stichproben, A ist
MehrLügen für Fortgeschrittene Bayesianische Statistik in der Ökonom(etr)ie
Lügen für Fortgeschrittene Bayesianische Statistik in der Ökonom(etr)ie Mathias Moser Forschungsinstitut Verteilungsfragen Research Institute Economics of Inequality WU Wien AG-Tagung Mathematik St. Pölten,
Mehr2.Tutorium Multivariate Verfahren
2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung
MehrVF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b.
NumaMB F14 Verständnisfragen-Teil (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Bewertung: Vier Fragen richtig beantwortet
MehrVERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN
KAPITEL 15 VETEILUNGEN VON FUNKTIONEN EINE ZUFALLSVAIABLEN In diesem Kapitel geht es darum, die Verteilungen für gewisse Funktionen von Zufallsvariablen zu bestimmen. Wir werden uns auf den Fall absolut
Mehr(x x j ) R m [x] (3) x x j x k x j. R m [x]. (4)
33 Interpolation 147 33 Interpolation In vielen praktischen Anwendungen der Mathematik treten Funktionen f auf, deren Werte nur näherungsweise berechnet werden können oder sogar nur auf gewissen endlichen
Mehri =1 i =2 i =3 x i y i 4 0 1
Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x
MehrBayes Inferenz. Helga Wagner Bayes Statistik WS 2010/11 245
Bayes Inferenz Helga Wagner Bayes Statistik WS 2010/11 245 Statistische Inferenz Beobachtungen: Daten y = (y 1,...,y n ) Y Annahme: Daten werden von einem (stochastischen) Modell spezifiziert durch einen
Mehr6 Weiterer Ausbau der Differentialrechnung
6 Weiterer Ausbau der Differentialrechnung 6.1 Mittelwertsätze, Extremwerte, Satz von Taylor Motivation: Wie wählt man Höhe und Durchmesser einer Konservendose, so dass bei festem Volumen V möglichst wenig
Mehr3.3 Methoden zur Evaluierung von Schätzern
3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,
MehrÜbungsblatt 4 Musterlösung
Numerik gewöhnlicher Differentialgleichungen MA2304 - SS6 Übungsblatt 4 Musterlösung Aufgabe 7 (Nullstellen als Eigenwerte) Die Polynome {S n } n=0,,2,, S n P n, mit führem Koeffizienten eins, heißen Orthogonalpolynome
MehrKAPITEL 8. Interpolation
KAPITEL 8. Interpolation 8.2 Lagrange-Interpolationsaufgabe für Polynome Wir beschränken uns auf die Lagrange-Interpolation mit Polynomen. Der Raum der Polynome vom Grad n: Stützstellen: Π n = { n j=0
Mehr3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
MehrNumerische Verfahren
Numerische Verfahren Jens-Peter M. Zemke zemke@tu-harburg.de Institut für Numerische Simulation Technische Universität Hamburg-Harburg 15.04.2008 TUHH Jens-Peter M. Zemke Numerische Verfahren Numerische
Mehr6. Polynom-Interpolation
6. Polynom-Interpolation 1 6.1. Klassische Polynom-Interpolation 2 6.2. Lösung mit Hilfe Lagrange scher Basisfunktionen 3 6.3. Lösung mit Hilfe Newton scher Basisfunktionen 4 6.4. Fehlerabschätzung für
MehrStatistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie
Ereignisse, Zufallsvariablen und Wahrscheinlichkeiten 1/43 Statistik für Informatiker, SS 2018 1 Grundlagen aus der Wahrscheinlichkeitstheorie 1.1 Ereignisse, Zufallsvariablen und Wahrscheinlichkeiten
MehrUnivariate Analysis. Analysis und nichtlineare Modelle Sommersemester
Analysis und nichtlineare Modelle Sommersemester 9 5 Univariate Analysis C. Berechnen Sie ohne Taschenrechner(!). Runden Sie die Ergebnisse auf ganze Zahlen. (a) 7 :, (b) 795 :.. Berechnen Sie ohne Taschenrechner(!):
MehrWahrscheinlichkeit & Statistik Musterlösung Serie 7
ETH Zürich FS 4 D-MATH Koordinator Prof. Dr. J. Teichmann Mayra Bermúdez C. Wahrscheinlichkeit & Statistik Musterlösung Serie 7. a) P[t < T t + h T > t] λ(t) lim h h P[{t < T t + h} {T > t}] lim h P[T
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrInstitut für Geometrie und Praktische Mathematik
RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben).
MehrProbe-Klausur 1 Mathematik f. Bau-Ing + Chem. Modul1
Probe-Klausur 1 Mathematik f. Bau-Ing + Chem. Modul1 1. (a) Lösen Sie das lineare Gleichungssystem für die Werte a = 1, b = 2. x + 3y + 2z = 0 2x + ay + 3z = 1 3x + 4y + z = b (b) Für welche Werte von
MehrWahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
MehrRechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse
Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse Karlsruher Institut für Technologie Ulrich Husemann Institut für Experimentelle Kernphysik, Karlsruher Institut für Technologie
Mehreps für alle x D. 4. Die Zahl 256 ist in M(2, 4, 6, 6) exakt darstellbar.
IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H13 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 1. Dezember 21 1 Integralrechnung Flächeninhalt Stammfunktion Rechenregeln 2 Dichten von Erwartungswert und Varianz
MehrStatistics, Data Analysis, and Simulation SS 2017
Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, 4. Mai 2017 Dr. Michael O. Distler
Mehr27 Taylor-Formel und Taylor-Entwicklungen
136 IV. Unendliche Reihen und Taylor-Formel 27 Taylor-Formel und Taylor-Entwicklungen Lernziele: Konzepte: klein o - und groß O -Bedingungen Resultate: Taylor-Formel Kompetenzen: Bestimmung von Taylor-Reihen
MehrDas empirische VaR bzw. CVaR
Das empirische VaR bzw. CVaR Sei x 1, x 2,..., x n eine Stichprobe der unabhängigen identischverteilten ZV X 1, X 2,..., X n mit Verteilungsfunktion F (Notation: Die ZV X 1, X 2,..., X n sind i.i.d. Empirische
MehrExtremwerte von Funktionen mehrerer reeller Variabler
Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein
MehrTopologie und Differentialrechnung mehrerer Veränderlicher, SS 2009 Modulprüfung/Abschlussklausur. Aufgabe Punkte
Universität München 22. Juli 29 Topologie und Differentialrechnung mehrerer Veränderlicher, SS 29 Modulprüfung/Abschlussklausur Name: Aufgabe 2 3 4 Punkte Gesamtpunktzahl: Gesamturteil: Schreiben Sie unbedingt
Mehr6 Die Bedeutung der Ableitung
6 Die Bedeutung der Ableitung 24 6 Die Bedeutung der Ableitung Wir wollen in diesem Kapitel diskutieren, inwieweit man aus der Kenntnis der Ableitung Rückschlüsse über die Funktion f ziehen kann Zunächst
MehrPartition Modelling. Sebastian Keim, Benedikt Jahn. Seminar. Stochastische Geometrie und ihre Anwendungen - Zufällige Netzwerke, 2008
Sebastian Keim, Benedikt Jahn Seminar Stochastische Geometrie und ihre Anwendungen - Zufällige Netzwerke, 2008 1 Motivation 2 3 4 5 6 1 Motivation 2 3 4 5 6 aus der Schadenversicherung - der Orkan Kyrill
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
Mehr4 Absolutstetige Verteilungen und Zufallsvariablen 215/1
4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral
MehrMultivariate Verteilungen. Gerhard Tutz LMU München
Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS
MehrInterpolation und Approximation von Funktionen
Kapitel 6 Interpolation und Approximation von Funktionen Bei ökonomischen Anwendungen tritt oft das Problem auf, dass eine analytisch nicht verwendbare (oder auch unbekannte) Funktion f durch eine numerisch
MehrErrata für: Methoden der statistischen Inferenz: Likelihood und Bayes
Errata für: Methoden der statistischen Inferenz: Likelihood und Bayes Leonhard Held 9. Juli 2009 2 Einführung 1. Auf Seite 9, muss es in Abschnitt 1.2.8, Zeile 6-7 richtig heissen: Wir werden nur die
Mehr1 Umkehrfunktionen und implizite Funktionen
Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13
MehrBeispiel für eine periodische Spline-Interpolationsfunktion: Wir betrachten f(x) = sin(πx) und geben die folgenden Stützstellen und Stützwerte vor:
5 Splineinterpolation Beispiel für eine periodische Spline-Interpolationsfunktion: Wir betrachten f(x) sin(πx) und geben die folgenden Stützstellen und Stützwerte vor: x i 3 f i Damit ist n 5, h Forderung
MehrDie n-dimensionale Normalverteilung
U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung
MehrBAYES SCHE STATISTIK
BAES SCHE STATISTIK FELIX RUBIN EINFÜHRUNG IN DIE STATISTIK, A.D. BARBOUR, HS 2007 1. Einführung Die Bayes sche Statistik gibt eine weitere Methode, um einen unbekannten Parameter θ zu schätzen. Bisher
MehrEinführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen
Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Inhalt Stichproben
MehrKlassische Polynom Interpolation.
Klassische Polynom Interpolation. Bestimme ein Polynom (höchstens) n ten Grades p n (x) = a 0 + a 1 x + a 2 x 2 +... + a n x n, das die gegebenen Daten interpoliert, d.h. p n (x i ) = f i, 0 i n. Erster
MehrKleine Formelsammlung zu Mathematik für Ingenieure IIA
Kleine Formelsammlung zu Mathematik für Ingenieure IIA Florian Franzmann 5. Oktober 004 Inhaltsverzeichnis Additionstheoreme Reihen und Folgen 3. Reihen...................................... 3. Potenzreihen..................................
MehrEinführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1
Einführung in die Bayes-Statistik Helga Wagner Ludwig-Maximilians-Universität München WS 2010/11 Helga Wagner Bayes Statistik WS 2010/11 1 Organisatorisches Termine: Montag: 16.00-18.00 AU115 Dienstag:
Mehrx p 2 (x )dx, Hinweis: es ist nicht erforderlich, zu integrieren!
Aufgabe T- Gegeben seien zwei normalverteilte Zufallsvariablen X N(µ, σ) 2 und X 2 N(µ 2, σ2) 2 mit pdf p (x) bzw. p 2 (x). Bestimmen Sie x (als Funktion der µ i, σ i, sodass x p (x )dx = + x p 2 (x )dx,
MehrNewton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer
Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für
MehrMusterlösung zu Serie 8
Dr. Markus Kalisch Statistik I für Biol./Pharm. Wiss./HST) FS 15 Musterlösung zu Serie 8 1. a) Damit fx) eine Dichte ist, muss die Fläche des Dreiecks gleich 1 sein. Es muss also gelten c = 1. Daraus folgt
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
MehrZulassungsprüfung Stochastik,
Zulassungsprüfung Stochastik,..3 Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf n wird mit B n bezeichnet, das Lebesgue Maß auf n wird
MehrDiplom VP Numerik 27. August 2007
Diplom VP Numerik 27. August 2007 Multiple-Choice-Test 30 Punkte Bei jeder MC-Aufgabe ist mindestens eine Aussage korrekt. Wird dennoch bei einer MC-Aufgabe keine einzige Aussage angekreuzt, gilt diese
MehrFrequentisten und Bayesianer. Volker Tresp
Frequentisten und Bayesianer Volker Tresp 1 Frequentisten 2 Die W-Verteilung eines Datenmusters Nehmen wir an, dass die wahre Abhängigkeit linear ist, wir jedoch nur verrauschte Daten zur Verfügung haben
MehrKlausur zur Vordiplom-Prüfung
Technische Universität Hamburg-Harburg SS Arbeitsbereich Mathematik Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren. Juli Sie haben Minuten Zeit zum Bearbeiten der Klausur. Bitte
MehrMathematik für Naturwissenschaftler II SS 2010
Mathematik für Naturwissenschaftler II SS 2010 Lektion 1 13. April 2010 Kapitel 6. Integralrechnung In den Naturwissenschaften finden sich zahlreiche Beispiele, bei denen die Berechnung bestimmter Integrale
MehrAnalysis I. 6. Beispielklausur mit Lösungen
Fachbereich Mathematik/Informatik Prof. Dr. H. Brenner Analysis I 6. Beispielklausur mit en Aufgabe. Definiere die folgenden (kursiv gedruckten) Begriffe. () Eine Relation zwischen den Mengen X und Y.
MehrSuffizienz und Vollständigkeit
KAPITEL 7 Suffizienz und Vollständigkeit 7.1. Definition der Suffizienz im diskreten Fall Beispiel 7.1.1. Betrachten wir eine unfaire Münze, wobei die Wahrscheinlichkeit θ, dass die Münze Kopf zeigt, geschätzt
MehrInterpolation, numerische Integration, Eigenwerte
Neunte Vorlesung, 29. Mai 2008, Inhalt Interpolation, numerische Integration, Eigenwerte Polynomiale Interpolation (Lagrange, Newton, Neville) Splines und weitere Interpolationsverfahren numerische Integration
Mehr